Image générée par Makifaa AI (www.makifaa.com)
L’intelligence artificielle (IA) et le Big Data sont deux technologiques convergentes qui, au-delà de devenir les disruptions numériques les plus importantes à partir de cette année, vont bouleverser le court de la vie dans tous les secteurs. Entre avantages et dangers, l’humain devra trouver le mécanisme d’en tirer le meilleur parti.
Les grandes tendances technologiques de 2024 les annoncent comme des technologies en passe d’évoluer encore plus rapidement qu’Internet et les technologies de la communication mobile. L’IA et le Big Data connaissent des croissances exponentielles dont la rencontre permettra à chacune d’elles, de se développer de façon fulgurante.
L’IA porte sur un ensemble de théories et de techniques d’imitation de l’intelligence humaine. Lesquelles sont basées sur la création et l’application d’algorithmes exécutés dans un environnement informatique dynamique. Elle utilise des ordinateurs et des machines pour reproduire la capacité de résolution de problèmes et de prise de décision de l’être humain. Mais le Big Data désigne l’analyse de données massives collectées par des entreprises ou des industries, afin d’en extraire des informations précieuses.
Si l’IA a vu le jour en 1950 grâce à l’article d’Alan Turing intitulé « Computing Machinery and Intelligence », le terme Big Data n’est apparu pour la première fois qu’en 1997, dans un article publié par deux chercheurs de la NASA : Michael Cox et David Ellsworth.
Convergence de l’IA et du Big Data
Historiquement, « les technologies de l’IA et du Big Data ont convergé grâce à l’apprentissage supervisé qui a donné des résultats impressionnants dans le computer vision. Cela a commencé en 2012 lors de la compétition Imagnet où les algorithmes du Deep Learning ont surpassé les autres algorithmes comme les SVM ou autres », rappelle Bouchentouf Toumi, professeur à l’Université Mohammed Premier au Maroc (UMP).
En effet, précise Noël Tossou, consultant en Ingénierie du Big Data : « la convergence entre l’IA et le Big Data repose sur l’utilisation conjointe de vastes ensembles de données pour alimenter et améliorer les systèmes d’intelligence artificielle. Les technologies de Big Data fournissent l’infrastructure nécessaire pour collecter, stocker et traiter de grandes quantités de données provenant de diverses sources. Ces données sont ensuite utilisées par les systèmes d’IA pour entraîner des algorithmes et améliorer leur précision et leur performance. »
La convergence de ces deux technologies est relative au traitement de données massives, l’analyse prédictive avancée, l’automatisation des processus et la personnalisation des expériences utilisateur. « L’IA et le Big Data transforment profondément la manière dont les entreprises opèrent et la façon dont les individus interagissent avec les services. Cependant, il est important de gérer de manière éthique et responsable les données et les applications de l’IA pour minimiser les risques potentiels », renchérit Igor Hounzandji, Directeur scientifique à l’Agence francophone de l’intelligence artificielle (AFRIA), qui cite la santé, l’éducation, la finance, l’industrie manufacturière, le transport, le commerce électronique, la sécurité et les ressources humaines ; comme les secteurs d’impacts majeurs de l’IA et du Big Data.
Le plus grand danger…
En juin 2016, OpenAI a publié des recherches sur les modèles génératifs, annonçant l’avenir de ChatGPT, un outil de génération de texte basé sur l’IA réputé le plus célèbre du moment. Il aide à rédiger des articles, des réponses à des questions ou des messages. Malgré les risques que représente cette avancée technologique à en croire certains experts, le 6 novembre 2023, à l’occasion l’OpenAI DevDay, le géant de l’IA a lancé une version surpuissante de l’outil pour permettre à tout le monde de tirer avantage de cette intelligence artificielle.
La plupart des grandes entreprises de la high-tech ont toutes leur IA. C’est le cas de Google qui a récemment dévoilé Gemini, une avancée significative dans l’IA générative, sur le point de devenir l’épine dorsale de divers services et produits Google. Gemini est le dernier modèle de langage à grande échelle (LLM), développé par Google DeepMind et Google Cloud. Il surpasse son prédécesseur, PaLM 2, en obtenant un score de plus de 90% sur le benchmark MMLU (Massive Multitask Language Understanding), qui évalue la compréhension dans un large éventail de sujets. Ce modèle se distingue par son adaptabilité, capable de fonctionner à la fois sur le cloud et les appareils mobiles, et sa multimodalité, comprenant des entrées de texte, d’images, d’audio et de vidéo.
De la même façon que ces avancées technologiques sont fulgurantes, les dangers qu’elles induisent ou représentent sont énormes. « Les systèmes d’IA peuvent être vulnérables aux attaques malveillantes, et il est crucial de mettre en place des normes éthiques pour guider le développement et l’utilisation de ces technologies. De même, la collecte et l’analyse massives de données peuvent entraîner des atteintes à la vie privée si elles ne sont pas correctement gérées, notamment avec le risque de profilage excessif », fait savoir Igor Hounzandji.
« Nous commençons à le voir venir les biais algorithmiques : les systèmes d’IA peuvent refléter des préjugés dans les données. Le plus grand danger réside dans le fait que la finance mondiale est actuellement complétement gérée par des systèmes IA d’une part, et d’autre part, la responsabilité de la génération et l’utilisation et la sécurité des données utilisées ou générées par les systèmes d’IA. En effet, le risque est qu’il y ait une fracture entre les pays et les entreprises qui possèdent et gèrent ses systèmes IA et ceux qui ne vont que les consommer », prévient professeur Bouchentouf Toumi.
« […] nous aurons encore besoin de développeurs »
Au-delà des risques, nul ne réfute l’utilité de l’IA et du Big Data, notamment dans l’automatisation des tâches répétitives, la prise de décision assistée, les avancées médicales (avec le robot Rosa par exemple) et l’automatisation industrielle.
A cet effet, les êtres humains et les entreprises doivent s’y adapter, mais selon plusieurs facteurs. La connaissance est un aspect important, à en croire Igor Hounzandji qui parle de la « formation, de l’éducation et de la compréhension des technologies. En effet, les individus doivent acquérir des compétences nouvelles et mettre à jour leurs connaissances pour rester pertinents. Les programmes de formation continus et l’éducation formelle seront essentiels. Une connaissance approfondie des concepts liés à l’IA et au Big Data est nécessaire pour une utilisation efficace et éthique de ces technologies. »
Professeur Bouchentouf Toumi fait la part des choses. Pour lui, les humains doivent s’adapter à l’utilisation des systèmes IA en matière de connaissance en considérant ces systèmes comme des outils et non comme des références absolues de la connaissance. Car, dit-il, les IA générative souffrent de ce que l’on appelle les hallucinations. En matière d’usage, il faut qu’il y ait une culture du prompt sur comment poser les questions à un système IA et comment l’utiliser. Et en termes de continuité d’activités humaines, il faut que ces systèmes IA soient au service de l’homme et non l’inverse et donc doivent être utilisés en tant qu’aide à la prise de décision.
Il reste tout de même réaliste : « la place de l’humain sera très difficile à remplacer, si nous prenons par exemple un domaine que nous connaissons très bien et qui est le développement d’application donc le code. Avec les IA génératives, ce sera très difficile de remplacer un développeur informatique. En effet, pour poser une question à une IA générative pour qu’elle puisse générer du code, il faut avoir des connaissances sur le code correspondant. Oui ! Elle va augmenter la qualité du code, oui nous pourrons coder plus vite mais nous aurons encore besoin de développeurs. »
Parlant des risques, Noël Tossou, estime qu’« il est essentiel de développer une culture de gestion des risques liés à ces technologies. Cela implique d’identifier les vulnérabilités potentielles, d’anticiper les conséquences indésirables et de mettre en place des stratégies pour atténuer ces risques, que ce soit par des régulations gouvernementales ou des mesures internes au sein des organisations. »
Entre utilités et risques, l’utilisation de l’IA et du Big Data doit recourir à des règles d’éthique qui tiennent compte de l’humanité, en mettant l’humain au-dessus de toutes créations artificielles.
Cliquer ici pour accéder à l’ensemble des articles du Dossier / IA, quel impact sur l’Afrique ?