L’intelligence artificielle (IA) a parcouru un long chemin depuis ses débuts avec Alan Turing en 1950. Des victoires remarquables de Deep Blue à la montée en puissance des réseaux de neurones, en passant par les avancées récentes des modèles de langage comme ChatGPT, nous explorons l’évolution et les défis de l’IA, ainsi que les efforts pour créer une IA digne de confiance.
L’intelligence artificielle (IA), dont les prémices remontent à Alan Turing en 1950, a franchi diverses étapes marquantes depuis ses débuts. L’un des premiers faits d’armes remarquables s’est déroulé en 1997, lorsque Deep Blue, l’ordinateur conçu par IBM, a triomphé de Garry Kasparov, alors champion du monde d’échecs. Cette victoire, cependant, représentait l’ancienne approche de l’IA.
Victoire de Deep Blue sur Garry Kasparov en 1997.
Deep Blue a impressionné en analysant jusqu’à 330 millions de positions futures par seconde, bénéficiant d’une connaissance approfondie du jeu d’échecs intégrée à son logiciel. Cette méthode « cognitiviste », basée sur la manipulation de connaissances, a longtemps prévalu. Parallèlement, une approche plus discrète, l’apprentissage automatique, émergeait, consistant à développer des algorithmes capables d’apprendre à partir d’exemples sans préconnaissance du problème à résoudre, grâce à des méthodes statistiques.
Introduction de l’apprentissage automatique et de l’apprentissage profond.
L’une des percées les plus significatives fut l’introduction, en 1989 par Yann Le Cun, de la rétro-propagation du gradient. Cet algorithme constitue un pilier dans le domaine de l’apprentissage automatique, notamment pour l’entraînement des réseaux de neurones artificiels, en visant à minimiser une fonction de coût en ajustant les poids des connexions entre les neurones du réseau. Son objectif fondamental est d’optimiser la performance du réseau en ajustant itérativement ces poids. L’algorithme calcule le gradient de la fonction de coût par rapport aux poids du réseau, indiquant ainsi la direction dans laquelle les poids doivent être ajustés pour réduire l’erreur. Cette méthode a été largement adoptée avec des succès notables, notamment dans des applications telles que la lecture automatique des codes postaux sur le courrier.
Parallèlement, l’introduction des réseaux de neurones convolutifs, inspirés du cortex visuel, a révolutionné la vision artificielle. En 2012, l’équipe de Geoffrey Hinton a démontré la supériorité de l’apprentissage profond en reconnaissance d’image avec AlexNet, marquant ainsi un tournant dans ce domaine.
Ces avancées ont rapidement trouvé des applications pratiques, de la détection de visages dans nos smartphones à l’analyse d’images médicales pour le diagnostic. Même le tri des déchets recyclables bénéficie désormais de ces technologies.
Plus récemment, l’IA générative a fait son apparition, permettant la création d’images à partir de descriptions textuelles, avec des projets tels que DALL-E. Cependant, ces avancées soulèvent également des préoccupations, notamment en ce qui concerne la création de vidéos manipulées, appelées deep fakes.
En parallèle, les progrès dans le traitement du langage naturel ont été remarquables, comme en témoigne le développement de word2vec, qui a ouvert la voie à une meilleure compréhension sémantique des mots. Ces avancées ont conduit à des applications impressionnantes, mais soulèvent également des questions sur les limites de la compréhension de l’IA et ses implications dans notre quotidien. Malheureusement, les langues ne sont pas avares d’homonymies, polysémies et autres ambiguïtés.
Nécessité pour une IA de comprendre les nuances du langage.
Dans le monde complexe de la traduction et du dialogue, les intelligences artificielles (IA) doivent naviguer avec précision entre les différents sens des mots. En 2017, une avancée majeure a émergé avec l’introduction du transformeur par une équipe de Google, permettant de discerner des nuances subtiles entre les mots. Cette architecture a ouvert la voie à la création de grands modèles de langage (LLM), dont le fameux GPT-3, comptant 175 milliards de paramètres.
Après un entraînement massif sur d’énormes corpus textuels, ces LLM sont capables de générer du texte à partir de prompts fournis par les utilisateurs, offrant une flexibilité infinie dans la production de contenu. Toutefois, ces modèles peuvent véhiculer des opinions indésirables, ce qui nécessite une correction grâce à l’apprentissage « par renforcement », où les humains interviennent pour guider et ajuster les paramètres du modèle.
Pour transformer ces LLM en véritables chatbots, ils sont nourris de dialogues humains, aboutissant à des créations telles que ChatGPT d’OpenAI. Son lancement en novembre 2022 a marqué un tournant dans l’histoire de l’IA, suscitant un engouement immédiat avec un million d’utilisateurs en seulement cinq jours. Cependant, malgré ses capacités impressionnantes à générer des phrases cohérentes, ChatGPT reste limité dans sa compréhension et sa capacité à résoudre des problèmes complexes.
L’avenir des modèles de langage réside dans leur intégration avec des algorithmes spécialisés, permettant une utilisation plus efficace dans des domaines tels que la recherche sur internet ou le calcul. Ce mariage entre les capacités génératives des LLM et les fonctionnalités analytiques d’autres algorithmes pourrait ouvrir de nouvelles possibilités passionnantes dans le domaine de l’IA.
Le défi consistant à développer une intelligence artificielle digne de confiance.
Le défi de développer une intelligence artificielle (IA) fiable et digne de confiance est crucial dans notre société contemporaine. Les modèles de langage comme ChatGPT et autres incarnent cette avancée technologique, offrant une nouvelle façon de synthétiser l’information et de répondre aux questions des utilisateurs de manière concise. Toutefois, malgré leur potentiel remarquable, les réseaux de neurones, piliers de l’apprentissage profond, restent des boîtes noires, posant ainsi des défis en termes de compréhension et de transparence.
Ainsi, il est impératif de concevoir une IA qui soit explicable, certifiable, équitable et responsable. Pour y parvenir, une approche prometteuse consiste à combiner les capacités des réseaux de neurones avec celles de l’IA symbolique ou cognitiviste, favorisant ainsi une meilleure compréhension et une régulation plus efficace des systèmes d’IA. L’Union européenne, pionnière en la matière, travaille activement sur un AI Act pour encadrer l’utilisation de l’IA, une initiative qui devrait inspirer d’autres régions du monde dans la quête d’une IA de confiance.