Alexei Grinbaum : “Dans les années 1950 une autre idée apparaît : simuler à travers des neurones artificiels ce que fait le réseau de neurones dans notre cerveau.”

Alexei Grinbaum est directeur de recherche au CEA-Saclay. Il est spécialiste de la théorie de l’information quantique. Depuis 2003, il s’intéresse aux questions éthiques posées par les nouvelles technologies, notamment par les nanotechnologies, l’intelligence artificielle et la robotique. Membre du Comité national pilote d’éthique du numérique, il est aussi expert de la Commission européenne et président du Comité opérationnel d’éthique du numérique du CEA. Il publie en français, anglais et russe.

Propos recueillis par Bartolomé Lenoir.

Une Certaine Idée : Pouvez-vous nous expliquer comment est apparue l’intelligence artificielle ?

Alexei Grinbaum : Commençons par quelque chose de très ancien, et qui existait bien avant la technique moderne. Le grand philosophe Thomas Hobbes, au XVIIème siècle, dit que la pensée relève du calcul « thinking is reckoning ». Cette phrase fut notamment reprise par les positivistes français, comme Victor Cousin, au XIXème siècle. Nous sommes soumis à des logiques bien précises. Il s’agit ici d’un bon calcul logique selon un terrain logique. Cela donne des systèmes d’intelligence artificielle « qui pensent » et limitent la pensée à travers le calcul. C’est ce qu’on va appeler l’intelligence artificielle symbolique : comment est-ce qu’on déduit des choses, les unes des autres. Et cela donne ce qu’on appelle le paradigme computationnaliste, l’idée étant d’appliquer beaucoup de règles.

Dans les années 1950 et au tout début des années 1960, une autre idée apparaît : simuler à travers des neurones artificiels ce que fait le réseau de neurones naturels dans notre cerveau. Les neurones artificiels ne sont pas du tout comme les neurones naturels, ils sont beaucoup plus simples mais l’idée est de mettre beaucoup de systèmes élémentaires effectuant des calculs très simples. De la complexité de ce réseau de neurones va émerger tant de possibilités nouvelles et ce sans donner de règles. C’est ce qu’on appelle l’intelligence artificielle connexionniste.

UCI : Cela revient-il à « copier » l’Homme ?

AG : Il ne s’agit pas de véritablement copier, mais de s’inspirer de l’architecture du cerveau sachant que beaucoup de choses ne sont pas du tout des copies conformes. Qu’est-ce que nous allons apprendre sur le cerveau ? Concrètement, assez peu de choses. Il s’agit en fait de faire un réseau de neurones artificiels beaucoup plus simple que les réseaux de neurones biologiques, avec une topologie n’ayant rien à voir avec les connexions du cerveau. Malgré tout, il va en émerger quelque chose.

L’intelligence artificielle va connaître ce qu’on appelle communément les « deux hivers d’intelligence artificielle » : on essaye de fabriquer ces réseaux de neurones artificiels, et cela ne marche pas très bien. Les révolutions du XXIème siècle arriveront après.

La première révolution, c’est l’apprentissage profond et le réseau convolutif développé par Yann Le Cun dans les années 2000 : il s’agit de mettre plusieurs couches structurées en réseaux de neurones artificiels. La seconde révolution nous intéressant davantage est relative au langage. Elle date de 2017 et il s’agit d’une architecture très particulière de cet apprentissage profond. Elle s’est fondée sur deux idées.

La première approche symbolique, elle, a été appliquée au langage dans les années 1960, avec les premiers travaux de Joseph Weizenbaum ayant abouti en 1965 au MIT (pour « Massachussetts Institute of Technology ») à Boston. Il a ainsi réalisé un tout petit agent conversationnel avec une seule règle : transformer n’importe quelle phrase en question. Weizenbaum est lui-même surpris parce que cette machine a un véritable effet sur les utilisateurs. Mais déjà, il observe qu’elle fonctionne un peu comme un psychanalyste quand elle discute.

Ensuite, nous avons la révolution de Transformers de 2017. La machine va apprendre sur un corpus gigantesque de textes et va essayer de deviner un mot puis elle va l’apprendre et le retenir. En outre, la machine ne va pas diviser le langage en mots comme nous le faisons, nous les êtres humains. Elle va faire des « tokens » (jetons, en français) : c’est la tokenisation du langage. La machine va diviser un texte en des morceaux beaucoup plus petits qu’un mot et n’ayant aucun sens humain : elle ne va pas travailler avec des mots ayant un sens mais avec des morceaux complètement formels et n’ayant aucun sens humain. Quand elle va se dérober à un morceau/token et pour le deviner, elle va regarder partout. L’ordre séquentiel des mots ne l’intéresse absolument pas.

UCI : Qui a inventé le token ?

AG : C’est une idée qui a émergé dans les années 2010. Tous ces travaux viennent en prolongation des systèmes qui complètent les phrases. Nous nous sommes rendus compte qu’une machine pouvant compléter un mot ou écrire deux mots, peut également écrire un paragraphe ou une page. L’idée fondamentale est de casser l’ordre séquentiel. Afin de retrouver un token, on va regarder tous les autres tokens. On n’apprend pas dans l’ordre séquentiel, l’idée de non-linéarité est essentielle.

UCI : Quelle va être la vitesse des mutations technologiques dans la mesure où elles sont exponentielles et comment envisagez-vous le monde avec l’IA dans un avenir proche et à un horizon plus lointain ?

AG : La vitesse est le cœur de la réflexion. Par exemple, l’évolution chez l’être humain se déroule à l’échelle de générations entières. Aussi, l’automobile apparaît autour de 1900 et les cochers disparaissent vers 1940, soit tout de même deux générations. À l’inverse, la vitesse des bouleversements technologiques n’est de l’ordre que de quelques mois seulement : il y a six mois, ChatGPT n’était même pas dans nos vies quotidiennes. Nous sommes ainsi entrés dans une échelle de temps infiniment plus rapide et il va falloir apprendre à vivre avec ces changements structurels, posant un problème éthique fondamental.

C’est une révolution : cette technologie qu’est l’IA va changer beaucoup de choses. Cela ne veut pour autant pas dire que les professions d’avocats, de juristes ou de journalistes vont disparaitre, mais la manière dont vont s’effectuer ces métiers-là va nécessairement évoluer. En revanche, la manière dont notre cerveau va assimiler des connaissances et effectuer son apprentissage va être considérablement modifiée.

Un des enjeux fondamentaux, c’est l’éducation. Il faut absolument que l’école démystifie autant que faire se peut ces technologies dans la mesure où les bouleversements structurels qu’induisent la révolution de l’intelligence artificielle vont être importants. Il est nécessaire que nous apprenions à formuler des requêtes, par exemple. C’est alors qu’un tout nouveau métier va apparaître : l’ingénierie des requêtes, l’ingénierie des prompts, ou comment est-ce qu’on peut avoir le meilleur résultat et tirer parti de ChatGPT.

UCI : Cela questionne tout de même quant à la modification de l’intelligence humaine. Ne faudrait-il pas faire attention ?

AG : Il est impératif que les enfants apprennent encore à lire et à écrire des textes. Pour cela, il faut maintenir les distinctions : cela signifie qu’un élève ne pourra pas soumettre un texte écrit par ChatGPT à son professeur et dire que c’est son texte. Il est nécessaire d’avoir des codes en filigrane, des « watermark » pour que l’enseignant puisse évaluer le cerveau de l’enfant et mesurer son intelligence cognitive (et pas ce qu’a fait ChatGPT).

En outre, ChatGPT écrit des textes de qualité moyenne, ils sont fabriqués de manière statistique et ne sortent pas de l’ordinaire. Le système n’évalue ni le beau, ni le vrai par la conception. Ce que j’espère, c’est que tout ce qui relève de l’écriture belle, recherchée, avec un style littéraire bien défini (comme la poésie), restera du ressort humain avec une capacité à évaluer. C’est alors qu’on ne se posera plus la question du « savoir écrire » mais du « savoir bien écrire » : est-ce que vous savez écrire « humainement » et surtout mieux que les machines et autres programmes d’intelligence artificielle ?

UCI : Est-ce que l’IA est modifiable ou du moins contrôlable, d’un point de vue éthique ?

AG : Contrairement à un être humain qui est plus ou moins libre de choisir sa finalité, la machine est relativement libre de la mise en œuvre de ladite finalité. Il existe très clairement des risques et pour cela nous inventons des éléments de contrôle supplémentaires : le système qui génère des textes dans ChatGPT et ce que vous voyez, c’est un système de génération avec énormément de couches de contrôle par-dessus (pas d’insultes par exemple). Aussi, ChatGPT n’agit pas en conseiller juridique ou en médecin : l’intelligence artificielle peut faire des recommandations ou donner des conseils mais ne peut pas générer d’avis ou de prescriptions, qu’elles soient médicales, juridiques, etc.

L’objectif de ces couches de contrôle est de ramener un élément non-humain contenu dans les machines – et dans les programmations de calcul notamment – le plus près possible du monde humain et des significations qui sont les nôtres. Pour ce faire, il y a les benchmarck, soit des ensembles, des corpus de data standardisés pour tester les performances de ces machines et si les performances sont bonnes, alors cela passe sur le marché.

Autre item davantage intéressant et permettant justement de contrôler, c’est ce qu’on appelle les comportements émergents des machines. Il s’agit de faire des évaluations par des experts indépendants. C’est ce qu’on appelle les « blue team » contre « red team » (les bleus contre les rouges) : les experts en cybersécurité organisent des simulations d’attaques dans lesquelles une équipe rouge tente d’infiltrer un système pendant qu’au même moment une équipe bleue essaye de l’en empêcher

Ces deux éléments réunis permettent quand même de réduire le taux d’erreur, même si le risque zéro n’existe pas.

UCI : Existe-t-il aussi un risque de manipulation du savoir ? Comment opère-t-on un contrôle puisque les humains ont déjà un biais idéologique, une subjectivité ?

AG : Il y a effectivement des superviseurs, des modérateurs humains. Tous ont des valeurs différentes. Dès lors, il apparaît comme évident que ChatGPT a été conçu avec des instructions de tri et de filtrage de données par Open AI d’émanation américaine, il n’y a aucun doute. Il faut donc inviter des modérateurs différents et générer une diversité, c’est l’un des sujets.

Un autre point important sur lequel le comité national d’éthique du numérique va insister est que dans les différents corpus d’apprentissage actuels sur lesquels ces machines sont entraînées, l’anglais est largement dominant. Cela signifie que même si vous parlez en français, en latin ou en grec ancien à cette machine, elle va certes s’exprimer dans lesdites langues, mais la manière de parler, elle, va logiquement s’inspirer de l’anglais.

Ainsi, la machine véhicule de manière même implicite les valeurs culturelles nationales et civilisationnelles de la langue et ce qui est dès lors très important, c’est de fabriquer des corpus d’apprentissage où aucune langue, y compris l’anglais, ne sera dominante. En effet, la domination d’une langue se traduit en une domination culturelle sur les résultats. C’est pour cela qu’il faut impérativement équilibrer la représentation des langues dans les corpus.

UCI : Sur un autre sujet, y-a-t-il une révolution sur la capacité des machines ?

AG : Assurément. Vous avez la puce Nvidia conçue pour les applications d’IA, d’analyse de données et de calcul haute performance. Les calculs élémentaires sont autrement plus performants maintenant que dans les décennies précédentes et c’est ainsi qu’il peut y avoir des machines ayant non pas des milliers ou des millions de paramètres, mais des milliards, des centaines de milliards, voire des trillions de paramètres dans un réseau de neurones artificiels. La performance en est décuplée, même si ça n’est pas extraordinaire.

Il y a une transition de phase, mais nous ne pouvons pas l’expliquer. C’est ce qui s’est passé avec le passage de GPT 2 en 2019 vers GPT 3 en 2020 et qui a fasciné tous les spécialistes du domaine : il y avait 3 milliards de paramètres dans GPT 2 tandis qu’avec GPT 3 et ses 175 milliards de paramètres, les performances étaient autrement plus spectaculaires et vraiment meilleures que GPT2. Et je ne parle même pas de GPT 4.

Scientifiquement, nous ne connaissons pas le nombre de paramètres. Néanmoins, la qualité des résultats, c’est-à-dire la performance linguistique de la machine, commence à grandir de manière spectaculaire.

Press ESC to close

%d blogueurs aiment cette page :