L’IA qui vient

HOMO NUMERICUS. Les intelligences artificielles (IA) génératives (ChatGPT...) pourraient être dépassées par d'autres IA plus avancées car capables d'analyser le comportement des humains. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.
Philippe Boyer
(Crédits : DR)

Et si les intelligences artificielles (IA) génératives, telles que nous commençons à les connaître depuis l'irruption grand public de l'agent conversationnel ChatGPT étaient déjà dépassées au profit d'autres modèles de plus en plus proches de la façon dont fonctionne le cerveau humain ?

Dit autrement, les LLM (Large Language Models ou grands modèles de langage), programmes informatiques basés sur des modèles de langue qui permettent à des algorithmes de calculer des probabilités de choix de mots pour rendre un texte plausible et intelligible, sont-ils l'aboutissement ou simplement une étape dans le développement exponentiel de l'IA ? La recherche actuelle en IA pousse les curseurs toujours plus loin en travaillant sur des systèmes qui pourraient s'adapter, élaborer des hypothèses... c'est-à-dire comprendre un environnement donné en vue d'accomplir des tâches complexes.

IA du futur

Le 15 février dernier, sur le blog de la plateforme Meta, ex-Facebook, Yann Le Cun, figure incontournable de l'IA, lauréat du prix Turing 2018, présentait le projet JEPA, pour Joint Embedding Predictive Architecture, dont la traduction serait « architecture prédictive d'enchâssement joint » : 4 mots à retenir, car ils pourraient bien représenter l'IA qui vient. Résumé à l'extrême, JEPA ne vise rien moins que de doter les machines d'une capacité de raisonnement, voire d'un sens commun.

Ce pari scientifique part du postulat que les formes actuelles de traitement du langage via les LLM, aussi perfectionnées et rapides soient-elles, présentent plusieurs insuffisances, à commencer par le fait qu'elles ne comprennent pas le monde réel, n'ont aucune mémoire associative, sont exclusivement entraînés avec du texte et, enfin, qu'elles commettent des erreurs, ces fameuses « hallucinations », c'est-à-dire proposent des réponses fausses ou trompeuses. Or, et à l'instar de l'apprentissage humain, il faut beaucoup plus que des mots pour acquérir de réelles capacités d'apprentissage.

Effet d'apprentissage

Formulés en 1949 par le neuropsychologue canadien Donald Hebb, la plupart des apprentissages humains sont conformes au fait que lorsqu'une cellule A transmet un influx nerveux à une cellule B qui lui est contiguë et que cette transmission est répétée et persistante, il se produit alors des changements métaboliques qui augmentent l'efficacité de A sur B de sorte de produire un effet d'apprentissage*. Ce que l'on observe sur les réseaux de neurones humains pourrait, supposons-le, être dupliqué à l'échelle d'une machine.

Avec le projet JEPA, c'est au fond toute l'histoire de l'IA qui se retrouve ici concentrée : comment imiter, se rapprocher du fonctionnent du cerveau humain qui, avec ses milliards de neurones, créé des connexions à l'origine de la compréhension du monde qui nous entoure et de nos multiples émotions.

Raisonnement hypothético-déductif

L'exemple donné dans l'exposé grand public de Yann Le Cun, serait que ce modèle JEPA adopterait les mêmes codes que ceux qu'un bébé qui découvre le monde qui l'entoure. À force de pousser son biberon au-delà de la table et avoir observé qu'à chaque fois qu'il fait les mêmes gestes, l'objet tombe, il en déduit qu'il existe un rapport de cause à effet (ici la troisième loi de la gravité formulée par Newton). JEPA serait ce jeune enfant en train d'apprendre en permanence en visionnant « la vie des humains » via des millions d'heures de vidéos.

L'objectif étant de construire une intelligence artificielle capable d'apprendre en observant pour ensuite en tirer des conclusions prédictives plausibles à partir d'une situation réelle. Cette IA du futur permettrait donc de prédire ce qui va se passer après telle ou telle action. Pour parvenir à un tel résultat, il faudra donc que les réseaux de neurones soient capables de comprendre le monde en étant, in fine, doté d'un certain sens commun qui serve à planifier des séquences d'actions dans un but particulier. Le scientifique l'explique :

« Avec V-JEPA, nous masquons une grande partie d'une vidéo afin que le modèle ne montre qu'une petite partie du contexte. Nous demandons ensuite au prédicteur de combler les lacunes de ce qui manque, non pas en termes de pixels réels, mais plutôt en tant que description plus abstraite dans cet espace de représentation ».

Au fond, il s'agit de doter la machine d'un programme de raisonnement hypothético-déductif qui permet de dégager une explication causale entre plusieurs phénomènes.

Société automatisée

Les usages de cette « IA JEPA » pourraient être multiples. En tissant des liens entre savoir universel et causalités, cette IA ayant observé et appris un immense corpus pourrait être capable d'apporter une compréhension nouvelle de phénomènes que le cerveau humain peine à conceptualiser, et cela dans des domaines scientifiques tels que la physique, la médecine voire les sciences dites « molles », à l'instar des comportements humains lorsqu'il s'agit d'économie ou de psychologie. Nous aurions ainsi à faire à une technologie de plus en plus puissante, capable de comprendre et d'anticiper, c'est-à-dire potentiellement de décider, voire d'organiser la société. Passées maîtres dans l'art du nudge, ces IA nous guideront imperceptiblement du fait que nos habitudes et attitudes si humaines auront été analysées et « dataifiées » par la machine.

Sans céder aux sirènes d'un « IA washing » inutilement alarmiste, on ne peut s'empêcher de penser qu'un tel modèle d'IA apporterait un potentiel supplément de connaissances. Pour autant, et en comprenant de mieux en mieux notre monde (ainsi que nos errements), cette gouvernance algorithmique pourrait aussi faire progressivement glisser notre société vers un modèle où les technologies cognitives (IA, big data, deep learning...) seraient au service d'un modèle computationnel global.

Comme l'écrivait le philosophe Paul Virilio, « l'invention du navire est aussi l'invention du naufrage ». Ce naufrage-là, s'il advenait, pourrait être celui de notre dépassement ou pire de notre effacement...

_______

(*) In La belle histoire du cerveau - JP Rossi, Editions De Boeck

Philippe Boyer

Sujets les + lus

|

Sujets les + commentés

Commentaire 0

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

Il n'y a actuellement aucun commentaire concernant cet article.
Soyez le premier à donner votre avis !

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.