Le départ d'llya Sutskever, l'architecte des garde-fous des IA, marque la fin d'une ère pour OpenAI

Le scientifique en chef du créateur de ChatGPT quitte l'entreprise qu'il a cofondée. Quelques heures plus tard, Jan Leike, en charge du « superalignement » chez OpenAI, a fait de même. Les deux hommes sont de fervents croyants en l'avènement d'une « intelligence artificielle générale », dont il faut absolument contrôler les effets sur le devenir de l'humanité. Leur départ intervient quelques jours après la présentation des nouvelles capacités du chatbot star.
Le cofondateur et chef scientifique de l'entreprise OpenAI démissionne.
Le cofondateur et chef scientifique de l'entreprise OpenAI démissionne. (Crédits : Dado Ruvic)

Les obsédés de la sécurité de l'intelligence artificielle quittent le navire OpenAI. Le cofondateur de l'entreprise, Ilya Sutskever, a annoncé mardi 14 mai en fin de journée son départ de l'entreprise star de la Silicon Valley depuis qu'elle a lancé ChatGPT. Il dit vouloir se concentrer sur un projet personnel. Il est remplacé par Jakub Pachocki, chercheur en charge notamment du développement de GPT-4.

Ce départ est symbolique car le scientifique en chef d'OpenAI incarnait une certaine vision de l'entreprise et plus largement de l'intelligence artificielle. Ilya Sutskever est persuadé que nous parviendrons un jour à mettre au point une intelligence artificielle générale (AGI), dont les capacités seraient supérieures aux humains, et que cette superintelligence doit absolument être contrôlée. Celui qui est décrit comme un « leader spirituel » au sein de l'entreprise, est notamment connu pour scander régulièrement « Feel the AGI » (ressentez l'AGI). Part-il parce qu'il estime que l'entreprise est sur de mauvais rails ? « La trajectoire de l'entreprise a été tout simplement miraculeuse, et je suis convaincu qu'OpenAI construira une intelligence artificielle générale à la fois sûre et bénéfique », a-t-il tenu à préciser dans une publication sur X.

Pourtant il y a quelques mois Ilya Sutskever semblait douter de la direction prise par l'entreprise. C'est d'ailleurs pour cette raison qu'il a participé activement au limogeage de Sam Altman en novembre dernier (avant de regretter et de vouloir son retour). Lui-même l'a reconnu sur X, lorsque l'entreprise traversait un chaos médiatique. Selon The Information, il aurait convaincu les autres membres du conseil que Sam Altman déployait une stratégie trop commerciale, mettant sur le marché des produits trop rapidement. Une direction qui n'est pas en adéquation avec le souhait initial d'Open AI : construire une « intelligence artificielle générale bénéfique pour l'ensemble de l'humanité. » Suite à cet épisode, Ilya Sutskever avait quitté le conseil d'administration, mais était resté à son poste chez OpenAI. Sam Altman a lui été réintégré après une fronde des salariés contre le conseil d'administration.

Lire aussiOpenAI : les raisons du retour triomphal de Sam Altman à la tête de la star de l'IA

Ilya Sutskever, le chef de file des "pessimistes" de l'entreprise

Pour comprendre l'origine de la discorde il faut remonter aux origines de l'entreprise. Lorsqu'Ilya Sutskever co-crée Open AI aux côtés de Sam Altman et d'Elon Musk, l'organisation est une structure à but non lucratif. Son but n'est pas de faire du profit, mais de veiller à la bonne direction du développement de l'IA. Les choses changent en 2019 lorsque OpenAI décide de créer une société à profit limité, tout en conservant le conseil d'administration initial. La coexistence de ces deux intentions a créé une scission au sein des équipes, qui s'intensifie après le lancement de ChatGPT fin novembre 2022, puis sa monétisation quelques mois plus tard.

On trouve d'un côté les techno-optimistes, menés notamment par le PDG Sam Altman. Ceux-ci plaident pour le développement commercial rapide de l'entreprise. Et de l'autre les « AI doomers », les pessimistes, imprégnés des idéaux controversés long-termistes, persuadés que l'IA représente un risque existentiel pour l'humanité et qu'il faut veiller à ce qu'elle ne devienne pas malveillante, en investissant davantage dans la sécurité.

Quelques heures après l'annonce de son départ, Jan Leike, une autre figure du camp des « doomers » a lui aussi annoncé sa démission. Cet ingénieur dirigeait l'équipe « Superalignement » d'Open AI aux côtés de Sustkever. Celle-ci est en charge depuis l'été 2023 de veiller à ce que les systèmes développés par l'entreprise soient alignés à ce que veulent les humains. Dans un post de blog présentant cette nouvelle équipe, OpenAI précisait que 20 % de la puissance de calcul de l'entreprise est consacrée à cet objectif. Ce même article reconnaît par ailleurs que l'entreprise à l'heure actuelle ne dispose pas de moyens techniques permettant de s'assurer qu'une IA « superintelligente » soit contrôlable. « Les humains ne seront pas en mesure de superviser de manière fiable des systèmes d'IA beaucoup plus intelligents que nous, et nos techniques d'alignement actuelles ne pourront pas s'adapter à ces superintelligences. Nous avons besoin de nouvelles percées scientifiques et techniques. »

Lire aussiA Paris et dans le monde, les inquiets de l'intelligence artificielle appellent à une pause

Des départs interviennent en plein développement commercial de l'entreprise

Jan Leike sera remplacé par John Schulman, l'un des cofondateurs de l'entreprise, qui avait pris parti de Sam Altman lors du fiasco de novembre dernier. Ces départs ne signifient pas que l'entreprise abandonne ces objectifs de « superalignement », aucune annonce ne semble aller dans ce sens. Mais ils sont symboliques pour de nombreux observateurs. D'autant qu'il y a quelques semaines, deux autres chercheurs William Saunders (lui aussi membre de l'équipe superalignement) et Daniel Kokotajlo ont eux aussi démissionné. Sur le forum du blog LessWrong (proche des idéaux transhumanistes), Daniel Kokotailo, qui plaide pour une pause dans le développement de l'IA, justifie sa démission. Il évoque sa désillusion par rapport à la capacité et la volonté de l'entreprise à contrôler l'intelligence artificielle générale.

Ces départs interviennent par ailleurs à une étape clé du développement de l'entreprise. Lundi, OpenAI a présenté lundi une nouvelle version de ChatGPT qui peut désormais tenir des conversations orales et fluides avec ses utilisateurs. La firme a également baissé le prix d'accès à sa technologie.

Lire aussiChatGPT se rapproche de l'idéal d'une IA capable de converser comme un humain

De quoi conclure que la tribu des techno-optimistes pro-développement commercial a définitivement gagné face à la tribu des pessimistes attachés à la sécurité ? Peut-être. Mais n'oublions pas que Sam Altman n'est pas en désaccord profond avec les idées d'Ilya Sutskever. Lui-même évoque régulièrement les risques existentiels liés à l'avènement de l'intelligence artificielle générale. Pour lui, générer du profit grâce à ChatGPT et aux autres produits est un moyen de servir l'objectif premier de l'entreprise - à savoir créer des IA plus sûres, avance-t-il. Et insister sur la potentielle dangerosité de la technologie qu'il développe, et dont son entreprise est l'une des seules à pouvoir maîtriser, est aussi un très bon coup marketing...

Sujets les + lus

|

Sujets les + commentés

Commentaires 3
à écrit le 16/05/2024 à 12:12
Signaler
Les apprentis sorciers quittent le navire.

à écrit le 15/05/2024 à 21:16
Signaler
«Ilya Sutskever est persuadé que nous parviendrons un jour à mettre au point une intelligence artificielle générale (AGI), dont les capacités seraient supérieures aux humains, et que cette superintelligence doit absolument être contrôlée.» Est-ce ...

à écrit le 15/05/2024 à 14:43
Signaler
plutot une bonne nouvelle. si une IA est capable de regler les problemes de la terre, elle en deduira qu on est trop nombreux et qu il va falloir faire comme skynet

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.