Créer des superintelligences « sûres », la nouvelle obsession des gourous de l'IA

Alors que les figures de l'intelligence artificielle font miroiter l'arrivée à moyen terme de superintelligences bien plus puissantes que les IA d'aujourd'hui, ils s'inquiètent aussi des nouveaux dangers qu'elles pourraient apporter. La question de la « sûreté » se retrouve plongée au cœur des discours des créateurs d'IA comme OpenAI et Anthropic, avec parfois une pointe d'hypocrisie.
François Manens
Pour l'instant, l'approche de Sutskever, tout comme celles d'OpenAI, d'Anthropic et d'autres, se concentre uniquement sur les catastrophes (Photo d'illustration).
Pour l'instant, l'approche de Sutskever, tout comme celles d'OpenAI, d'Anthropic et d'autres, se concentre uniquement sur les catastrophes (Photo d'illustration). (Crédits : Aly Song)

Le mot « safety », qu'on pourrait traduire en français par « sécurité » ou « sûreté », se trouve dans la bouche de tous les spécialistes de l'IA de la Silicon Valley. Au point que le concept se retrouve au centre de projets entrepreneuriaux et alimente la guerre des talents. Dernier exemple en date : fin juin, un des chercheurs les plus réputés du secteur de l'IA, Ilya Sutskever a présenté son nouveau projet : Safe Superintelligence, une structure qui, comme son nom l'indique, vise à développer une superintelligence sûre, c'est-à-dire sans danger pour l'humanité.

Un mois plus tôt, le scientifique, cofondateur d'OpenAI, avait quitté la startup, où il dirigeait l'équipe de « superalignement », chargée de développer des outils pour contrôler les IA du futur. Ilya Sutskever est une des figures les plus en avant d'une approche américaine (et donc dominante) des risques de l'IA, qui se concentre avant tout sur le risque existentiel.

En clair, elle vise à éviter les scénarios des films de science-fiction à la Terminator, où une intelligence artificielle surpuissante devient hors de contrôle et finit par cause du tort à l'humanité. Bien qu'ils insistent sur la prise en compte de ces risques dans leur discours, les géants de l'IA refusent toutefois, pour l'instant, tout autre approche que l'auto-régulation...

Avec la superintelligence, de nouveaux dangers attendus

« Cette entreprise est spéciale, car son premier produit sera la superintelligence sûre, et elle ne fera rien d'autre jusqu'à cet objectif. Elle sera entièrement à l'abri des pressions extérieures liées à la gestion d'un produit volumineux et complexe, et elle ne se retrouvera pas coincée dans une course effrénée à la performance », a promis l'ancien directeur scientifique d'OpenAI auprès de Bloomberg, après sa présentationÀ demi-mot, le chercheur accuse ainsi ChatGPT de mener une course à la performance, accentuant la pression à créer des produits, et ainsi d'avoir détourné son ancienne entreprise de sa mission initiale : créer des IA bénéfiques à l'humanité.

Lire aussiMistral, condamné au rôle du Petit Poucet dans la course à l'intelligence artificielle ?

En visant le développement d'une « superintelligence », Ilya Sutskever fait écho au concept de AGI [artificial general intelligence, ndlr], la ligne d'arrivée de la course à l'IA. Très discutée et partiellement floue, cette notion désigne généralement une IA capable d'égaler, voire de surpasser, le fonctionnement d'un humain. Les plus optimistes pensent l'atteindre sous cinq ans, tandis que les plus pessimistes doutent de son existence même.

« L'AGI est un argument avancé par les entreprises de l'IA pour vendre du rêve. Il permet de recruter et d'attirer les financements », tempère Hubert Etienne, chercheur en éthique de l'IA passé par Meta.

Reste que la perspective d'une arrivée proche de cette AGI soulève des inquiétudes sur les dangers qu'elle peut apporter.

Une vision étriquée de la sûreté des IA

Pour se démarquer, Ilya Sutskever agite un différenciant dans sa présentation : la superintelligence de SSI serait « sûre » dès sa conception. Son discours rappelle celui de Dario et Daniela Amodei, d'autres anciens d'OpenAI partis en 2019 suite à des désaccords liés à l'investissement de Microsoft. Eux aussi ont mis la sécurité au centre des missions d'Anthropic, fondé deux ans plus tard, et l'affichent comme un différenciant qui leur donnerait le beau rôle de chevalier blanc du secteur.

La startup, financée par les milliards d'Amazon et Google depuis 2023, a même créé une échelle à quatre niveaux de la dangerosité des modèles d'IA pour l'humanité. Concrètement, son équipe d'« alignement » développe et teste différents garde-fous.

Lire aussiAmazon et Anthropic, un mariage ouvert pour conquérir le marché de l'intelligence artificielle

Encore vague sur sa définition de la « sécurité » de l'IA, Ilya Sutskever affirme quant à lui qu'il peut l'améliorer par rapport à l'état de l'art grâce à des innovations au cœur de l'ingénierie des modèles d'IA. Autrement dit, il promeut une sécurité by design plutôt que par l'ajout de contrôles a posteriori. Cette vision techno-solutionniste, où la réponse aux problèmes relèverait simplement d'un défi technique, est loin d'être partagée par les spécialistes des enjeux éthiques.

« Si l'objectif des géants de l'IA est de créer Dieu sur Terre, il leur faut des experts qui ne soient pas uniquement des ingénieurs. Il faut de la diversité transdisciplinaire dans leurs équipes pour intégrer des enjeux légaux, éthiques, sociaux », estime Hubert Etienne.

Pour l'instant, l'approche de Sutskever, tout comme celles d'OpenAI, d'Anthropic et d'autres, se concentre uniquement sur les catastrophes. Résultat, la mise en danger de certaines populations plus vulnérables par les IA passe au second plan des priorités, alors qu'elle pourrait être incluse dans la définition d'une IA « sûre ».

Oui à l'autorégulation, non à la régulation

Si cet objectif de « sûreté » est martelé par les géants de l'IA, ils s'activent contre toute forme de régulation. En réaction au vote de l'IA Act, grand texte européen d'encadrement de la technologie, plusieurs entreprises ont décidé de ne tout simplement pas sortir certains modèles ou fonctionnalités d'IA en Europe, à l'instar de Meta avec la plus puissante version de Llama 3.

Leur combat se poursuit désormais en Californie, où les pouvoirs publics tentent de faire passer une proposition de loi, nommée SB 1047. En jeu : puisque la plupart des grandes entreprises de l'IA ont leur siège social en Californie, une régulation locale aurait des répercussions sur l'entièreté du secteur. Le texte prévoit d'imposer aux développeurs de la poignée de modèles d'IA les plus puissants des tests de sûreté, afin d'éviter les risques de « nuisance catastrophique » de leur technologie.

Dans le détail, ces contrôles visent à éviter que les IA causent des cyberattaques qui mèneraient à des pertes humaines ou à des incidents chiffrés à plus de 500 millions de dollars de dommages financiers. Autrement dit, la proposition de loi ne vise qu'à éviter les cas les plus extrêmes.

Lire aussiPassage de l'IA Act : une arme vraiment efficace contre les dérives de l'IA ?

Mais de leur côté, les géants de l'IA s'inquiètent qu'une régulation impose des contraintes trop vagues ou trop difficiles à mettre en place. Dans un secteur très concurrentiel où le temps est très précieux, elles préfèrent logiquement contrôler elles-mêmes le fragile équilibre entre course à la performance et encadrement des risques. Quitte à s'opposer à des initiatives a priori en accord avec leurs discours. La proposition de loi californienne se base sur des dispositifs que OpenAI, Anthropic et d'autres mettent déjà en œuvre de leur propre chef, comme le rappelle le Wall Street Journal.

En proposant un niveau de régulation très bas, SB 1047 a tout de même reçu le soutien de certains acteurs du secteur, par le biais d'une lettre signée par des stars de l'IA comme Geoffrey Hinton et Yoshua Bengi.  « Ce serait une erreur historique de rayer les mesures de régulation basiques de ce projet de loi, une erreur qui deviendrait encore plus évidente d'ici un an, lorsque la prochaine génération de systèmes d'IA encore plus puissante sera déployée », argumentent-ils. Mais les entreprises de l'IA semblent bien décidées à préférer la voie de l'auto-régulation, même si une partie de l'industrie se dit publiquement favorable à une régulation au niveau fédéral, où pour l'instant des dizaines de propositions de loi restent bloquées dans la machine parlementaire.

François Manens

Sujets les + lus

|

Sujets les + commentés

Commentaires 5
à écrit le 09/08/2024 à 12:58
Signaler
Sûr, c'est quoi ? La super-intelligence de certains milliardaires est-elle sûre ? Pas si sûr. La machine peut-elle faire mieux que l'humain ?

à écrit le 09/08/2024 à 11:48
Signaler
On leur recherche surtout une utilité pour en pousser la consommation ! On pense toujours à simplifier les choses en compliquant ! ;-)

à écrit le 09/08/2024 à 9:50
Signaler
bref, on se la pète grave chez les intellos. Qui feraient peut-être mieux de regarder ce qui est juste sous leur nez : on ne voit pas grand chose changer avec l'AI, malgré tout ce qu'on nous a annoncé depuis un an et demi.

à écrit le 09/08/2024 à 6:52
Signaler
Ils n'ont toujours pas créé d'intelligence artificielle qu'ils parlent déjà de "superintelligences" ! LOL ! "Le commerce est l'école de la tromperie" Nicolas Machiavel

à écrit le 08/08/2024 à 20:12
Signaler
Pour l instant votre superintelligence c est une massive retropropagation de gradients...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.