Des salariés d'Open AI alertent sur « la perte de contrôle de systèmes d'IA autonomes »

Plusieurs salariés et ex-employés de la startup OpenAI ont publié une lettre ouverte dans laquelle, sous couvert d'anonymat, ils expriment leurs craintes quant au développement de l'intelligence artificielle. Ils demandent aussi le droit de pouvoir porter publiquement un regard critique sur leurs activités et les risques liés à cette science.
Les signataires encouragent notamment la création de canaux de signalement anonyme en interne pour mettre en garde contre certains risques.
Les signataires encouragent notamment la création de canaux de signalement anonyme en interne pour mettre en garde contre certains risques. (Crédits : DADO RUVIC)

L'intelligence artificielle (IA) fait naître des réserves, y compris parmi ceux qui créent ces modèles. 13 personnes - dont quatre employés et sept anciens d'OpenAI, la startup à qui l'on doit ChatGPT - ont publié une lettre ouverte ce mardi dans laquelle ils s'affichent inquiets concernant les avancées de l'IA. Parmi les risques cités : « le renforcement des inégalités, la manipulation, la désinformation, en allant jusqu'à la perte de contrôle de systèmes d'IA autonomes qui pourraient entraîner l'extinction de l'humanité ».

S'ils estiment que ces risques peuvent être limités « avec le concours de la communauté scientifique, des autorités et du public », « les entreprises de l'IA sont incitées financièrement à échapper à une supervision efficace », estiment-ils, sous couvert d'anonymat.

Lire aussiIntelligence artificielle : les grands doutes des économistes sur l'emploi et la croissance

Pouvoir s'exprimer publiquement

Les auteurs de la lettre demandent ainsi aux sociétés phares de l'IA de « soutenir une culture de la critique ouverte en permettant à leurs employés actuels et anciens de mettre en avant publiquement des inquiétudes liées à leurs technologies ». Ils encouragent aussi la création de canaux de signalement anonyme en interne pour mettre en garde contre certains risques.

Les signataires regrettent d'être actuellement en quelque sorte muselés. En effet, « des clauses de confidentialité exhaustives les empêchent d'exprimer (leurs) préoccupations » publiquement, dénoncent-ils. Et dans la mesure où les problèmes que souhaitent évoquer ces programmeurs ne relèvent pas d'activités illégales, ils ne peuvent bénéficier du statut de lanceur d'alerte, soulignent-ils.

« Certains d'entre nous craignent des représailles (au cas où ils communiqueraient ouvertement), compte tenu des précédents qui existent dans l'industrie », écrivent-ils.

Récemment, les deux responsables de l'équipe chargée de la sécurité d'une potentielle super intelligence artificielle ont quitté OpenAI. L'un d'eux, Ilya Sutskever, qui avait cofondé la startup, avait notamment douté de la trajectoire que prenait l'entreprise. Cette équipe a par ailleurs été dissoute mi-mai et ses membres intégrés à d'autres groupes de recherche de l'entreprise.

Sollicité par l'AFP, Open AI s'est dit « fier » de posséder ce qu'il considère comme les systèmes d'IA « les plus puissants et les plus sûrs ». « Nous partageons l'idée selon laquelle un débat rigoureux est crucial vue la portée de cette technologie et nous allons continuer à échanger avec les gouvernements, la société civile et d'autres entités à travers le monde », a ajouté une porte-parole d'OpenAI.

Lire aussiOpenAI (ChatGPT) dissout l'équipe dédiée aux risques futurs liés à une « super IA »

Les acteurs de l'IA veulent montrer pattes blanches

La sécurité autour de l'IA est au cœur des discussions depuis le succès fulgurant de ChatGPT peu après sa sortie en 2022, qui a déclenché une ruée dans le domaine de l'IA générative. Ses partisans la présente comme une percée qui améliorera la vie des citoyens et des entreprises dans le monde entier. Mais les défenseurs des droits humains et les gouvernements craignent aussi leur utilisation à mauvais escient dans un grand nombre de situations, notamment pour manipuler les électeurs par le biais de fausses nouvelles ou de photos et de vidéos « deepfake » de dirigeants politiques.

Dans ce contexte, beaucoup exigent que des normes internationales soient instituées pour encadrer le développement et l'utilisation de l'IA. Les 27 pays membres de l'Union européenne ont justement approuvé définitivement fin mai une législation inédite au niveau mondial pour réguler les systèmes d'IA, afin de favoriser l'innovation en Europe tout en limitant les possibles dérives. Un bureau de l'IA constitué d'experts, chargé de la mettre en œuvre, va ainsi être créé. Cette nouvelle législation devrait s'appliquer à partir de 2026.

Ce qui peut d'ailleurs s'avérer loin. En attendant, les acteurs de l'IA se montrent attachés à assurer le développement en toute sécurité de cette science. Seize des principales entreprises mondiales d'IA ont ainsi signé un accord en ce sens le 21 mais dernier. Dont OpenAI, Google DeepMind, Anthropic, Microsoft, Amazon, IBM, Meta, Mistral AI ou encore Zhipu.ai.

(Avec AFP)

Sujets les + lus

|

Sujets les + commentés

Commentaires 9
à écrit le 06/06/2024 à 7:51
Signaler
N'importe quoi. La manipulation de masse existe depuis longtemps, c'est pas des transformers dont la seule utilité actuelle est de générer des images et du texte qui vont changer ça...a titre d'exemple, ça fait 80 ans que la gauche donc juste expl...

à écrit le 05/06/2024 à 17:08
Signaler
Une superIA pour gérer la contingence et l'insécurité sur une planète carbonisée où l'être humain peine à survivre... Mieux (pire ?) que Mad Max en 2100 ?

à écrit le 05/06/2024 à 13:25
Signaler
Quiconque a suivi de près les avancées de l'IA depuis fin 2022 SAIT que nous sommes à quelques années d'une révolution qui sera à la fois fabuleuse et destructrice. Ceux qui sous-estiment ce phénomène pour se rassurer (cf. commentaire Effix) vont rap...

le 05/06/2024 à 15:16
Signaler
@ m2s : Pfff !

le 05/06/2024 à 18:26
Signaler
Justement, ces dernières semaines, de plus en plus de voix s'élèvent sur la question du retour sur investissement car jusqu'ici, les retombées les plus tangibles sont l'automatisation de tâches répétitives et sans grande valeur ajoutée et dès qu'on p...

à écrit le 05/06/2024 à 12:51
Signaler
En attendant SkynetV2, qui fait plein de fric avec l'AI ? : les consultants, et les hébergeurs cloud, puisque ça consomme beaucoup, l'AI. Et d'ailleurs, pourquoi personne ne se prévaut de la surconsommation d'électricité que ça génère, comme pour le...

le 05/06/2024 à 13:31
Signaler
Il y a des opportunistes qui font du fric sur l'IA, mais au-delà de cet épi-phénomène qui ne durera pas très longtemps, nous allons assister à une véritable révolution comme l'humanité n'en a pas connue souvent... Concernant l'énergie, l'IA résout dé...

le 05/06/2024 à 18:05
Signaler
Oui, un Skynet, c'est ce qu'il faudrait pour résoudre nos problèmes budgétaires!!!!

à écrit le 05/06/2024 à 12:13
Signaler
le Wall Street Journal a fait un article le 31 mai dernier sur la révolution (bulle, je dirais) de l'IA qui est déjà en perte de vitesse : ralentissement de l'innovation dans ce domaine, utilité limitée, coût d'exploitation exorbitant.

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.