Des salariés d'Open AI alertent sur « la perte de contrôle de systèmes d'IA autonomes »

Par latribune.fr  |   |  704  mots
Les signataires encouragent notamment la création de canaux de signalement anonyme en interne pour mettre en garde contre certains risques. (Crédits : DADO RUVIC)
Plusieurs salariés et ex-employés de la startup OpenAI ont publié une lettre ouverte dans laquelle, sous couvert d'anonymat, ils expriment leurs craintes quant au développement de l'intelligence artificielle. Ils demandent aussi le droit de pouvoir porter publiquement un regard critique sur leurs activités et les risques liés à cette science.

L'intelligence artificielle (IA) fait naître des réserves, y compris parmi ceux qui créent ces modèles. 13 personnes - dont quatre employés et sept anciens d'OpenAI, la startup à qui l'on doit ChatGPT - ont publié une lettre ouverte ce mardi dans laquelle ils s'affichent inquiets concernant les avancées de l'IA. Parmi les risques cités : « le renforcement des inégalités, la manipulation, la désinformation, en allant jusqu'à la perte de contrôle de systèmes d'IA autonomes qui pourraient entraîner l'extinction de l'humanité ».

S'ils estiment que ces risques peuvent être limités « avec le concours de la communauté scientifique, des autorités et du public », « les entreprises de l'IA sont incitées financièrement à échapper à une supervision efficace », estiment-ils, sous couvert d'anonymat.

Lire aussiIntelligence artificielle : les grands doutes des économistes sur l'emploi et la croissance

Pouvoir s'exprimer publiquement

Les auteurs de la lettre demandent ainsi aux sociétés phares de l'IA de « soutenir une culture de la critique ouverte en permettant à leurs employés actuels et anciens de mettre en avant publiquement des inquiétudes liées à leurs technologies ». Ils encouragent aussi la création de canaux de signalement anonyme en interne pour mettre en garde contre certains risques.

Les signataires regrettent d'être actuellement en quelque sorte muselés. En effet, « des clauses de confidentialité exhaustives les empêchent d'exprimer (leurs) préoccupations » publiquement, dénoncent-ils. Et dans la mesure où les problèmes que souhaitent évoquer ces programmeurs ne relèvent pas d'activités illégales, ils ne peuvent bénéficier du statut de lanceur d'alerte, soulignent-ils.

« Certains d'entre nous craignent des représailles (au cas où ils communiqueraient ouvertement), compte tenu des précédents qui existent dans l'industrie », écrivent-ils.

Récemment, les deux responsables de l'équipe chargée de la sécurité d'une potentielle super intelligence artificielle ont quitté OpenAI. L'un d'eux, Ilya Sutskever, qui avait cofondé la startup, avait notamment douté de la trajectoire que prenait l'entreprise. Cette équipe a par ailleurs été dissoute mi-mai et ses membres intégrés à d'autres groupes de recherche de l'entreprise.

Sollicité par l'AFP, Open AI s'est dit « fier » de posséder ce qu'il considère comme les systèmes d'IA « les plus puissants et les plus sûrs ». « Nous partageons l'idée selon laquelle un débat rigoureux est crucial vue la portée de cette technologie et nous allons continuer à échanger avec les gouvernements, la société civile et d'autres entités à travers le monde », a ajouté une porte-parole d'OpenAI.

Lire aussiOpenAI (ChatGPT) dissout l'équipe dédiée aux risques futurs liés à une « super IA »

Les acteurs de l'IA veulent montrer pattes blanches

La sécurité autour de l'IA est au cœur des discussions depuis le succès fulgurant de ChatGPT peu après sa sortie en 2022, qui a déclenché une ruée dans le domaine de l'IA générative. Ses partisans la présente comme une percée qui améliorera la vie des citoyens et des entreprises dans le monde entier. Mais les défenseurs des droits humains et les gouvernements craignent aussi leur utilisation à mauvais escient dans un grand nombre de situations, notamment pour manipuler les électeurs par le biais de fausses nouvelles ou de photos et de vidéos « deepfake » de dirigeants politiques.

Dans ce contexte, beaucoup exigent que des normes internationales soient instituées pour encadrer le développement et l'utilisation de l'IA. Les 27 pays membres de l'Union européenne ont justement approuvé définitivement fin mai une législation inédite au niveau mondial pour réguler les systèmes d'IA, afin de favoriser l'innovation en Europe tout en limitant les possibles dérives. Un bureau de l'IA constitué d'experts, chargé de la mettre en œuvre, va ainsi être créé. Cette nouvelle législation devrait s'appliquer à partir de 2026.

Ce qui peut d'ailleurs s'avérer loin. En attendant, les acteurs de l'IA se montrent attachés à assurer le développement en toute sécurité de cette science. Seize des principales entreprises mondiales d'IA ont ainsi signé un accord en ce sens le 21 mais dernier. Dont OpenAI, Google DeepMind, Anthropic, Microsoft, Amazon, IBM, Meta, Mistral AI ou encore Zhipu.ai.

(Avec AFP)