Intelligence artificielle : 16 géants (OpenAI, Google, Microsoft, Meta...) s'engagent vers plus de sécurité

Seize des principales entreprises mondiales d'intelligence artificielle, dont les représentants sont réunis à Séoul, ont pris de nouveaux engagements pour assurer le développement en toute sécurité de cette science. Ces engagements sont un gage « de transparence et de responsabilité » pour le Premier ministre britannique, Rishi Sunak, à l’origine de cette seconde édition de l’AI Safety Summit.
Avec cet accord, les entreprises d'IA qui n'ont pas encore rendu publique la façon dont elles évaluent la sécurité des technologies qu'elles développent s'engagent à le faire.
Avec cet accord, les entreprises d'IA qui n'ont pas encore rendu publique la façon dont elles évaluent la sécurité des technologies qu'elles développent s'engagent à le faire. (Crédits : DADO RUVIC)

Seize des principales entreprises mondiales d'intelligence artificielle (IA) ont signé ce mardi 21 mai un accord dans lequel elles s'engagent à assurer le développement en toute sécurité de cette science. Parmi elles : OpenAI (à qui l'on doit ChatGPT), Google DeepMind, Anthropic, Microsoft, Amazon, IBM, Meta, Mistral AI ou encore Zhipu.ai. Leurs représentants sont réunis à Séoul jusqu'à ce mercredi pour un « sommet » sur la sécurité de l'IA, organisé conjointement par les gouvernements sud-coréen et britannique.

« Ces engagements garantissent qu'[elles] feront preuve de transparence et de responsabilité quant à leurs projets de développement d'une IA sûre », a déclaré le Premier ministre britannique, Rishi Sunak, dans un communiqué publié par le ministère britannique de la Science, de l'Innovation et de la Technologie.

Des engagements mais des seuils encore à définir

Concrètement, les entreprises d'IA qui n'ont pas encore rendu publique la façon dont elles évaluent la sécurité des technologies qu'elles développent s'engagent à le faire. Il s'agit notamment de déterminer quels sont les risques « jugés intolérables » et ce que les entreprises feront pour s'assurer que ces seuils ne sont pas franchis, explique le communiqué. Dans les circonstances les plus extrêmes, les entreprises s'engagent également à « ne pas développer ou déployer un modèle ou un système » si les mesures d'atténuation ne permettent pas de maintenir les risques en deçà des seuils fixés. Ces seuils seront définis avant le prochain « sommet » sur l'IA, prévu en 2025 en France.

Lire aussiLa France accueillera le prochain AI Safety Summit sur les risques de l'intelligence artificielle

Cet accord s'appuie sur les consensus atteints lors du premier « sommet » mondial sur la sécurité de l'IA - l'AI Safety Summit - qui s'est tenu en novembre dernier à Bletchley Park, au Royaume-Uni. Pour rappel, lors de la première édition de ce rendez-vous, une déclaration internationale reconnaissant la nécessité de se protéger des risques posés par l'IA a été ratifiée par l'Union européenne ainsi que par 25 pays, dont la Chine et les États-Unis.

« Le domaine de la sécurité de l'intelligence artificielle évolue rapidement et nous sommes particulièrement contents de soutenir les engagements » pris à l'occasion de ce sommet dans ce domaine, a indiqué Anna Makanju, vice-président d'OpenAI pour les affaires globales, dans son propre communiqué.

Une déclaration qui dénote compte tenu des actualités de l'entreprise : OpenAI a annoncé il y a quelques jours dissoudre son équipe en charge justement d'atténuer les éventuels dangers à long terme d'une IA trop intelligente. Elle est par ailleurs accusée par l'actrice Scarlett Johansson d'avoir volontairement et à son insu copié sa voix - si bien qu'elle s'est engagée depuis à en changer la tonalité.

Lire aussiChatGPT : Scarlett Johansson accuse OpenIA d'avoir copié sa voix sans son consentement

La sécurité au cœur des enjeux de l'IA

La sécurité autour de l'IA est au cœur des discussions depuis le succès fulgurant de ChatGPT peu après sa sortie en 2022, qui a déclenché une ruée dans le domaine de l'IA générative. Depuis, les entreprises technologiques du monde entier investissent des milliards de dollars dans le développement de leurs propres modèles. Ces derniers peuvent produire du texte, des photos, du son et même des vidéos à partir de simples invités.

Leurs partisans les présentent comme une percée qui améliorera la vie des citoyens et des entreprises dans le monde entier. Mais les défenseurs des droits humains et les gouvernements craignent aussi leur utilisation à mauvais escient dans un grand nombre de situations, notamment pour manipuler les électeurs par le biais de fausses nouvelles ou de photos et de vidéos « deepfake » de dirigeants politiques. Beaucoup exigent que des normes internationales soient instituées pour encadrer le développement et l'utilisation de l'IA. Une manifestation de jeunes militants prônant une pause dans le développement de l'IA a d'ailleurs eu lieu la semaine dernière à Paris.

L'UE adopte une législation pour réguler l'IA

Les 27 pays membres de l'Union européenne ont définitivement approuvé ce mardi une législation inédite au niveau mondial pour réguler les systèmes d'IA, afin de favoriser l'innovation en Europe tout en limitant les possibles dérives.

Avec « cette législation historique, la première du genre dans le monde", l'Europe "souligne l'importance de la confiance, de la transparence et de la responsabilité (...), tout en veillant à ce que cette technologie en évolution rapide puisse prospérer et stimuler l'innovation européenne », a déclaré dans un communiqué Mathieu Michel, secrétaire d'État belge au Numérique, dont le pays assure la présidence du Conseil de l'UE jusqu'à fin juin.

Cette législation qui s'appliquera pour l'essentiel à partir de 2026, adopte une approche « fondée sur le risque » et impose aux différents systèmes d'intelligence artificielle des contraintes proportionnées aux dangers qu'ils représentent pour la société. Ces exigences incluront par exemple un contrôle humain sur la machine, l'établissement d'une documentation technique, ou encore la mise en place d'un système de gestion du risque. Les interdictions seront rares. Elles concerneront les applications contraires aux valeurs européennes comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine.

Des règles spécifiques s'appliqueront aux IA génératives comme ChatGPT d'Open AI pour s'assurer de la qualité des données utilisées dans la mise au point des algorithmes et le respect des droits d'auteur. Les sons, images et textes générés artificiellement devront clairement être identifiés comme tels pour éviter des manipulations de l'opinion.

(Avec AFP)

Sujets les + lus

|

Sujets les + commentés

Commentaire 1
à écrit le 21/05/2024 à 17:06
Signaler
Qui travaille sur l'intelligence artificielle en mode recherche fondamentale ? Combie nde budget alloué ? Qui cherche l'IA en mode essuie glace automatique, le truc qui sait mieux que vous quand la pluie vous gène, si si..., pour s’adapter à que dall...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.