L'UE se dote d'un bureau d'experts pour encadrer l'intelligence artificielle, une première

La Commission européenne a annoncé ce mercredi la création d'un bureau de l'IA constitué d'experts, chargés de mettre en œuvre la nouvelle législation de l'Union européenne, inédite au niveau mondial, pour encadrer l'intelligence artificielle.
Établi au sein de la Commission européenne, à Bruxelles, ce bureau de l'IA emploiera 140 spécialistes en technologie, juristes et économistes.
Établi au sein de la Commission européenne, à Bruxelles, ce bureau de l'IA emploiera 140 spécialistes en technologie, juristes et économistes. (Crédits : Reuters)

Un bureau de l'IA, constitué d'experts chargés de mettre en œuvre la nouvelle législation de l'Union européenne, a été créé pour encadrer l'intelligence artificielle, a annoncé la Commission européenne ce mercredi. Établi au sein de la Commission européenne, à Bruxelles, ce service emploiera 140 spécialistes en technologie, juristes et économistes.

Il « favorisera un écosystème européen de l'IA innovant, compétitif et respectueux des règles et des valeurs de l'UE », s'est félicité le commissaire notamment en charge du Numérique, Thierry Breton. Prévu par le règlement sur l'IA définitivement adopté le 21 mai par les Vingt-Sept, le nouveau service jouera un rôle clé dans sa mise en œuvre.

Les 27 pays membres de l'Union européenne ont définitivement approuvé mardi dernier une législation inédite au niveau mondial pour réguler les systèmes d'intelligence artificielle (IA) afin de favoriser l'innovation en Europe tout en limitant les possibles dérives. Les co-législateurs de l'UE avaient trouvé un accord début décembre au terme de difficiles négociations, certains pays comme la France craignant un encadrement excessif qui menacerait le développement de ce secteur d'avenir.

Lire aussiIntelligence artificielle : 16 géants (OpenAI, Google, Microsoft, Meta...) s'engagent vers plus de sécurité

Le texte avait été adopté le 13 mars à une très large majorité par les eurodéputés. Avec « cette législation historique, la première du genre dans le monde », l'Europe « souligne l'importance de la confiance, de la transparence et de la responsabilité (...), tout en veillant à ce que cette technologie en évolution rapide puisse prospérer et stimuler l'innovation européenne », a déclaré dans un communiqué Mathieu Michel, secrétaire d'État belge au Numérique, dont le pays assure la présidence du Conseil de l'UE jusqu'à fin juin.

Cette législation s'appliquera pour l'essentiel à partir de 2026. Elle adopte une approche « fondée sur le risque » et impose aux différents systèmes d'intelligence artificielle des contraintes proportionnées aux dangers qu'ils représentent pour la société.

Des exigences renforcées pour les systèmes à haut risque

Les systèmes d'IA ne présentant qu'un risque limité seront soumis à des obligations de transparence très légères, tandis que les systèmes à haut risque, utilisés par exemple dans les infrastructures critiques, l'éducation, les ressources humaines ou le maintien de l'ordre, seront soumis à des exigences renforcées avant d'être autorisés dans l'UE.

Les interdictions seront rares, et concerneront les applications contraires aux valeurs européennes comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine.

Des règles spécifiques s'appliqueront aux IA génératives comme ChatGPT d'Open AI pour s'assurer notamment de la qualité des données utilisées dans la mise au point des algorithmes et du respect des droits d'auteur.

Les sons, images et textes générés artificiellement devront clairement être identifiés comme tels pour éviter des manipulations de l'opinion. Le bureau de l'IA veillera notamment à l'application uniforme de la réglementation dans l'ensemble de l'Union européenne, en collaboration avec les Etats membres. Il participera aux enquêtes sur d'éventuelles infractions et gérera les sanctions contre les contrevenants. Il sera également chargé d'identifier les risques des nouvelles technologies et de soutenir la recherche européenne.

L'UE n'a pas réussi à doper ses investissements dans l'IA

Dans un rapport publié mercredi, la Cour des comptes européennes a estimé que l'UE n'avait pour l'instant « pas réussi à doper suffisamment les investissements dans l'IA pour faire jeu égal avec les leaders mondiaux du secteur ».

La Commission européenne « n'a pas bien coordonné ses mesures avec celles des États membres, et les investissements n'ont pas fait l'objet d'un suivi systématique. À l'avenir, une gouvernance plus forte et des investissements publics et privés plus importants - et mieux ciblés - seront essentiels si l'Europe veut relever le défi de l'IA », a estimé la Cour.

Les géants de l'IA prennent des engagements pour la sécurité

Seize des principales entreprises mondiales de l'IA ont pris de nouveaux engagements pour assurer le développement en toute sécurité de cette science à Séoul mardi dernier. L'accord, signé notamment par OpenAI (ChatGPT), Google DeepMind et Anthropic, s'appuie sur les consensus atteint lors du premier « sommet » mondial sur la sécurité de l'IA, l'an dernier à Bletchley Park, au Royaume-Uni.

Les entreprises d'IA qui n'ont pas encore rendu publique la façon dont elles évaluent la sécurité des technologies qu'elles développent s'engagent à le faire. Il s'agit notamment de déterminer quels sont les risques "jugés intolérables" et ce que les entreprises feront pour s'assurer que ces seuils ne sont pas franchis, explique le communiqué.

Dans les circonstances les plus extrêmes, les entreprises s'engagent également à « ne pas développer ou déployer un modèle ou un système » si les mesures d'atténuation ne permettent pas de maintenir les risques en deçà des seuils fixés". Ces seuils seront définis avant le prochain "sommet" sur l'IA, en 2025 en France.

(Avec AFP)

Sujets les + lus

|

Sujets les + commentés

Commentaires 5
à écrit le 31/05/2024 à 2:25
Signaler
"L'UE se dote d'un bureau d'experts pour encadrer l'intelligence artificielle, une première" Encore un comité Théodule expert en ligne de commande Chaturbate...

à écrit le 30/05/2024 à 2:35
Signaler
À défaut d'avoir eu des experts pour en faire une. Ils en ont trouvé pour en parler et en débattre. C'est moins productif, plus cher mais de ces experts là, nous en avons des wagons entier.

à écrit le 29/05/2024 à 17:27
Signaler
N'étant pas producteurs c'est difficile à comprendre. "constitué d'experts" Quels experts ?

à écrit le 29/05/2024 à 13:52
Signaler
Nuls en IA on fait des lois pour encadrer ceux qui sont capables !

à écrit le 29/05/2024 à 13:05
Signaler
Je propose une IA pour contrôler l'IA. Une "couillonade " ferait aussi l'affaire.

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.