C'est un cadre inédit qui entre en vigueur ce jeudi : la nouvelle législation de l'Union européenne pour encadrer l'intelligence artificielle (IA) ou « IA Act ». Un règlement dont l'objectif est de favoriser l'innovation en Europe tout en limitant les possibles dérives.
« Il s'agit du cadre pionnier de l'Europe pour une IA innovante et sûre. Il favorisera le développement d'une IA à laquelle les Européens peuvent faire confiance. Il aidera les PME et les jeunes entreprises européennes à mettre sur le marché des solutions d'IA de pointe », a affirmé la présidente de la Commission européenne, Ursula von der Leyen, sur le réseau social X.
Si, pour l'essentiel, cette législation s'appliquera réellement à partir de 2026, certaines dispositions deviendront contraignantes dès l'an prochain.
Pour rappel, le règlement avait été définitivement entériné par les 27 Etats membres de l'UE le 21 mai, après son adoption par le Parlement européen à une très large majorité. Les co-législateurs de l'UE avaient trouvé un accord sur ce texte, début décembre, au terme de difficiles négociations, certains pays comme la France craignant un encadrement excessif qui menacerait le développement de ce secteur d'avenir.
Le 29 mai, la Commission avait aussi annoncé qu'un bureau de l'IA, constitué de 140 experts chargés de mettre en œuvre la nouvelle législation de l'Union européenne, avait été créé. Il « favorisera un écosystème européen de l'IA innovant, compétitif et respectueux des règles et des valeurs de l'UE », s'était alors félicité le commissaire notamment en charge du Numérique, Thierry Breton.
Une approche « fondée sur le risque »
L'« IA Act » adopte une approche « fondée sur le risque » et impose aux différents systèmes d'intelligence artificielle des contraintes proportionnées aux dangers qu'ils représentent pour la société.
Les systèmes d'IA ne présentant qu'un risque limité seront soumis à des obligations de transparence très légères, tandis que les systèmes à haut risque, utilisés par exemple dans les infrastructures critiques, l'éducation, les ressources humaines ou le maintien de l'ordre, seront soumis à des exigences renforcées avant d'être autorisés dans l'UE. Ces exigences incluront, par exemple, un contrôle humain sur la machine, l'établissement d'une documentation technique, ou encore la mise en place d'un système de gestion du risque.
Les interdictions seront rares, selon la Commission. Elles concerneront les applications contraires aux valeurs européennes, comme les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine.
Les interdictions « s'appliqueront à partir du 2 février prochain, avec des amendes pouvant aller jusqu'à 7% du chiffre d'affaires mondial en cas de violation », souligne Marcus Evans du cabinet d'avocats Norton Rose Fulbright, qui invite les entreprises à se préparer dès à présent.
Un cadre pour les IA génératives qui ne fait pas l'unanimité
Des règles spécifiques s'appliqueront aux IA génératives, comme ChatGPT d'Open AI, pour s'assurer de la qualité des données utilisées dans la mise au point des algorithmes et le respect des droits d'auteur. Les sons, images et textes générés artificiellement devront clairement être identifiés comme tels pour éviter des manipulations de l'opinion.
Sur ce point, Katharina Zügel, auteure d'un récent rapport sur l'IA publié par le Forum sur l'Information et la Démocratie, avait expliqué à La Tribune en mars qu'elle regrettait toutefois que le texte se montre timide sur les possibilités d'utiliser l'IA, et en particulier l'IA générative, au service de la désinformation.
« Les systèmes d'IA utilisés dans l'espace informationnel devraient à mon sens être catégorisés à haut risque, ce qui n'est pas explicitement le cas dans le texte qui a été voté. La Commission, qui a compétence pour modifier les cas d'usages des systèmes à haut risque, pourrait les faire basculer dans cette catégorie en considérant qu'ils ont un impact sur les droits fondamentaux », avait-elle déploré.
Concernant les deepfakes ou hypertrucages, le texte introduit en outre l'obligation d'étiqueter comme tel tout contenu produit par une IA, une technique baptisée watermarking, qui vise à empêcher les contenus trompeurs.
Toutefois « en matière de recours juridiques face aux deepfakes, pour les personnes qui en sont victimes, l'IA Act n'apporte rien. Quand on voit l'efficacité et la vitesse de propagation de ces techniques d'influence, il n'en fait donc sans doute pas assez », affirmait aussi à La Tribune, en mars, Eric Le Quellenec, avocat chez Simmons & Simmons.
Un premier traité à l'international
Ce règlement n'est pas le seul coup d'essai de l'Europe en matière de réglementation de cette technologie. En mai, le Conseil de l'Europe a adopté le premier traité international juridiquement contraignant encadrant l'utilisation de l'intelligence artificielle (IA).
« Le traité, également ouvert à la signature de pays non-européens, établit un cadre juridique qui s'applique tout au long du cycle de vie des systèmes d'IA, traite des risques que peuvent représenter ces systèmes et promeut une innovation responsable», précise le Conseil de l'Europe dans un communiqué.
Le texte a été adopté lors de la réunion ministérielle annuelle du Comité des ministres du Conseil de l'Europe, qui réunit les ministres des Affaires étrangères des 46 États membres.
« La convention énonce des exigences de transparence et de contrôle adaptées à des contextes et à des risques spécifiques, notamment l'identification des contenus générés par les systèmes d'IA », précise le Conseil de l'Europe. « Les parties devront adopter des mesures pour identifier, évaluer, prévenir et atténuer les risques éventuels et évaluer la nécessité d'un moratoire, d'une interdiction ou d'autres mesures appropriées concernant l'utilisation de systèmes d'IA lorsque cette utilisation est susceptible de présenter des risques incompatibles avec les normes relatives aux droits de l'homme », poursuit l'instance européenne.
Cette convention-cadre a été élaborée durant deux ans par un organe intergouvernemental qui a rassemblé les 46 États membres du Conseil, l'Union européenne et 11 États non-membres (Etats-Unis, Australie, Canada, Israël, et Japon notamment), ainsi que des représentants du secteur privé, de la société civile et du monde universitaire, intervenant en qualité d'observateurs.
(Avec AFP)