Depuis quelques jours, la candidate PS Emma Rafowicz est victime d'une campagne de désinformation sur TikTok. La vidéo en question : un grossier montage associant sa photo et un enregistrement vocal d'une autre personne appelant au génocide des Palestiniens. Emma Rafowicz, elle, n'a jamais tenu ces propos. La vidéo a été vue plus de 300 000 fois sur TikTok, puis a été reprise par d'autres comptes sur Instagram et X (anciennement Twitter), rapporte CheckNews. De nombreux internautes semblent avoir trouvé le montage crédible, au point d'amener la candidate à publier le 5 juin une vidéo pour contrer cette campagne, rappelant son positionnement sur le conflit israelo-palestinien. Pourtant cette vidéo n'utilise aucune technologie de trucage sophistiquées, aucune intelligence artificielle générative pour modifier la voix d'origine de l'enregistrement, ni créer une vidéo "deepfake" d'Emma Rafowicz.
L'avènement de l'IA générative, démocratisée depuis le lancement de ChatGPT fin 2022, laissait présager une élection européenne manipulée par de nombreux montages vidéos, fausses photos de candidats hyper-réalistes, mais à quelques jours du vote, force est de constater que le raz-de-marée de faux contenus trompeurs n'a pas vraiment eu lieu. Du moins pas tel qu'on l'imaginait.
Meta et Google estiment que les contenus politiques et autres campagnes de fake news générées par IA sont minoritaires
Dans une récente interview accordée à MIT Technology Review, Nick Clegg, président des affaires internationales de Meta (Facebook, Instagram) affirme que les contenus politiques générés par IA n'étaient présents qu'en faible quantité. « Ils existent, il sont perceptibles. Il n'y a pas vraiment de volume ou de niveau systémique », précise-t-il.
Chez Google, le constat est plus ou moins le même. « Sur les 1300 menaces que nous identifions par an, nous n'en avons pas encore vu une seule où l'IA était le principal outil différenciant, explique Sandra Joyce, VP de Google Threat Intelligence. Même si la technologie est utilisée d'une manière ou d'une autre, elle ne permet pas à ces acteurs de surperformer. Nous avons bien constaté l'utilisation de fausses images, de deepfake vocaux, de textes générés par IA, etc. Mais pour l'instant, les auteurs de ces menaces sont surtout en train d'expérimenter. » Pour la dirigeante, l'élection européenne de 2024 ne se distingue pas particulièrement des précédentes élections.
ChatGPT, petite main des campagnes d'influence étrangère
OpenAI vient de son côté de publier un rapport (le premier du genre) dans lequel l'entreprise reconnaît que ChatGPT est bien utilisé pour des opérations d'ingérence étrangère, mais souvent pour faire un travail de "petites mains". Cinq campagnes ont été identifiées comme étant utilisatrices du chatbot par OpenAI, dont une visant l'Europe. Le grand modèle de langage est employé pour générer de faux commentaires sur les médias sociaux, créer de faux noms de comptes, traduire et éditer de faux articles de presse et des titres trompeurs ou encore écrire des lignes de codes pour diffuser massivement ces publications.
Mais OpenAI minimise les talents de son outil en matière d'ingérence. Elle rapporte que ces campagnes dopées à l'IA n'ont pas eu un effet démesuré. « Jusqu'à présent, ces opérations ne semblent pas avoir bénéficié d'une augmentation significative de l'engagement (...) grâce à nos services. En utilisant l'échelle Breakout Scale de Brookings, qui évalue l'impact des opération d'influence secrètes sur une échelle de 1 (le plus faible) à 6 (le plus élevé), aucune des cinq opérations incluses dans nos études de cas n'a obtenu un score supérieur à 2 », écrit l'entreprise dans un post de blog. La raison selon OpenAI ? Le fait que son modèle ait été programmé avec ces potentiels mésusages en tête, rendant son utilisation par les acteurs malveillants bien plus complexes.
On peut se méfier des affirmations des acteurs de l'IA qui cherchent à amoindrir les risques de leurs systèmes, mais les chercheurs s'accordent eux aussi pour dire que l'effet de l'IA générative n'est pas si chaotique que ce que nous aurions pu le craindre.
« Il y avait une forme de peur massive générée par le potentiel de cette technologie, qui ne reflétait sans doute pas la réalité de ces capacités, observe Arnaud Mercier, professeur en sciences de l'information et de la communication à l'Université Paris 2 Assas. Mais ce niveau de peur a permis un certain niveau de protection pendant la campagne électorale. Les opérateurs ont mis en place des garde-fous, poussés par les efforts législatifs européens (l'IA Act et le Digital Services Act notamment) : Google a notamment intégré des watermarks des images générés par IA; DALL-E et d'autres générateurs d'images ont interdit les représentations de candidats en campagne... Tous les écueils passés des réseaux sociaux, utilisés à des fins de manipulation politique, ont permis une plus grande vigilance sur les technologies d'intelligence artificielle et sur la désinformation de manière générale.» C'est aussi l'acculturation du grand public sur ces sujets, grâce notamment au travail d'association et de journaliste, qui a permis une plus grande vigilance.
« Tout le monde s'est déniaisé sur le sujet »
« Tout le monde s'est déniaisé sur le sujet, abonde Axel Dauchez. Les institutions ont pris conscience du risque de désinformation notamment en observant récemment les élections en Inde, les faux coups de fils de Joe Biden aux États-Unis...» Le fondateur de Make.org, qui met en place des plateforme de collaboration citoyenne, pointe notamment le changement de posture de Viginum (le service de l'État chargé de la vigilance et de la protection contre les ingérences numériques étrangères). Ce dernier fait désormais une sorte de bulletin météo des suspicions d'attaques pour avertir les journalistes et les chercheurs. L'idée est issue du "Démocratic Shield", rappelle Axel Dauchez, un ensemble de propositions de différents acteurs (dont Make.org, SciencesPo, France Digitale, DemocracyWatch et Mozilla) pour préserver l'intégrité des élections européennes.
Si les deepfakes n'ont pas envahi la campagne, cela ne signifie pas qu'il ne s'est rien passé pour autant. Divina Frau-Meigs, professeure des sciences de l'information et de la communication à Paris III et autrice d'un ouvrage à paraître sur le sujet, estime que l'IA est un outil de plus à disposition des opérateurs de campagnes d'influence. Il est qui plus est très facilement accessible puisque les acteurs du numérique les intègrent directement à leur plateforme permettant de créer des publicités et de les diffuser. Mais l'IA n'a pas changé l'objectif, ni les techniques principales de ces campagnes, affirme-t-elle.
Déstabiliser l'opinion publique plutôt qu'un candidat en particulier
« La volonté des Russes c'est de détricoter l'Europe pour élargir son emprise sur les pays européens limitrophes de la Russie, rappelle Divina Frau-Meig. L'idée est donc de favoriser les partis anti-Europe, souvent aux extrêmes, en décrédibilisant les partis du centre. » Le processus suit un timing souvent similaire. « Les cellules dormantes commencent deux ans avant les élections. Le but est de créer du chaos, du doute, du mécontentement. Il s'agit souvent d'opérations très peu coûteuses, car elles s'appuient sur des relais dans les pays occidentaux, des influenceurs politiques qui amplifient les campagnes sans être payés pour. Les thèmes choisis pour alimenter ces campagnes de déstabilisation résonnent avec l'actualité : les jeux Olympiques et leur potentiel échec... Depuis mai, le spectre de l'entrée en guerre des pays européens, du coût financier et humain que cela représenterait, est utilisé massivement.»
Arnaud Mercier voit tout de même une caractéristique sur cette période électorale. « La déstabilisation est plus indirecte qu'auparavant. Il ne s'agit pas de déstabiliser un candidat en particulier - mais d'agir sur un climat d'opinion, d'orienter le débat vers une certaine interprétation des sujets, qui seraient favorables à des partis russophiles.»
C'est notamment l'un des objectifs d'une des campagnes qui a pris le plus d'ampleur durant cette période électorale : l'opération Doppelgänger, en cours depuis 2022. Cette campagne s'articule autour de nombreux faux sites copiant des médias occidentaux (20 Minutes, Libération, La Croix en France notamment) pour y diffuser soit de fausses informations, soit une interprétation des faits visant à relayer la propagande du Kremlin : la guerre en Ukraine coûte cher, l'armée ukrainienne est composée de néo-nazis... Mais selon Divina Frau-Meigs, cette méthode n'est pas particulièrement innovante, elle a déjà été vue dès 2017. L'ampleur de l'opération - qui mobilise des milliers de noms de domaine - reste toutefois inédite, selon d'autres observateurs. Les articles publiés sur ces sites sont ensuite relayés massivement sur les réseaux sociaux en ciblant des catégories d'électeurs particuliers.
Les plateformes ne sont "pas à la hauteur des enjeux", malgré les efforts
Que font les plateformes face à cela ? Ont-elles appris de leurs erreurs lors des précédentes élections ? Certains garde-fous ont été mis en place. Depuis 2018, les plateformes ont été poussés par l'Union Européenne à créer des archives de publicités politiques, ce qui permet aux chercheurs et journalistes de mieux contrôler leur diffusion. Elles ont également mis en place plus de mécanismes de détection. Mais pour Divina Frau-Meigs, les géants du numérique ne restent « pas à la hauteur de l'enjeu ». « A leur décharge, les opérateurs d'influence ont appris à contourner les mécanismes de détection », pointe-t-elle.
Pour preuve : en avril, l'ONG AI Forensics, a publié un rapport sur la mauvaise modération des contenus politiques par Meta. Au total, l'organisation a identifié 30 millions de publicités politiques diffusées dans 16 pays d'Europe dont 66 % ne sont pas identifiées comme telles. Et moins de 5 % de celles-ci sont repérées par Meta. Suite à la publication de ce rapport, la Commission européenne a lancé une enquête début juin visant Meta. Elle soupçonne l'entreprise de violer le Digital Services Act, en modérant de manière insuffisante.
La crainte d'une opération difficilement vérifiable à la veille des élections
Par ailleurs, certaines plateformes ont tendance à couper les moyens, plutôt que d'en ajouter. La plateforme X, où circule une grande partie des campagnes d'influence, s'est vidé de son équipe de modération suite au rachat d'Elon Musk. Meta a quant à lui annoncé la suppression prochaine de CrowdTangle, un outil clé pour les fact-checkeurs permettant de suivre la diffusion d'une publication virale. Cette suppression est annoncée pour août, après donc les élections européennes mais avant la présidentielle américaine.
Arnaud Mercier lui estime que les garde-fous permettant de limiter les contenus générés par IA pendant la période électorale pourrait suffire pour ces élections. Mais il s'inquiète de voir des acteurs malveillants mieux se préparer lors des prochaines, en prévoyant « des stocks de deepfakes » créés hors période électorale.
Et pour ce scrutin, tout n'est pas encore joué. Divina Frau-Meigs craint une campagne de déstabilisation la veille des élections. « A ce moment là, il n'est plus possible de faire la vérification. Les campagnes juste avant le scrutin visent généralement un candidat en particulier et sont présentées sous forme de fuites de donnée, d'e-mails de représentants de partis, de vieux tweets... Donc avis aux électeurs : une fuite de données deux jours avant les élections, c'est très suspect. »
« Tout va se concentrer sur la fin, confirme Axel Dauchez. C'est là où il y a le plus de risque, surtout que les médias traditionnels ont une période de réserve. » Lui avait proposé, dans le cadre du Democratic Shield, de renforcer cette période de réserve sur les réseaux sociaux, en les obligeant à limiter la viralité de tout contenu politique.
En France, cette solution a été envisagée il y a quelques semaines par Marina Ferrari, secrétaire d'État au Numérique. Mais l'idée a vite été écartée, explique un porte-parole du cabinet, après un avis défavorable de la Direction générale des Entreprises à Bercy.
Rendre l'IA compatible avec la démocratie Il y a l'enjeu à court terme de la préservation des élections. Mais à plus long terme, il faut s'assurer que l'utilisation des IA génératives soit compatibles avec la vie démocratique. C'est le problème auquel s'attaque un programme de recherche lancé fin mai par Make.org, Sciences Po et Sorbonne-CNRS, et rejoint par des acteurs internationaux, dont de grandes universités américaines. Il est soutenu par BPI France à hauteur de 6 millions d'euros. « L'IA pourrait permettre de synthétiser un débat (c'est déjà le cas pour la Convention citoyenne sur la fin de vie), d'informer les citoyens ou de les faire participer à une discussion autour d'un sujet politique. Le problème c'est que les modèles de langage ne sont pour le moment pas toujours adaptés à ces usages », précise Axel Dauchez de Make.org. Pourquoi ? Car ils sont pétris de biais : racistes, sexistes, c'est plutôt connu, mais aussi des biais d'opinion, des biais de majorité (ils sur-représentent certaines idées)... Ce projet de recherche qui rassemble 50 chercheurs va donc s'atteler à évaluer l'exposition des grands modèles de langage existants à ces différents biais, puis à trouver des paramétrages spécifiques pour les « débiaiser » afin de les utiliser dans diverses applications démocratiques. Comme par exemple : faire collaborer des centaines de milliers de personnes sur un même sujet et synthétiser leur produit grâce à l'IA. « Notre mission est aussi d'élargir certains principes démocratiques à la lumière de cette technologie. Si par exemple une IA synthétise des heures de débats à l'Assemblée nationale. Quelle part donner à une idée minoritaire face à une idée majoritaire ? C'est un choix politique monumental.»
Sujets les + commentés