Européennes : l'apocalypse de la désinformation dopée à l'IA n'a pas (encore) eu lieu

SPECIAL EUROPEENNES - 11/15. La déferlante de l'IA générative, et de ces faux contenus fabriqués en quelques clics, laissait présager des élections européennes à haut risque en matière de désinformation. En réalité, les experts s'accordent pour dire que la prolifération de deepfakes n'a pas eu lieu. Des campagnes de désinformation de grande ampleur continuent de proliférer, mais nous y sommes un peu mieux préparés. Une déstabilisation de dernière minute pouvant jouer sur le vote de dimanche n'est toutefois pas à exclure.
(Crédits : DR)

Depuis quelques jours, la candidate PS Emma Rafowicz est victime d'une campagne de désinformation sur TikTok. La vidéo en question : un grossier montage associant sa photo et un enregistrement vocal d'une autre personne appelant au génocide des Palestiniens. Emma Rafowicz, elle, n'a jamais tenu ces propos. La vidéo a été vue plus de 300 000 fois sur TikTok, puis a été reprise par d'autres comptes sur Instagram et X (anciennement Twitter), rapporte CheckNews. De nombreux internautes semblent avoir trouvé le montage crédible, au point d'amener la candidate à publier le 5 juin une vidéo pour contrer cette campagne, rappelant son positionnement sur le conflit israelo-palestinien. Pourtant cette vidéo n'utilise aucune technologie de trucage sophistiquées, aucune intelligence artificielle générative pour modifier la voix d'origine de l'enregistrement, ni créer une vidéo "deepfake" d'Emma Rafowicz.

L'avènement de l'IA générative, démocratisée depuis le lancement de ChatGPT fin 2022, laissait présager une élection européenne manipulée par de nombreux montages vidéos, fausses photos de candidats hyper-réalistes, mais à quelques jours du vote, force est de constater que le raz-de-marée de faux contenus trompeurs n'a pas vraiment eu lieu. Du moins pas tel qu'on l'imaginait.

Meta et Google estiment que les contenus politiques et autres campagnes de fake news générées par IA sont minoritaires

Dans une récente interview accordée à MIT Technology Review, Nick Clegg, président des affaires internationales de Meta (Facebook, Instagram) affirme que les contenus politiques générés par IA n'étaient présents qu'en faible quantité. « Ils existent, il sont perceptibles. Il n'y a pas vraiment de volume ou de niveau systémique », précise-t-il.

Chez Google, le constat est plus ou moins le même. « Sur les 1300 menaces que nous identifions par an, nous n'en avons pas encore vu une seule où l'IA était le principal outil différenciant, explique Sandra Joyce, VP de Google Threat Intelligence. Même si la technologie est utilisée d'une manière ou d'une autre, elle ne permet pas à ces acteurs de surperformer. Nous avons bien constaté l'utilisation de fausses images, de deepfake vocaux, de textes générés par IA, etc. Mais pour l'instant, les auteurs de ces menaces sont surtout en train d'expérimenter. » Pour la dirigeante, l'élection européenne de 2024 ne se distingue pas particulièrement des précédentes élections.

Lire aussiLutte contre la désinformation : la guerre des intelligences artificielles

ChatGPT, petite main des campagnes d'influence étrangère

OpenAI vient de son côté de publier un rapport (le premier du genre) dans lequel l'entreprise reconnaît que ChatGPT est bien utilisé pour des opérations d'ingérence étrangère, mais souvent pour faire un travail de "petites mains". Cinq campagnes ont été identifiées comme étant utilisatrices du chatbot par OpenAI, dont une visant l'Europe. Le grand modèle de langage est employé pour générer de faux commentaires sur les médias sociaux, créer de faux noms de comptes, traduire et éditer de faux articles de presse et des titres trompeurs ou encore écrire des lignes de codes pour diffuser massivement ces publications.

Mais OpenAI minimise les talents de son outil en matière d'ingérence. Elle rapporte que ces campagnes dopées à l'IA n'ont pas eu un effet démesuré. « Jusqu'à présent, ces opérations ne semblent pas avoir bénéficié d'une augmentation significative de l'engagement (...) grâce à nos services. En utilisant l'échelle Breakout Scale de Brookings, qui évalue l'impact des opération d'influence secrètes sur une échelle de 1 (le plus faible) à 6 (le plus élevé), aucune des cinq opérations incluses dans nos études de cas n'a obtenu un score supérieur à 2 », écrit l'entreprise dans un post de blog. La raison selon OpenAI ? Le fait que son modèle ait été programmé avec ces potentiels mésusages en tête, rendant son utilisation par les acteurs malveillants bien plus complexes.

On peut se méfier des affirmations des acteurs de l'IA qui cherchent à amoindrir les risques de leurs systèmes, mais les chercheurs s'accordent eux aussi pour dire que l'effet de l'IA générative n'est pas si chaotique que ce que nous aurions pu le craindre.

« Il y avait une forme de peur massive générée par le potentiel de cette technologie, qui ne reflétait sans doute pas la réalité de ces capacités, observe Arnaud Mercier, professeur en sciences de l'information et de la communication à l'Université Paris 2 Assas. Mais ce niveau de peur a permis un certain niveau de protection pendant la campagne électorale. Les opérateurs ont mis en place des garde-fous, poussés par les efforts législatifs européens (l'IA Act et le Digital Services Act notamment) : Google a notamment intégré des watermarks des images générés par IA; DALL-E et d'autres générateurs d'images ont interdit les représentations de candidats en campagne... Tous les écueils passés des réseaux sociaux, utilisés à des fins de manipulation politique, ont permis une plus grande vigilance sur les technologies d'intelligence artificielle et sur la désinformation de manière générale.» C'est aussi l'acculturation du grand public sur ces sujets, grâce notamment au travail d'association et de journaliste, qui a permis une plus grande vigilance.

Lire aussiPassage de l'IA Act : une arme vraiment efficace contre les dérives de l'IA ?

« Tout le monde s'est déniaisé sur le sujet »

 « Tout le monde s'est déniaisé sur le sujet, abonde Axel Dauchez. Les institutions ont pris conscience du risque de désinformation notamment en observant récemment les élections en Inde, les faux coups de fils de Joe Biden aux États-Unis...» Le fondateur de Make.org, qui met en place des plateforme de collaboration citoyenne, pointe notamment le changement de posture de Viginum (le service de l'État chargé de la vigilance et de la protection contre les ingérences numériques étrangères). Ce dernier fait désormais une sorte de bulletin météo des suspicions d'attaques pour avertir les journalistes et les chercheurs. L'idée est issue du "Démocratic Shield", rappelle Axel Dauchez, un ensemble de propositions de différents acteurs (dont Make.org,  SciencesPo, France Digitale, DemocracyWatch et Mozilla) pour préserver l'intégrité des élections européennes.

Si les deepfakes n'ont pas envahi la campagne, cela ne signifie pas qu'il ne s'est rien passé pour autant. Divina Frau-Meigs, professeure des sciences de l'information et de la communication à Paris III et autrice d'un ouvrage à paraître sur le sujet, estime que l'IA est un outil de plus à disposition des opérateurs de campagnes d'influence. Il est qui plus est très facilement accessible puisque les acteurs du numérique les intègrent directement à leur plateforme permettant de créer des publicités et de les diffuser. Mais l'IA n'a pas changé l'objectif, ni les techniques principales de ces campagnes, affirme-t-elle.

Déstabiliser l'opinion publique plutôt qu'un candidat en particulier

« La volonté des Russes c'est de détricoter l'Europe pour élargir son emprise sur les pays européens limitrophes de la Russie, rappelle Divina Frau-Meig. L'idée est donc de favoriser les partis anti-Europe, souvent aux extrêmes, en décrédibilisant les partis du centre. » Le processus suit un timing souvent similaire. « Les cellules dormantes commencent deux ans avant les élections. Le but est de créer du chaos, du doute, du mécontentement. Il s'agit souvent d'opérations très peu coûteuses, car elles s'appuient sur des relais dans les pays occidentaux, des influenceurs politiques qui amplifient les campagnes sans être payés pour. Les thèmes choisis pour alimenter ces campagnes de déstabilisation résonnent avec l'actualité : les jeux Olympiques et leur potentiel échec... Depuis mai, le spectre de l'entrée en guerre des pays européens, du coût financier et humain que cela représenterait, est utilisé massivement.»

Lire aussi« Intimidation, manipulation de l'information » : Paris dénonce la convocation de son ambassadeur par la Russie

Arnaud Mercier voit tout de même une caractéristique sur cette période électorale. « La déstabilisation est plus indirecte qu'auparavant. Il ne s'agit pas de déstabiliser un candidat en particulier - mais d'agir sur un climat d'opinion, d'orienter le débat vers une certaine interprétation des sujets, qui seraient favorables à des partis russophiles.»

C'est notamment l'un des objectifs d'une des campagnes qui a pris le plus d'ampleur durant cette période électorale : l'opération Doppelgänger, en cours depuis 2022. Cette campagne s'articule autour de nombreux faux sites copiant des médias occidentaux (20 Minutes, Libération, La Croix en France notamment) pour y diffuser soit de fausses informations, soit une interprétation des faits visant à relayer la propagande du Kremlin : la guerre en Ukraine coûte cher, l'armée ukrainienne est composée de néo-nazis... Mais selon Divina Frau-Meigs, cette méthode n'est pas particulièrement innovante, elle a déjà été vue dès 2017. L'ampleur de l'opération - qui mobilise des milliers de noms de domaine - reste toutefois inédite, selon d'autres observateurs. Les articles publiés sur ces sites sont ensuite relayés massivement sur les réseaux sociaux en ciblant des catégories d'électeurs particuliers.

Les plateformes ne sont "pas à la hauteur des enjeux", malgré les efforts

Que font les plateformes face à cela ? Ont-elles appris de leurs erreurs lors des précédentes élections ? Certains garde-fous ont été mis en place. Depuis 2018, les plateformes ont été poussés par l'Union Européenne à créer des archives de publicités politiques, ce qui permet aux chercheurs et journalistes de mieux contrôler leur diffusion. Elles ont également mis en place plus de mécanismes de détection. Mais pour Divina Frau-Meigs, les géants du numérique ne restent « pas à la hauteur de l'enjeu ». « A leur décharge, les opérateurs d'influence ont appris à contourner les mécanismes de détection », pointe-t-elle.

Pour preuve : en avril, l'ONG AI Forensics, a publié un rapport sur la mauvaise modération des contenus politiques par Meta. Au total, l'organisation a identifié 30 millions de publicités politiques diffusées dans 16 pays d'Europe dont 66 % ne sont pas identifiées comme telles. Et moins de 5 % de celles-ci sont repérées par Meta. Suite à la publication de ce rapport, la Commission européenne a lancé une enquête début juin visant Meta. Elle soupçonne l'entreprise de violer le Digital Services Act, en modérant de manière insuffisante.

Lire aussiMeta visé par Bruxelles : le crash-test du DSA contre l'ingérence étrangère à la veille des élections

 La crainte d'une opération difficilement vérifiable à la veille des élections

Par ailleurs, certaines plateformes ont tendance à couper les moyens, plutôt que d'en ajouter. La plateforme X, où circule une grande partie des campagnes d'influence, s'est vidé de son équipe de modération suite au rachat d'Elon Musk. Meta a quant à lui annoncé la suppression prochaine de CrowdTangle, un outil clé pour les fact-checkeurs permettant de suivre la diffusion d'une publication virale. Cette suppression est annoncée pour août, après donc les élections européennes mais avant la présidentielle américaine.

Arnaud Mercier lui estime que les garde-fous permettant de limiter les contenus générés par IA pendant la période électorale pourrait suffire pour ces élections. Mais il s'inquiète de voir des acteurs malveillants mieux se préparer lors des prochaines, en prévoyant « des stocks de deepfakes » créés hors période électorale.

Lire aussiIA : les géants de la tech vont développer des outils pour débusquer les « deepfakes » à l'approche de plusieurs élections

Et pour ce scrutin, tout n'est pas encore joué. Divina Frau-Meigs craint une campagne de déstabilisation la veille des élections. « A ce moment là, il n'est plus possible de faire la vérification. Les campagnes juste avant le scrutin visent généralement un candidat en particulier et sont présentées sous forme de fuites de donnée, d'e-mails de représentants de partis, de vieux tweets... Donc avis aux électeurs : une fuite de données deux jours avant les élections, c'est très suspect. »

« Tout va se concentrer sur la fin, confirme Axel Dauchez. C'est là où il y a le plus de risque, surtout que les médias traditionnels ont une période de réserve. » Lui avait proposé, dans le cadre du Democratic Shield, de renforcer cette période de réserve sur les réseaux sociaux, en les obligeant à limiter la viralité de tout contenu politique.

En France, cette solution a été envisagée il y a quelques semaines par Marina Ferrari, secrétaire d'État au Numérique. Mais l'idée a vite été écartée, explique un porte-parole du cabinet, après un avis défavorable de la Direction générale des Entreprises à Bercy.

Rendre l'IA compatible avec la démocratie

Il y a l'enjeu à court terme de la préservation des élections. Mais à plus long terme, il faut s'assurer que l'utilisation des IA génératives soit compatibles avec la vie démocratique. C'est le problème auquel s'attaque un programme de recherche lancé fin mai par Make.org, Sciences Po et Sorbonne-CNRS, et rejoint par des acteurs internationaux, dont de grandes universités américaines. Il est soutenu par BPI France à hauteur de 6 millions d'euros. « L'IA pourrait permettre de synthétiser un débat (c'est déjà le cas pour la Convention citoyenne sur la fin de vie), d'informer les citoyens ou de les faire participer à une discussion autour d'un sujet politique. Le problème c'est que les modèles de langage ne sont pour le moment pas toujours adaptés à ces usages », précise Axel Dauchez de Make.org. Pourquoi ? Car ils sont pétris de biais : racistes, sexistes, c'est plutôt connu, mais aussi des biais d'opinion, des biais de majorité (ils sur-représentent certaines idées)... Ce projet de recherche qui rassemble 50 chercheurs va donc s'atteler à évaluer l'exposition des grands modèles de langage existants à ces différents biais, puis à trouver des paramétrages spécifiques pour les « débiaiser » afin de les utiliser dans diverses applications démocratiques. Comme par exemple : faire collaborer des centaines de milliers de personnes sur un même sujet et synthétiser leur produit grâce à l'IA. « Notre mission est aussi d'élargir certains principes démocratiques à la lumière de cette technologie. Si par exemple une IA synthétise des heures de débats à l'Assemblée nationale. Quelle part donner à une idée minoritaire face à une idée majoritaire ? C'est un choix politique monumental.»

Sujets les + lus

|

Sujets les + commentés

Commentaires 12
à écrit le 06/06/2024 à 13:08
Signaler
Ça fait des dizaines d’années qu’on est désinformes il suffit d’écouter n’importe quel grand medias.....

à écrit le 05/06/2024 à 23:40
Signaler
La fausse information et la propagande, je sais ce que c'est. La désinformation, connais pas: une fois que j'ai été informé, que l'information soit fausse, incomplète ou autre, j'en ai pris connaissance et je l'ai enregistrée; et c'est tout. Tout au ...

à écrit le 05/06/2024 à 18:31
Signaler
Pour savoir ce qu'est la désinformation il faut observer la télévision et comparer avec internet. Alors oui il y en a beaucoup sur internet mais il y a beaucoup de tout sur internet c'est une non information, par ailleurs les gens ont le choix se dir...

à écrit le 05/06/2024 à 18:07
Signaler
Le risque de désinformation à l'aide l'IA est réel, mais est-il plus grand que celui de la désinformation pure et simple ou de l'absence d'informations ou encore d'informations partielles et partiales ? Le premier problème d'une campagne politique...

à écrit le 05/06/2024 à 17:26
Signaler
Seul ceux qui en auront les moyens pourrons le faire tout en censurant "les essais" des autres ! La méfiance sera une habitude à prendre sur toute images !

à écrit le 05/06/2024 à 15:19
Signaler
🤥 Face aux mensonges et à la tyrannie des chaînes TV et des radios aux ordres du ☠️ régime francophobe et atlantiste de Macron, l'UPR de François Asselineau (fort de sa chaîne youtube UPRTV de 452 000 abonnés) prône le FREXIT, la sortie de l'otan et ...

le 06/06/2024 à 13:58
Signaler
@Viginum- Asselineau ? Combat d'arrière garde. Aucun intérêt.

à écrit le 05/06/2024 à 13:46
Signaler
Honnêtement c'est pas pire que la désinformation propagée par les journaux ou la publicité pro MAcron de la Tribune! Le problème c'est qu'avant la désinformation était dans les mains des media dont la collusion avec les politiques n'est plus à démont...

le 05/06/2024 à 16:29
Signaler
C'est vrai ,on peut rappeler que le président Emmanuel Macron avait très discrètement déjeuné avec une dizaine d’éditorialistes politiques, deux jours avant la première journée de mobilisation contre la réforme des retraites. Objectif : distiller des...

le 06/06/2024 à 14:05
Signaler
@Abc et la Chose - La question reste: La reforme des retraites était elle nécessaire? Évidemment! ...et il faudra sans doute encore réformer. Est ce qu'elle a été bien menée? Non. Le FN/RN de Jordan Bardella ou LFI de Melanchon auraient fait mieux? ...

le 07/06/2024 à 13:15
Signaler
@valbel89 "La reforme des retraites était elle nécessaire? Évidemment! ..." Je me doute que pour tes petits copains boomers partis à 55 ans en pré-retraite sont favorables à cette réforme.Ton attitude intransigeante de partisans intolérants d'u...

à écrit le 05/06/2024 à 13:05
Signaler
Ce ne sera qu'une goutte d'eau de plus. Les partis politiques et groupes d'intérêts divers n'ont pas attendu l'IA générative pour agir contre l'intérêt de leurs administrés. La concentration des médias, leur non-indépendance, et le lobbying généralis...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.