IA publicitaires, clefs invisibles de nos démocraties

OPINION. La viralité n'aime pas la vérité. Les bonnes nouvelles ne font pas recette, tandis que les contenus polémiques, voire complotistes, font eux le bonheur des algorithmes de placement publicitaires qui repèrent ces foyers de viralité et soufflent dessus comme sur la braise afin que les revenus puissent s'enflammer.
Jean-Marie Cavada, Axel Dauchez, Denis Olivennes et Arno Pons
Jean-Marie Cavada, Axel Dauchez, Denis Olivennes et Arno Pons (Crédits : DR)

Les réseaux sociaux (Facebook, Youtube, Twitter-X, TikTok,...) se défendent d'être des éditeurs, et ils n'ont pas tort puisque leurs algorithmes ont des critères commerciaux et non éditoriaux. Les IA à l'origine des recommandations sont en effet bien celles de leurs régies dédiées à vendre des espaces publicitaires aux annonceurs. Ces algorithmes sont développés pour maximiser l'engagement des utilisateurs en ciblant les placements en fonction de leurs préférences et comportements en ligne, mais aussi programmés pour augmenter leur inventaire publicitaire en repérant puis boostant artificiellement les contenus qui ont un potentiel de viralité. Faisant totalement fi de leurs messages et de leurs éventuels impacts négatifs, devenant ainsi de facto des alliés objectifs de campagnes de déstabilisation qui viennent menacer nos démocraties.

Rappelons un fait : Donald Trump en 2016 avait été élu Président dans des circonscriptions où aucun Républicain n'avait jamais été élu. Toutes ces circonscriptions avaient pour point commun le fait que la presse locale avait fermé, remplacé par un autre média de proximité : Facebook. L'IA publicitaire du réseau social et Cambridge Analytica avaient fait le reste... Imaginons maintenant un instant un scandale de ce type avec la puissance de l'IA générative. Les conséquences dans le contexte géopolitique que nous connaissons pourraient être dramatiques, car un retour de Trump aux États-Unis et un une montée des extrêmes en France constitueraient une nouvelle équation mondiale au profit de la Russie et de leurs amis.

Cette menace se réalise sous nos yeux, il suffit de voir l'épisode récent en Slovaquie. En septembre 2023 cet État de l'UE a vu son élection nationale basculer suite à un deepfake particulièrement réaliste impliquant Šimečka, chef d'un parti pro-UE, évoquant des propos qui ont déstabilisé ce candidat progressiste dans les dernières 48h au profit du candidat pro-Kremlin, faisant ainsi basculer les élections dans la toute dernière ligne droite.

Pour ne pas reproduire les mêmes erreurs, nous devrions donc porter une attention particulière à la question des algorithmes publicitaires des grandes plateformes sociales. D'autant plus que certaines revendiquent de plus en plus clairement un agenda politique sous l'impulsion de leurs actionnaires, et que jamais le danger de cyber-ingérence n'était apparu aussi élevé tant l'IA générative donne aux ennemis de la démocratie des moyens sans précédents de manipulation massive. L'IA générative va immanquablement amplifier le phénomène de désintermédiation de l'information et ses conséquences sur l'invisibilisation de la vérité. Tout ce que nous n'aimions pas du Web2 risque d'être surenchéri : les fausses nouvelles, les cyberattaques, le contrôle des esprits, la contagion des théories du complot, l'exploitation des données personnelles, etc. On peut résumer ce phénomène en une formule : GenAI = Web2²

Pour faire face à ces guerres informationnelles, l'Union européenne nous a doté d'un arsenal réglementaire, dont bien-sûr le Digital Services Act (modération des contenus), mais aussi l'AI act dont il faut se saisir. L'AI act a adopté une approche par le risque en classant les IA en 4 niveaux de risque : minimum (ex. video games), faible (ex. deepfake), haut (ex. décision magistrat) et inacceptable (ex. credit social comme en Chine).

Le règlement prévoyant que la classification puisse être modifié, le think-tank Digital New Deal fait a fait une proposition dans son dernier rapport que nous soutenons, à savoir que les algorithmes de régies publicitaires jusqu'ici considérées comme risques faibles, soient qualifiées juridiquement comme « risque haut ». En relevant ce niveau de risque, ces IA devront répondre à des exigences de transparence, conformité et certifications plus strictes (versus les systèmes à risque limité où il est possible de développer de simples codes de conduite internes). Cette catégorisation permettrait en outre d'ouvrir la possibilité du dégroupage des réseaux sociaux tel que le prévoit le Digital Market Act (règlement européen sur la concurrence), en ouvrant à des tiers la possibilité de proposer des algorithmes de recommandation différents sur les réseaux sociaux, embarquant la fonction régie.

En faisant cela, nous mettrions un frein à cette injustice consistant à permettre aux plateformes d'attirer des budgets publicitaires pour nuire à notre démocratie : nuire en alimentant des bulles algorithmiques avec leur IA publicitaire ; nuire en réduisant les revenus publicitaires des médias classiques et leur capacité à payer les journalistes.

« Maîtriser l'IA, c'est maîtriser le monde », cette citation n'est ni d'Elon Musk ni de Jeff Bezos, mais de Vladimir Poutine. Le maître du Kremlin a bien compris que maîtriser l'IA c'est maîtriser les réseaux sociaux, et par conséquent, influencer les élections. Alors donnons-nous les moyens de maitriser les IA, à commencer par celles qui régissent le monde : celles de l'argent.

Sujets les + lus

|

Sujets les + commentés

Commentaire 1
à écrit le 03/07/2024 à 11:28
Signaler
"Les bonnes nouvelles ne font pas recette" Heu... vous avez vu la réaction du peuple français après la victoire de la France en coupe du monde en 98 !? Descendez vivre avec les gens et vous verrez surtout que les "bonnes nouvelles" ne sont pas diffus...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.