Vers un Web zombie ? « Les contenus des IA envahissent Internet au détriment de nos interactions » (Olivier Ertzscheid)

ENTRETIEN - ChatGPT est-il en train de détruire Internet ? C'est la question à laquelle tente de répondre Olivier Ertzscheid dans son essai, intitulé « Les IA à l’assaut du cyberespace ». Dans ce livre, le chercheur en sciences de l'information dénonce la surabondance de contenus produits par les intelligences artificielles, qui relègue nos interactions sociales dans des couches de moins en moins visibles du Web.
Le chercheur Olivier Ertzscheid dénonce l'émergence du « Web synthétique », un Internet où les contenus produits par des machines finissent par occuper l'essentiel de l'espace d'expression visible.
Le chercheur Olivier Ertzscheid dénonce l'émergence du « Web synthétique », un Internet où les contenus produits par des machines finissent par occuper l'essentiel de l'espace d'expression visible. (Crédits : DR)

Depuis quelques mois, certains observateurs parlent d'un internet « mort » ou « zombie », envahi de bots, de textes et d'images générés par intelligence artificielle. Olivier Ertzscheid, chercheur en sciences de l'information et maître de conférences à l'université de Nantes, ne va pas jusqu'à prêcher la mort du web.

Mais le chercheur estime que celui-ci s'est considérablement transformé avec l'apparition de contenus non produits par les humains. Il détaille son analyse de ce « Web synthétique » et de son impact sur notre manière d'interagir, notre langue, et nos normes sociales dans un essai intitulé Les IA à l'assaut du cyberespacepublié le 5 juin chez C&F Editions.

LA TRIBUNE - Vous parlez d'un « Web synthétique », qu'entendez-vous par ce terme ?

OLIVIER ERTZSCHEID - C'est un Internet où les contenus produits par des machines finissent par occuper l'essentiel de l'espace d'expression visible du Web. Aux antipodes d'un Web naturel, organique, où chacun produit lui-même des contenus. Nous savions déjà que les bots, ces programmes informatiques qui publient de manière automatique, occupent une part de plus en plus importante. Ils représentent la moitié du trafic d'Internet et sont aussi producteurs d'information (ou de désinformation). Puis sont venus ChatGPT et les autres IA génératives, ce qui a amplifié ce phénomène.

Lire aussiOPA sur Twitter: « Le fait qu'Elon Musk puisse obtenir un tel pouvoir est inquiétant »

Qu'est ce que cela a changé exactement ?

Avec ChatGPT, nous sommes tous devenus acteurs du web synthétique. Nos échanges avec le chatbot - et tout autre IA générative - sont parfois partagés avec des amis, sur les réseaux sociaux... On contribue à la saturation de l'espace discursif. Le problème c'est que cette omniprésence de contenus artificiels, qui ont souvent un intérêt limité, se fait au détriment des interactions sociales.

Cette autre question se pose, selon moi : est-ce que la vanité de croire que l'on peut apporter une réflexion intéressante va-t-elle résister à ce web submergé par des contenus synthétiques ? L'autre question que cela pose c'est le devenir de ces contenus. On pourrait les considérer comme des déchets, car sans grand intérêt pour la plupart des utilisateurs. Mais ils servent toutefois à l'industrie numérique pour renforcer la connaissance qu'elle peut avoir de nos profils, nous inciter à rester sur les plateformes, pour améliorer ses outils d'IA... Ils n'ont donc pas d'autres utilité que de servir le modèle économique de ces acteurs.

Lire aussiOpenAI (ChatGPT) dissout l'équipe dédiée aux risques futurs liés à une « super IA »

A-t-on vraiment conscience qu'il s'agit de contenus synthétiques ?

On s'en accommode. L'enjeu pour les plateformes est de modifier les habitudes. Sur Facebook, par exemple, les interactions ont fondamentalement muté en l'espace de dix ans, au fil des changements stratégiques imposés par Mark Zuckerberg. Au départ, le réseau valorisait les interactions individuelles, ensuite il a davantage mis en avant les contenus des médias pour pouvoir les monétiser.

Après cela, ce sont les interactions locales, via les groupes, qui ont été davantage mises à l'honneur. Aujourd'hui, c'est encore autre chose. La page d'accueil de Facebook ressemble à un bouquet de chaînes de télévision où l'on voit défiler des contenus très similaires. Cela produit de nouvelles normes : on voit tous la même chose tout le temps, tout en ayant l'impression de voir des contenus très personnalisés. L'interaction avec les pairs, elle, a disparu.

Elle subsiste dans les groupes privés...

Justement, cela questionne notre rapport à l'espace public en ligne. Aujourd'hui les interactions « naturelles » ont migré dans des espaces non visibles. Elles se nichent dans des groupes privés, familiaux ou professionnels, des conversations WhatsApp... Pour y accéder, il faut s'inscrire, répondre à des questionnaires, être invité... C'est aussi pour cela que les plateformes commencent à monétiser ces espaces qui ne l'étaient pas avant. On voit arriver dans Messenger ou WhatsApp de la publicité, des contenus poussés de manière algorithmique.

Lire aussiPour Mark Zuckerberg et Meta, la bataille de l'IA générative est aussi une guerre d'image

Vous dites que ce changement d'un web « naturel » à un web « synthétique » produit de nouvelles normes. Lesquelles ?

Les productions des générateurs d'images sont extrêmement normées. Ces générateurs mettent en place un certain nombre d'interdits : on ne peut pas demander des portraits de femmes aux sein nus, ni de Mussolini en train de jouer au volley avec Hitler... On finit par intérioriser ces interdictions et ces interdictions deviennent des normes.

De la même manière que l'on a intériorisé en utilisant Instagram à ne pas montrer certaines parties de notre corps. Dans le cas des générateurs d'images et de texte, ce qui est encore plus intéressant et dangereux c'est qu'on finit par brider et donc appauvrir la langue, donc notre capital culturel.

Vous défendez depuis longtemps l'idée que les réseaux sociaux entretiennent une ligne éditoriale, via les algorithmes de recommandation notamment. Ici, vous dites que les acteurs de l'IA, Meta, OpenAI et d'autres, « norment la langue », il s'agit d'une affirmation encore plus forte... Quel est leur intérêt selon vous ?

Le langage c'est un outil de négociation pour aller vers de l'interdit, du transgressif... Ces entreprises nous proposent une vision extrêmement utilitariste du langage. Les prompts sont des chaînes de production qu'il faut apprendre à utiliser. Par ailleurs, les modèles doivent répondre à certaines consignes d'évaluation. Les programmateurs doivent s'assurer de leur innocuité, de leur honnêteté...

Or si on enlève au langage sa capacité à mentir, à blesser, on lui enlève sa capacité à réparer les blessures. Et on finit par obtenir des interactions appauvries et normées, qui n'ont un intérêt que pour les sociétés qui les mettent en ligne.

La solution est-elle d'interagir avec des modèles de langage différents, qui n'ont pas la même vision du monde ?

Plus il y a de diversité, mieux c'est. Pour éviter l'aliénation à ces outils, il faut surtout rester en situation de pilotage, et pas de co-pilotage comme le suggère Microsoft [Microsoft a baptisé son assistant virtuel Copilot, et file cette comparaison de co-pilotage entre l'homme et la machine dans sa communication, ndlr]. Cela signifie comprendre comment ces modèles fonctionnent, pourquoi certaines choses peuvent être générées et d'autres non, vérifier à quel point les biais impactent le modèle...

Lire aussi« Les géants de l'intelligence artificielle s'intéressent moins aux biais sexistes et racistes qu'à la course à la performance » (Margaret Mitchell, Hugging Face)

Il faut aussi avoir conscience de l'existence de modérateurs et modératrices qui nous évitent de faire face à des productions langagières traumatiques. Mais ce qui est inquiétant c'est que les entreprises à l'origine de ces modèles ne sont pour la plupart pas transparentes. Elles disent elles-mêmes ne plus être en capacité d'auditer les bases de données, qui sont devenues trop grandes. Et même lorsqu'une couche technologique est open source (en accès libre), il est rare que l'ensemble le soit.

Vous évoquez l'effet magique produit par ces technologies. Mais au bout de deux ans, s'est-il estompé ?

A l'échelle individuelle, on s'aperçoit vite que l'effet de sidération passée - important avec ces outils - cela reste une technologie. Je le constate chez les étudiants. Il y a eu comme avec Wikipedia au départ une utilisation un peu clandestine de ChatGPT. Mais très vite, ils comprennent que les professeurs arrivent à le détecter.

Les productions sont tellement standardisées qu'elles sont reconnaissables. Et eux-mêmes perçoivent assez rapidement les limites. Ils s'aperçoivent que pour obtenir un résultat satisfaisant, il faut y passer du temps. Soit pour reprendre soi-même ce que ChatGPT écrit, soit pour affiner le prompt. Les étudiants développent une forme de méfiance vis-à-vis de l'IA actuellement.

Lire aussiOpenAI (ChatGPT) va s'appuyer sur Reddit pour entraîner ses modèles d'intelligence artificielle générative

Vous faites le parallèle avec Wikipedia, qui lui aussi avait effrayé certains enseignants, avant d'être finalement accepté...

Wikipedia, malgré la panique morale qu'il avait suscité à l'époque, reste un outil géré de manière transparente et collective. Les détournements et les erreurs sont rapidement corrigés. ChatGPT n'est pas transparent et derrière on trouve une entreprise avec de forts intérêts économiques.

Si ChatGPT se substitue à Wikipedia, on va dans le mur. Car pour le moment, il n'y a aucun moyen de vérifier où ce modèle puise ses connaissances.

Mais il ne faut pas tomber dans une forme de panique morale vis-à-vis de cet outil non plus. Car cette posture empêche toute forme d'explication. Il faut simplement se poser la question suivante : quels intérêts servent ces outils et qui parlent derrière ?

Sujets les + lus

|

Sujets les + commentés

Commentaires 6
à écrit le 06/07/2024 à 7:26
Signaler
De mon temps on avait des cours sur la chaleur des medias....l info generee par ai est ininteressante, et ca fait longtemps qu internet est pourri par tiktok et consors, avec ou sans ai...le pb nest pas la. Il reste donc la propagande, et ca ca a tjs...

à écrit le 06/07/2024 à 7:02
Signaler
Merci beaucoup, vous dites ce que j'annonçais tranquillement, avec leur deep learning la société marchande allait générer une véritable boucherie sur le web du fait de la publicité et du pillage de données. L'accès à la fibre, au toujours plus de déb...

à écrit le 05/07/2024 à 18:48
Signaler
Grâce à l'IA, votre recherche s'adaptera à votre plaisir même si la réponse n'est pas correcte ! ;-)

à écrit le 05/07/2024 à 17:44
Signaler
Bof pour ceux qui considèrent internet comme un outil de lien social peut être , mais pour ceux qui utilisent internet pour des raisons pratiques cela ne change pas grand chose me semble t il.

le 06/07/2024 à 11:25
Signaler
"ceux qui utilisent internet pour des raisons pratiques": est-ce que vous lisez la Tribune pour des raisons "pratiques"? Est-ce que vous y faites des commentaires pour des "raisons pratiques"? Est-ce que vous consultez les résultats des élections "po...

à écrit le 05/07/2024 à 17:25
Signaler
Bof pour ceux qui considèrent internet comme un outil de lien social peut être , mais pour ceux qui utilisent internet pour des raisons pratiques cela ne change pas grand chose me semble t il.

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.