OpenAI évalue la dangerosité de son dernier modèle d'IA comme « moyenne »

Regardé de près par les experts et les régulateurs, OpenAI rassure : son dernier modèle d'intelligence artificielle GPT-4o, sorti en mai, ne représente pas de danger existentiel pour l'humanité. Si cette précision peut paraître inutile à l'heure actuelle, elle permet à la startup de démontrer sa capacité à évaluer la dangerosité de ses IA à l'avenir.
François Manens
La prochaine génération de modèles d'IA sera-t-elle plus dangereuse ?
La prochaine génération de modèles d'IA sera-t-elle plus dangereuse ? (Crédits : DADO RUVIC)

Quand faudra-t-il vraiment s'inquiéter des dangers de l'intelligence artificielle ? C'est la question que se pose toute l'industrie. Et d'après les entreprises qui créent ces IA, la réponse reste « pas maintenant ». Comme l'a repéré The Verge, OpenAI a publié jeudi un document de recherche sur les mesures de sécurité et l'évaluation des risques qu'il a mises en place avant de publier son dernier modèle d'IA, GPT-4o. Bilan : il ne comporterait qu'un risque « moyen ». En mars, son concurrent Anthropic tirait la même conclusion lors de la sortie de son IA Claude 3.

Chez OpenAI, l'évaluation des risques de l'IA se découpe en quatre catégories : sa capacité à devenir une menace de cybersécurité, la capacité du modèle à aider au développement d'une menace biologique, ses capacités de persuasion, et la possibilité qu'il agisse en autonomie, sans contrôle humain, comme Skynet dans le film Terminator. Cette grille se concentre uniquement sur des risques existentiels et financiers, et ignore tout un éventail d'autres risques, comme les potentiels effets de la technologies sur les inégalités.

Lire aussiCréer des superintelligences « sûres », la nouvelle obsession des gourous de l'IA

GPT-4o inoffensif pour l'humanité

Dans le détail, OpenAI a mesuré que son modèle GPT-4o comporte des risques faibles, à l'exception du risque de persuasion, un peu plus élevé. Les chercheurs concèdent que l'IA est capable d'écrire des textes destinés à influencer l'opinion plus performants que ceux écrits par des humains. Mais ils précisent que ce constat se limite à des cas précis.

En dernière étape de leur processus d'évaluation des risques, ils ont fait appel à des équipes de « red team ». Elles ont pour rôle de tenter de faire dérailler leur modèle et l'utiliser à des fins malveillantes, afin que les défauts exploités puissent être corrigés avant la sortie. Ils ont par exemple essayé d'utiliser GPT-4o pour cloner des voix ; pour générer du contenu violent ou érotique ; ou encore pour détourner des contenus protégés par des licences. Malgré ces précautions pourtant bien répandues à l'échelle de l'industrie, il est commun que les modèles d'IA soient détournés avec succès à peine sortis.

L'exemple le plus célèbre reste celui de l'IA de Google, Gemini, qui s'était mis à générer des nazis noirs. Mais avant elle, des utilisateurs malicieux avaient fait générer par Bing (le moteur de recherche de Microsoft) des images de Kirby (un personnage iconique de Nintendo, entreprise japonaise très à cheval sur le droit de la propriété intellectuelle) aux commandes d'un avion qui se dirigeait vers deux tours... Bref : au-delà des articles de recherche, l'industrie a encore à prouver qu'elle peut sortir des modèles et des outils d'IA robustes aux détournements. Une tâche difficile étant donné que l'IA générative est par essence destinée à un très large éventail de cas d'usages.

Une prochaine génération d'IA regardée de près

OpenAI, de part la popularité de ChatGPT et sa position de pionnier de l'écosystème, reçoit une attention toute particulière des pouvoirs publics sur le sujet. Si pour l'instant, les IA ne sont pas dangereuses - du moins au sens de la menace existentielle choisie par l'industrie -, une partie des experts et politiques s'inquiètent du futur à court terme, tant la technologie progresse rapidement.

Lire aussiA Paris et dans le monde, les inquiets de l'intelligence artificielle appellent à une pause

Les plus catastrophistes - connus sous le nom de doomers dans le secteur - appellent même à mettre en pause la recherche, le temps de développer des garde-fous robustes. Ce n'est évidemment pas l'avis des entreprises de l'IA. Ces dernières pensent pouvoir concilier l'exigence de sûreté avec une course effrénée à la performance, financée par les milliards des géants de la tech.

Mais la question des risques ne va cesser de revenir sur la table. D'ici la fin d'année, toutes les têtes d'affiche de l'écosystème (OpenAI le premier) prévoient de sortir une nouvelle génération de modèles dans les prochains mois, synonyme de bond technologique. De plus en plus, les pouvoirs publics exigent des garanties organisationnelles de la part des créateurs des IA. Le feuilleton autour de Sam Altman à la tête d'OpenAI a prouvé la fragilité de ces startups, censées contrôler dans les années à venir une technologie surpuissante. Pour éviter la pression des régulateurs, elles devront rapidement montrer patte blanche.

François Manens

Sujets les + lus

|

Sujets les + commentés

Commentaires 4
à écrit le 10/08/2024 à 15:36
Signaler
la vraie dangerosité de l'AI, c'est le crash boursier que ça va faire quand la bulle pétera. On va bien rigoler.

à écrit le 10/08/2024 à 8:17
Signaler
C'est grotesque, s'ils disent que c'est dangereux on leur interdira et s'ils disent que ça ne risque rien personne n'y croira à leur IA. Plus ça va plus leur quête s'enlise parce que cherchant d'abord et avant tout le gain et non l'IA.

à écrit le 10/08/2024 à 8:11
Signaler
Recadrons l'IA dans son contexte. Ce n'est pas l'outil qui pose problème, mais surtout son utilisateur ! La faille, le danger est humain ! L'IA ne devrait pas être gratuit, ni en libre accès. Elle devrait être réservée a des entreprises, des administ...

à écrit le 10/08/2024 à 2:14
Signaler
Autre question : Quand faudra-t-il vraiment s'inquiéter des dangers des gaz à effet de serre? A cette question (posée par les scientifiques depuis 1950), les industries ont toujours répondu "pas maintenant". Et alors, que fait-on désormais? Et puis ...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.