Quand faudra-t-il vraiment s'inquiéter des dangers de l'intelligence artificielle ? C'est la question que se pose toute l'industrie. Et d'après les entreprises qui créent ces IA, la réponse reste « pas maintenant ». Comme l'a repéré The Verge, OpenAI a publié jeudi un document de recherche sur les mesures de sécurité et l'évaluation des risques qu'il a mises en place avant de publier son dernier modèle d'IA, GPT-4o. Bilan : il ne comporterait qu'un risque « moyen ». En mars, son concurrent Anthropic tirait la même conclusion lors de la sortie de son IA Claude 3.
Chez OpenAI, l'évaluation des risques de l'IA se découpe en quatre catégories : sa capacité à devenir une menace de cybersécurité, la capacité du modèle à aider au développement d'une menace biologique, ses capacités de persuasion, et la possibilité qu'il agisse en autonomie, sans contrôle humain, comme Skynet dans le film Terminator. Cette grille se concentre uniquement sur des risques existentiels et financiers, et ignore tout un éventail d'autres risques, comme les potentiels effets de la technologies sur les inégalités.
GPT-4o inoffensif pour l'humanité
Dans le détail, OpenAI a mesuré que son modèle GPT-4o comporte des risques faibles, à l'exception du risque de persuasion, un peu plus élevé. Les chercheurs concèdent que l'IA est capable d'écrire des textes destinés à influencer l'opinion plus performants que ceux écrits par des humains. Mais ils précisent que ce constat se limite à des cas précis.
En dernière étape de leur processus d'évaluation des risques, ils ont fait appel à des équipes de « red team ». Elles ont pour rôle de tenter de faire dérailler leur modèle et l'utiliser à des fins malveillantes, afin que les défauts exploités puissent être corrigés avant la sortie. Ils ont par exemple essayé d'utiliser GPT-4o pour cloner des voix ; pour générer du contenu violent ou érotique ; ou encore pour détourner des contenus protégés par des licences. Malgré ces précautions pourtant bien répandues à l'échelle de l'industrie, il est commun que les modèles d'IA soient détournés avec succès à peine sortis.
L'exemple le plus célèbre reste celui de l'IA de Google, Gemini, qui s'était mis à générer des nazis noirs. Mais avant elle, des utilisateurs malicieux avaient fait générer par Bing (le moteur de recherche de Microsoft) des images de Kirby (un personnage iconique de Nintendo, entreprise japonaise très à cheval sur le droit de la propriété intellectuelle) aux commandes d'un avion qui se dirigeait vers deux tours... Bref : au-delà des articles de recherche, l'industrie a encore à prouver qu'elle peut sortir des modèles et des outils d'IA robustes aux détournements. Une tâche difficile étant donné que l'IA générative est par essence destinée à un très large éventail de cas d'usages.
Une prochaine génération d'IA regardée de près
OpenAI, de part la popularité de ChatGPT et sa position de pionnier de l'écosystème, reçoit une attention toute particulière des pouvoirs publics sur le sujet. Si pour l'instant, les IA ne sont pas dangereuses - du moins au sens de la menace existentielle choisie par l'industrie -, une partie des experts et politiques s'inquiètent du futur à court terme, tant la technologie progresse rapidement.
Les plus catastrophistes - connus sous le nom de doomers dans le secteur - appellent même à mettre en pause la recherche, le temps de développer des garde-fous robustes. Ce n'est évidemment pas l'avis des entreprises de l'IA. Ces dernières pensent pouvoir concilier l'exigence de sûreté avec une course effrénée à la performance, financée par les milliards des géants de la tech.
Mais la question des risques ne va cesser de revenir sur la table. D'ici la fin d'année, toutes les têtes d'affiche de l'écosystème (OpenAI le premier) prévoient de sortir une nouvelle génération de modèles dans les prochains mois, synonyme de bond technologique. De plus en plus, les pouvoirs publics exigent des garanties organisationnelles de la part des créateurs des IA. Le feuilleton autour de Sam Altman à la tête d'OpenAI a prouvé la fragilité de ces startups, censées contrôler dans les années à venir une technologie surpuissante. Pour éviter la pression des régulateurs, elles devront rapidement montrer patte blanche.
Sujets les + commentés