Retour aux articles →

ChatGPT. Des hallucinations à la désinformation (4/6)

(FLY:D. Unsplash)
(FLY:D. Unsplash)

Les IA génératives dérapent bien souvent en produisant des contenus inventés de toutes pièces. Elles peuvent aussi s’avérer des instruments puissants au service de la propagande et de la désinformation.

Un « modèle large de langage » (large language model, en anglais) comme ChatGPT consiste en un réseau neuronal artificiel, dont la tâche est de traiter le langage naturel, c’est-à-dire le langage parlé par l’être humain. S’il est possible d’expliquer la mécanique de cette technologie, celle-ci fonctionne toutefois comme une boîte noire, dont on sait finalement peu de choses. Quelles sont exactement les données qui le nourrissent ? De quelle manière ces données ont-elles « entraîné » le système (voir le premier article et l’article précédent du dossier spécial sur les IA génératives) ? Comment exactement ces données sont-elles traitées pour produire un résultat ? Seuls les opérateurs du système connaissent les réponses à ces questions.

Reste que les générations de textes sont époustouflantes : elles ressemblent à s’y méprendre à des textes qui auraient pu être rédigés par une personne en chair et en os, quelle que soit la langue, en anglais, français, espagnol ou norvégien. Toutefois, ChatGPT ment, et ment beaucoup. Dès ses débuts, de nombreux utilisateurs et utilisatrices ont rapporté de la part de ChatGPT des réponses philosophiquement ou politiquement orientées, ou contenant des faits totalement inventés.

En informatique, il existe une règle d’or résumée de la sorte : garbage in, garbage out (« des ordures à l’entrée, des ordures à la sortie »). Cela signifie que si les données entrées dans un système sont incorrectes ou biaisées, les résultats en sortie seront eux aussi incorrects ou biaisés. ChatGPT n’échappe pas à cette règle éprouvée depuis de nombreuses années, et cela d’autant plus qu’une partie de son corpus de données présente de nombreux biais (voir le premier article de cette série). Certains gros mensonges du système peuvent même contrevenir à la loi : dans notre droit, la liberté d’expression n’est pas illimitée et les propos racistes, xénophobes, injurieux, calomnieux ou diffamants sont passibles de poursuites.

Les gros mensonges de ChatGPT

En Australie, un élu local a menacé OpenAI de poursuites en diffamation, si les affirmations erronées selon lesquelles il avait « purgé une peine de prison pour tentative de corruption » n’étaient pas supprimées du système. Cet élu avait, en réalité, alerté les autorités et les médias à propos d’une affaire de corruption. ChatGPT peut donc s’avérer un interprète hors de contrôle. Il a également inventé de toutes pièces, par exemple, une affaire de harcèlement sexuel impliquant un professeur de droit, citant un article du Washington Post qui n’a jamais été écrit par aucun journaliste. Le quotidien britannique The Guardian a également été alerté par des lecteurs surpris de ne pas trouver trace d’articles qui leur avaient été suggérés par ChatGPT ; et pour cause : ces articles n’ont jamais existé1. ChatGPT publie aussi des références d’articles académiques qui n’ont jamais été rédigés.

ChatGPT peut s’avérer un interprète hors de contrôle. Il a inventé de toutes pièces, par exemple, une affaire de harcèlement sexuel impliquant un professeur de droit.

Dans le langage de l’informatique, on appelle cela des hallucinations artificielles. Mais peut-on vraiment parler « d’hallucinations », si l’on s’en tient à la définition de ce terme, qui nous est fournie par le Robert : « Une perception pathologique de faits, d’objets qui n’existent pas, de sensations en l’absence de stimulus extérieurs. » Les « hallucinations » de ChatGPT n’ont rien d’un désordre mental, même s’il s’agit bel et bien d’un désordre sémantique dont souffre le système, générant des informations réalistes qui ne correspondent à aucune réalité.

Pour Naomi Klein, l’utilisation du terme hallucination entretient un mythe selon lequel un agent conversationnel serait doté d’une intelligence.

Pour l’autrice canadienne Naomi Klein, l’utilisation du terme hallucination entretient un mythe selon lequel un agent conversationnel serait doté d’une intelligence « sur le point de déclencher un saut évolutif de notre espèce ». Pour Klein, il serait plus juste de parler « d’hallucinations des concepteurs » des IA génératives, dès lors qu’ils promettent que leur technologie mettra fin à la pauvreté, guérira toutes les maladies et résoudra le changement climatique. « Ce sont, je le crains, les véritables hallucinations de l’IA et nous les entendons tous en boucle, depuis le lancement de ChatGPT à la fin de l’année dernière2», écrivait-elle dans une tribune publiée par The Guardian.

Les nombreuses failles de la détection

À l’université de Bergen, en Norvège, nous travaillons actuellement sur ces problèmes, dans le cadre du projet européen Nordis (Nordic observatory on information disorder, « observatoire nordique des désordres de l’information3 »), piloté par l’Edmo (European digital media observatory, « observatoire européen des médias numériques4 »). Bien que nos recherches soient toujours en cours, voici déjà quelques observations éclairantes à propos du volume de faits inventés par ChatGPT.

Dans une expérience où nous avons généré 40 textes à partir d’une liste de faits avérés, nous voulions savoir si ChatGPT respectait ces faits, et dans combien de cas il en inventait de nouveaux. Nous avons constaté que la moyenne de contenus créés de toutes pièces par ChatGPT était de 35 % (avec un score maximum de 85 %). Sur les 40 textes, un seul s’en tenait strictement aux faits que nous avions encodés dans le prompteur (voir le premier article de cette série). Nous avons également soumis ces textes à une dizaine de détecteurs en ligne, lesquels visent en principe à établir si un contenu a été généré par un agent conversationnel ou par un humain. Aucun de ces détecteurs n’a fonctionné correctement, ce qui atteste de la difficulté à évaluer un contenu qui imite à la perfection l’écriture humaine. Même OpenAI a reconnu le problème et a, par la même occasion, fermé le détecteur qu’il avait conçu, faute de pouvoir produire des résultats fiables.

Sur les 40 textes, un seul s’en tenait strictement aux faits que nous avions encodés dans le prompteur.

Ce type de détection est appellé « détection en boîte noire » (black box detection). On l’oppose à la « détection en boîte blanche » (white box detection) : celle-ci consiste à ajouter, à tout type de contenu généré, un filigrane algorithmiquement détectable mais humainement imperceptible. Dans ce cas aussi, les détecteurs manquent de robustesse et nécessitent des améliorations. On peut utiliser d’autre approches, comme la détection sémantique et la vérification de faits, mais celles-ci montrent tout autant de limites, étant donné la nécessité de développer une approche critique et nuancée qui ne peut être automatisée.

Des outils puissants pour la propagande et la désinformation

Les IA génératives ont ceci de particulier qu’elles sont capables de générer n’importe quel type de contenu, textuels ou audiovisuels, en quelques secondes à peine. Si elles peuvent être utilisées pour produire des textes en journalisme ou des logos en graphisme, elles peuvent aussi s’avérer des instruments redoutables pour propager de la propagande, de la désinformation ou tout autre type de désordre informationnel. La start-up américaine NewsGuard, qui a développé une plateforme pour analyser la fiabilité des sites web, a détecté à ce jour (octobre 2023) pas moins de 498 sites internet de fausses nouvelles générées par l’IA5, des sites qui fonctionnent avec peu, voire pas du tout, de surveillance humaine. Et cela n’est sans doute qu’un début.

Voilà qui met en lumière la nécessité, pour les rédactions des médias, de développer des guides de bonnes pratiques, car ces constatations soulèvent la question de la confiance de la part de leurs publics (voir le second article du dossier sur les IA génératives). Elles suggèrent également de développer des instruments d’éducation aux médias numériques, de manière à permettre aux élèves et étudiants de mieux comprendre et appréhender les IA génératives dans ce qu’elles offrent comme possibilités, tout en balisant leurs limites. Si l’IA tout court nécessitait déjà une approche responsable, cela est encore plus pressant en matière d’IA génératives.

La réaction est d’autant plus urgente que les réseaux sociaux sont devenus, pour beaucoup, le seul endroit où l’information se consulte et se partage.

Pour les factcheckers du monde entier, le défi est de taille. Débusquer les deepfakes (vidéos montées de toutes pièces qui présentent un haut niveau de sophistication) et les cheapfakes (contenus inventés mais réalistes, produits de manière plus simple) est un impératif majeur pour le monde de l’information d’aujourd’hui et de demain. Plus que jamais, des collaborations avec le monde académique dans ce domaine sont indispensables, car prendre ces problèmes à bras-le-corps suppose d’investir dans de longs et coûteux programmes de recherche et de développement.

La réaction est d’autant plus urgente que les réseaux sociaux sont devenus, pour beaucoup, le seul endroit où l’information se consulte et se partage. La désinformation liée à la crise du Covid, au changement climatique ou encore à la guerre en Ukraine a déjà atteint des proportions inquiétantes et, si l’on n’y prend garde, notre société risque de devenir de plus en plus polarisée. La propagation de discours de propagande est un effet un autre aspect de la manipulation d’informations en ligne. Ces discours se caractérisent par le fait qu’ils visent à servir des objectifs spécifiques en soulignant certains faits, en en omettant d’autres et en en fabricant de nouveaux.

Pour paraphraser la philosophe Hannah Arendt, qui a analysé les systèmes totalitaires, l’objectif de ces discours est de créer la confusion, de brouiller la distinction entre réalité et fiction, entre le vrai et le faux. C’est également là l’un des effets pervers de l’utilisation des intelligences artificielles génératives : comme elles sont utilisées autant pour « dire le vrai » que pour « dire le faux », elles finiront pas générer cette confusion. Aussi, les IA génératives soulèvent-elles des enjeux démocratiques majeurs qui justifient, à eux seuls, une nécessaire et urgente approche critique et responsable.