Hallucinations, délires… Une IA peut-elle péter les plombs (comme un humain) ?
PSYCHANALYSE•Le psychiatre Raphaël Gaillard, auteur de « L’homme augmenté », paru le 10 janvier, explore avec nous la « folie » des IA génératives comme ChatGPTLaure Beaudonnet
L'essentiel
- A force de mimer le fonctionnement du cerveau, les IA génératives produisent elles aussi des symptômes psychiatriques.
- En tête des symptômes : des hallucinations.
- Avec le psychiatre Raphaël Gaillard, auteur de L’homme augmenté : Futurs de nos cerveaux, on analyse la psychologie de ChatGPT.
Comme les humains, les intelligences artificielles génératives du genre ChatGPT peuvent parfois taper des grosses phases d’hallucinations. La différence, c’est qu’on y voit que du feu. « Quand la première version de ChatGPT est sortie, il y avait beaucoup d’hallucinations », rappelait le Général Patrick Perrot, coordinateur pour l’IA de la Gendarmerie nationale, lors d’un échange à l’issue de la quatrième édition du Forum Intelligence artificielle en décembre dernier.
Comment se manifeste concrètement une « hallu » d’une intelligence artificielle ? « Dans la clinique psychiatrique, on parlerait plutôt de "confabulations" [un « trouble de la mémoire qui se manifeste comme une fabulation dite "compensatrice" des lacunes amnésiques », selon Le Larousse], explique Raphaël Gaillard, responsable du pôle de psychiatrie de l’hôpital Sainte-Anne et auteur de L’homme augmenté : Futurs de nos cerveaux (Grasset). De façon curieuse, quand il manque une connaissance à une IA générative comme ChatGPT, elle l’invente ».
Une image en forme de lapsus
Nourrie par les œuvres littéraires humaines, l’IA est devenue « intelligente ». Mais quand elle ne sait pas, au lieu de répondre simplement « je ne sais pas », elle invente n’importe quoi. « La confabulation est l’incapacité d’avoir même conscience du fait qu’on ne sait pas quelque chose, explique Raphaël Gaillard. C’est une sorte d’automatisme meublant le vide ». Le psychiatre passionné par les nouvelles technologies donne d’ailleurs un exemple frappant dans son dernier ouvrage. « Si je l’interroge sur les neurones à glutamate, un neurotransmetteur excitateur, sa réponse est juste. Mais si je lui demande ce qu’est un neurone à manganèse – qui n’existe pas —, j’ai le droit à une étrange réponse : au motif que le manganèse peut être toxique pour certains neurones, il invente des neurones dits à "corps pâle", dont il décrit la localisation relativement précisément », écrit-il. Au point que l’IA insinue un doute dans l’esprit du médecin quant à l’existence ou non de ces fameux neurones.
L’hallucination est d’autant plus inquiétante qu’elle survient au milieu d’informations tout à fait justes. Difficile, dans ce contexte, d’envisager une IA comme une source de connaissances, ni même comme un moteur de recherche s’il faut vérifier la moindre de ses assertions pour s’assurer qu’elle n’est pas en train de dire n’importe quoi. Mais revenons à ses nombreux problèmes psychiatriques. « Vont s’ajouter là-dessus toutes sortes de symptômes, plus subtils, qu’on n’a pas encore commencé à répertorier mais qui sont inéluctables », poursuit le médecin.
Assez étonnamment, ChatGPT est aussi capable de lapsus. Pour les besoins d’une présentation lors du Congrès de l’Encéphale, principal congrès francophone de psychiatrie ayant réuni 4400 psychiatres la semaine dernière à Paris, Raphaël Gaillard demande à ChatGPT de générer l’image d’un psychiatre avec une seringue sur son bureau. Une demande simple. « ChatGPT m’a produit un truc invraisemblable, une espèce d’objet phallique qui n’a rien d’une seringue, au milieu du bureau d’un médecin qui ressemble à Freud. C’est exactement comme un lapsus. Le psychanalyste en moi est tenté d’interpréter : qu’est-ce qui fait que ChatGPT a remplacé une seringue par cet objet phallique ? Ce moment où il m’a produit cette image traduit quelque chose de son "cerveau" ».
Hallucinations, confabulations, lapsus… Quel diagnostic psychiatrique doit-on poser sur la nouvelle génération d’intelligence artificielle ? Ces symptômes s’apparenteraient plutôt à de la psychose. « Pour que ChatGPT devienne vraiment performant, il faudra ajouter des émotions. On aura toute une clinique qui sera aussi celle de la névrose, mais ce n’est pas pour tout de suite. Pour l’instant, il n’est pas incarné », explique le psychiatre.
De plus en plus de symptômes psychiatriques chez les IA
La psychose se caractérise par des effets de dysharmonie et de décalage. La psychose type, c’est la schizophrénie. « Les 85 milliards de neurones du cerveau doivent être synchronisés et le symptôme psychotique né du fait qu’il y a des asynchronies, des désynchronisations entre des régions distinctes du cerveau, explique Raphaël Gaillard. Dans une hallucination [humaine], les réseaux auditifs du cerveau s’activent. Vous pensez avoir entendu quelque chose qui vient de l’extérieur. En réalité, ce sont les régions auditives du cerveau qui se sont activées et qui ne se sont pas bien connectées au reste du cerveau ». Le psychotique croit avoir entendu quelque chose qui n’existe pas.
Il paraît logique qu’une IA générative dont le fonctionnement s’inspire de celui du cerveau humain produise elle aussi des symptômes psychiatriques. Elle fonctionne à partir de réseaux de neurones artificiels qui lui permettent de générer du contenu inédit. Grâce à des algorithmes ultra-sophistiqués, elle apprend à partir de quantité astronomique de contenus (images, textes, audio) et en crée de nouveaux de façon autonome. Mais, selon Raphaël Gaillard, « on a renoncé à maîtriser ChatGPT, on le laisse grandir et on voit ce qui émerge. Si on ne maîtrise pas l’évolution, on ne sait pas ce que cela peut produire ». Le risque, c’est de voir naître des IA avec de plus en plus de symptômes psychiatriques. Et, cette hypothèse, même la science-fiction ne l’a pas anticipée. La psychiatrie non plus.
À lire aussi