Les hallucinations de l’intelligence artificielle.

Jacques HM Cohen 20 03 2025

Sur les ondes de RCF: LIEN 

La chronique d’actualité cette semaine, comme toutes les semaines d’ailleurs, avec le Professeur Jacques Cohen par téléphone avec nous. Professeur, Bonjour.

Bonjour.

Merci d’être avec nous, et cette semaine le titre de votre chronique c’est les hallucinations de l’intelligence artificielle. Aussi bien évocateur que surprenant, pourquoi ce titre Professeur ?

Eh bien parce que le choix du qualificatif d’hallucinations pour des erreurs de l’IA vient du milieu même, par la stupéfaction qu’il y a eu à constater comment se trompe souvent l’IA. Alors il y a plusieurs façons de se tromper, on peut oublier un document, on peut surestimer un document, on peut sur des critères d’analyse décider qu’il y a une tumeur ou une fracture là où il n’y en a pas, etc. Mais tout cela, ce ne sont pas des hallucinations. Et la surprise qu’on eut les promoteurs et les concepteurs de l’intelligence artificielle, c’est de voir des erreurs qui sont soit extraordinairement décalées ou qui sont liées à l’invention de quelque chose. l’IA a vu quelque chose qui n’existe pas, ce qui est la définition d’une hallucination en psychiatrie.

statue du commandeur

La statue du Commandeur dans le Dom Juan de Mozart revisitée par Langhoff et Stehlé. La statue est « fonctionnalisée » en sa tête parlant dans le micro et sa main qui propose à dom Juan de toper là: « Dammi la mano in pegno » (donner sa main en gage ). La main s’écarte du « corps » et un lien rouge qui en est issu va entrainer Dom Juan dans l’abîme… ( https://www.fabula.org/colloques/document7948.php#ftn18 ).                                                                          Imagination humaine prémonitoire d’une lecture du livret par une IA ?

Et tout cela va nous conduire à voir également si ce n’est pas le premier côté humain de l’IA que de pouvoir faire des raisonnements et des fautes qui correspondent à de la pathologie mentale, c’est à dire à des erreurs de notre propre référentiel.

Alors prenons dans l’ordre, la première chose qu’on repère très facilement dans les erreurs des IA, c’est qu’il n’y a pas de petites erreurs, ou du moins il y en a des énormes et les énormes viennent de l’absence de contrôle du contexte. Le système s’enferre dans son raisonnement. Vous savez que la définition de la paranoïa c’est la folie raisonnante avec amour malheureux de la logique. Et bien ces systèmes, quand ils n’arrivent pas à sortir la bonne réponse, ont souvent une tentation paranoïaque, c’est à dire à continuer à résonner juste, mais sur des prémices qui sont de travers et sortir donc des conclusions complètement ahurissantes.

Mais également, il y a le problème du contexte, c’est à dire qu’on repère très facilement d’énormes bourdes que normalement les humains ne font pas. Parce que les humains ont deux choses qui contrôlent ces grosses bourdes, ils ont un système de corrélation de vraisemblance, qui fait que vous ne sortirez pas d’annoncer que toutes les voitures auront sept roues l’an prochain d’une part, et d’autre part nous avons un surmoi, et l’IA n’en a pas. Le Surmoi, c’est que si cela parait vraiment aberrant, offensant, inadapté, on ne la sort pas quand on a une idée comme cela. Et bien l’IA s’en moque elle, elle n’a pas de surmoi, l’IA elle sort ce qu’elle a en tête, ou du moins ce que les programmeurs ont défini comme cadre. On y reviendra tout à l’heure parce qu’il ne faut pas croire que les résultats, même exacts et scientifiques, soient dénués de tout préjugé idéologique et de tout bien et orientation, on y reviendra.

Mais donc parmi les hallucinations, il y a d’abord les raisonnements paranoïaques. L’IA voit quelque chose que personne ne voit et considère qu’elle a forcément raison, alors que des tas d’éléments autour lui disent que la vraisemblance est qu’il faudrait abandonner cette marotte, que ce n’est pas vrai. Donc cela c’est déjà un type d’erreur qu’on allait dire de défaut de raisonnement ou de faute de raisonnement, qui encore une fois on pourrait dire que c’est une erreur humaine, l’entêtement paranoïaque.

La deuxième chose, et là c’est encore plus intéressant, c’est l’évitement de la réalité. Lorsque le système travaillant sur du réel n’arrive pas à mouliner suffisamment de résultats convenables, et bien il risque d’en inventer. C’est à dire qu’il va surpondérer certains éléments, et il va reconstruire une réalité qui représente soit quelque chose de très sophistiqué, soit une erreur très bête ou un entêtement très bête comme un enfant qui a décidé que non, non, ce n’est pas lui qui a cassé le jouet par exemple, ou bien le chat du Rabbin qui dénie fermement avoir mangé le perroquet, ce qui lui permet de parler. Et bien, c’est pareil, l’intelligence artificielle peut s’entêter dans des négations, peut mentir effrontément, ce qui est là aussi un comportement hélas tout à fait humain, mais on ne sait pas encore très bien comment l’IA fait.

En particulier pour les hallucinations majeures, celles qui ne sont ni une erreur de documents ou de choisir délibérément un mauvais document, mais qui sont d’inventer toute une réalité parallèle, l’IA le fait mais on n’est pas encore sûr de comment elle le fait. Et c’est important parce que, si j’ose dire, du point de vue des programmeurs, si on comprend comment elle déconne, on peut mettre un verrou à cet endroit-là pour que cela s’arrête. Pour l’instant on ne sait pas. On voit ressurgir des erreurs et la fréquence des erreurs n’est pas négligeable.

Elle se situe entre 3 et 25 % selon la solidité des données sur lesquelles se trouve l’IA, qu’il s’agisse de données d’une IA générative, j’allais dire stable se contentant d’interpréter un corpus de référence, ou bien d’une IA adaptative au sens « machine learning », c’est à dire apprenant de ce qu’elle a vu et de ce qu’elle a trouvé et du feedback éventuel à ce sujet. Et dans tous les cas, l’IA peut dérailler et quand il s’agit par exemple de diagnostic, c’est quand même déjà ennuyeux, et on a l’impression que l’IA déconne dans 3 % des cas dans les meilleures situations. Alors vous allez me dire que c’est que 3 %, mais si un de mes congénères médecins se trompe dans 3 % des cas, et bien là aussi cela va poser des problèmes. Puisque quand l’IA se trompe, elle s’entête, elle s’enferre, elle insiste, elle a forcément raison.

Et d’autre part, il y a un grand danger, c’est que les gens n’apprennent plus à faire ce que l’IA fait à leur en place. En particulier, je suis toujours étonné de voir des jeunes médecins qui ne lisent plus les radios eux-mêmes, ils passent directement à regarder ce que l’IA a repéré dans l’image. Si l’IA n’a rien repéré ou si elle a vu quelque chose de faux, ils n’ont aucune chance de pouvoir le dire puisqu’eux-mêmes n’ont jamais appris sérieusement à lire les clichés en question. Donc cela c’est quand même un deuxième gros problème, c’est que si l’IA est parole d’évangile, si je peux me permettre sur cette antenne, et bien une fois qu’elle a parlé c’est fini, et cela c’est un énorme danger parce que comme je viens de vous le dire, ce n’est pas exact.

Il y a un autre élément aussi qui est non négligeable, c’est en matière d’hallucinations, c’est le rapport avec la maladie mentale. Est-ce-que les hallucinations, du moins une partie parce qu’il y a beaucoup d’hallucinations organiques, mais est-ce qu’une partie des hallucinations ne sont pas le dérapage du résonnement que reproduit l’IA dans le cerveau humain ? Donc pour la première fois ce sont les erreurs de l’IA qui donnent une ouverture sur un aspect où elle pourrait être un petit peu humaine, puisque d’habitude l’IA c’est bovin, l’IA c’est un système de raisonnement fermé, soit stable, soit auto-adaptatif, mais qui ne peut pas sortir des limites de l’épure. Et donc pour éviter qu’il y ait des erreurs, l’attitude des concepteurs de l’IA, c’est que l’information soit totalement juste et totalement coordonnée. S’il n’y a pas de hiatus, s’il n’y a pas d’incohérence, s’il n’y a pas de manque, l’IA ne se trompe pas. Mais dès qu’elle n’est plus, j’allais dire, en terrain connu c’est là où les choses s’enveniment et cela a des conséquences quand on confie et qu’on confiera de plus en plus à l’IA la possibilité de choisir, voire même d’exécuter elle-même ses décisions et par exemple en matière militaire d’exécuter des gens tout simplement en fonction de la décision qu’elle a prise. Donc vous voyez que les erreurs de l’IA sont non seulement un domaine important, mais que les hallucinations en sont un versant tout à fait curieux et intéressant dont je vous ai dit qu’il était peut-être le premier côté humain de l’IA. Et il y a un autre aspect humain dans l’IA, c’est qu’elle a des préjugés. Tout simplement ce sont les préjugés de ses programmeurs ou les choix des programmeurs de mettre systématiquement de l’huile dans les rouages, ou une touche optimiste, ou de ne pas être trop méchant, ou d’éviter les choses qui fâchent, cela c’est un choix délibéré des programmeurs. Et on peut prendre comme exemple que vous demandez en donnant des paramètres à une IA quel est votre pronostic avec un cancer du pancréas métastasé épouvantable, elle va vous dire qu’il est apparemment mauvais mais qu’on ne sait jamais cela peut peut-être s’améliorer si on a une découverte importante ou des choses qui sont en essai qui pourraient déboucher et renouvelleraient complètement le sort des malades de votre catégorie, même si la probabilité de ceci est extrêmement faible si l’on peut dire. Mais de même, il est systématique, par exemple j’ai testé cela plusieurs fois avec DeepSeek, que les comptes-rendus se terminent sur une note optimiste et lénifiante quelle que soit la situation qu’on décrive. Donc comme vous voyez, l’IA est humaine parce qu’elle est programmée par des hommes sur ses préjugés ou ses choix idéologiques, mais aussi d’une certaine façon par ses erreurs qui nous renseignent peut-être sur la façon dont nous-mêmes faisons des erreurs ou nous-mêmes cherchons des échappatoires à nos erreurs.

Et peut-être encore plus d’informations sur votre blog dès qu’il sera à jour, jhmcohen.com. A très bientôt Professeur.

A très bientôt.

Des Commandeur bien plus banalement traditionnels:

Laisser un commentaire