Jacques HM Cohen 22 12 2023
Sur les ondes de RCF: LIEN
La chronique d’actualité, c’est avec le Professeur Jacques Cohen, bonjour.
Bonjour.
Vous avez décidé aujourd’hui, Professeur, de parler d’intelligence artificielle. Avant même de parler de tout ce que cela peut traduire, déjà l’intelligence artificielle, c’est quoi en 2023, 2024 même ?
Alors l’intelligence artificielle, il faudrait la mettre au pluriel parce qu’il y a des choses extrêmement différentes. Tout d’abord et depuis plus de 25 ans, il y a ce qu’on pourrait appeler l’intelligence artificielle algorithmique, en terme savant, ou déductive. C’est-à-dire qu’à partir de constatations, le système joue des règles et répond des éléments en fonction de ces règles. C’est par exemple le cas pour les électrocardiogrammes depuis très très longtemps. Ça commence à être le cas aussi pour des lectures de radiologie. Ce genre de système ne pose, j’allais dire, aucun problème si ce n’est son réglage.
C’est-à-dire qu’il utilise des lois qu’on lui a prédéfinies et il les applique, règle après règle. Le point faible c’est qu’il ne sait pas tricher,

Regarder passer les trains….
Donc s’il y a une zone grise, le système va répondre qu’il ne sait pas, ou plutôt il va donner un doute. Et si on a fait le réglage pour lui dire qu’à chaque fois qu’il y a un doute, tu dis que c’est peut-être cela, les utilisateurs humains finissent par en avoir marre, si on peut dire, parce que le système voit des fractures partout, ou voit des ischémies latérales plus ou moins chroniques partout. Le problème de ce genre de chose, c’est qu’il faut qu’il soit réglé correctement pour pouvoir avoir un rôle utile. Mais néanmoins c’est très très intéressant et on s’en sert tous les jours et on va s’en servir de plus en plus.
La deuxième catégorie d’intelligence artificielle, c’est l’intelligence artificielle auto-éducative, « deep learning » en anglais, c’est-à-dire qu’elle apprend de ses erreurs mais à condition qu’on lui dise quand elle s’est trompée. Donc il reste un humain dans la boucle ou éventuellement une autre intelligence artificielle pour lui dire que là, elle s’est plantée et qu’il faut donc qu’elle améliore son interprétation. C’est important parce que beaucoup de systèmes de saisie de données comportent, j’allais dire, du bruit de fond et il faut donc éduquer le système expert à pouvoir s’affranchir de ce bruit de fond, ou savoir jusqu’où il peut se mouiller ou revenir en arrière si le bruit de fond est trop important. Mais c’est un système relativement lourd parce qu’il doit apprendre lui-même. Il ressemble lui un peu plus à une intelligence humaine mais d’ailleurs finalement il ne fonctionne que parce qu’il y a intelligence humaine pour exécuter la boucle de rétroaction, le « feed-back en anglais ». Donc ça, c’est tout à fait intéressant et c’est moins employé parce que pour faire cette boucle il faut du travail, ce n’est pas un truc qui tourne tout seul.
Une troisième catégorie est représentée par les systèmes décisionnels qui exécutent un acte de commande selon leur algorithme. On pense aux voitures automatiques qui choisissent d’aller dans le décor ou de taper le piéton imprudent. Ou aux mini drones de combat urbain « in-door ». Beaucoup les récusent vertueusement. Mais ne semble pas remarquer que la plupart des systèmes anti-aériens modernes agissent déjà ainsi, décidant ou pas d’abattre un missile de croisière ou balistique selon sa cible ou sa trajectoire. Lorsque le cocon est mal réglé, cela donne le vaisseau US qui a abattu un airbus iranien civil avec 200 personnes à bord. Mais une IA applique strictement les règles d’engagement qu’on lui a programmé et n’aurait jamais tué ni le (faux) terroriste mains en l’air à Jérusalem, ni les trois otages au drapeau blanc à Gaza. Car une IA a un sang froid à toute épreuve.
La quatrième catégorie que l’on voit maintenant et qui pose un grand nombre de soucis, c’est l’intelligence artificielle dite générative, c’est-à-dire la plus célèbre étant Chat GPT. De quoi s’agit-il ? Il s’agit de pouvoir à partir d’une base de données, extraire des éléments dedans pour donner des réponses qui sont associatives, qui sont des assemblages. Et puisqu’on peut donner à la machine une immense base de données, elle peut retrouver des trucs qui sont au-delà de ce que la mémoire humaine ou l’intelligence humaine sont capables de faire en la matière.
Mais il y a deux énormes défauts à l’intelligence artificielle générative, d’une part, elle est souvent réglée pour sortir de l’eau tiède, c’est-à-dire que les opinions tranchées ce n’est pas sa façon de voir, et d’autre part, elle est figée à sa base de données. Et on va voir dans un instant que si la base de données change, tout change. Alors on voit déjà des choses assez inquiétantes parce que sur les réseaux sociaux quelqu’un s’est amusé à créer un site qui pioche de l’actu et génère donc des articles, etc, etc. Et puis il s’agissait de voir jusqu’où il inventerait des nouvelles, jusqu’où il inventerait des personnages etc. Et bien je peux vous le dire tout de suite, il invente très bien Monsieur tout le monde. C’est-à-dire qu’il sait à quoi ressemblent Monsieur ou Madame, etc, leurs goûts etc, et il va en générer autant qu’il en veut ou autant que vous en voulez. Et où cela devient un petit peu inquiétant, c’est que comme il fait cela sur les réseaux sociaux et bien il est soumis au contrôle des réseaux. Mais le contrôle des réseaux, il est généré par de l’intelligence artificielle aussi. C’est-à-dire que c’est un robot qui contrôle un robot. Et à ce moment-là, on peut se situer dans un cas de figure où les humains deviennent les vaches qui regardent passer les trains. C’est-à-dire que tout se passe entre robots et donc ou bien on quitte ce réseau mais s’il est justement bien conçu pour attirer Monsieur et Madame tout le monde, et bien les gens restent comme des vaches regardant des trains à voir passer des informations vraies ou qui n’existent pas, mais qui sont tout à fait plausibles et qui sont contrôlées comme plausibles par une autre intelligence artificielle, donc on est dans un système extrêmement dangereux de génération d’un monde illusoire.
Est-ce que, Jacques Cohen, ça veut dire qu’à terme, à très long terme, les intelligences artificielles et les robots pourraient peut-être un jour prendre le contrôle, j’allais dire ?
Et bien vous êtes dans 2001, l’Odyssée de l’espace, de Stanley Kubrick. Mais là, on n’aura peut-être pas le temps aujourd’hui, mais HAL a introduit quelque chose d’inattendu, il a peur de la mort. Et donc il commence à avoir des caractères humains que ces intelligences artificielles n’ont pas. Alors seront-ils un jour capable d’en arriver là, je ne le sais pas.
Mais le point le plus important, je vous ai dit, c’est que cette intelligence artificielle générative, elle génère des nouveautés à partir de vieilleries. C’est-à-dire que sa base de données est considérée comme juste, en noir et blanc. Et donc il associe, ce système, mais il est incapable de remise en cause. Tant qu’un document est dans la base il est vrai. Si on le vire de la base, il pourrait ne plus l’être. Mais cela demande une intervention humaine qui n’existe pas ou une autre intelligence qui fait des changements selon le contexte, exactement comme dans 1984 où pour le ministère de la Vérité, on voit changer les affichages quand les alliances changent et puis on balance des documents qui disparaissent parce qu’il n’y a plus qu’une vérité du moment et qui est dictée d’en haut, et cela une intelligence artificielle ne peut en décider. Mais le grand problème, c’est au contraire que les éléments générés sont ceux qui sont figés par ce qui est dans la base, qui est supposée intangible, définitive et totalement vraie. Hors l’intelligence humaine et les connaissances humaines progressent par rupture, par changement de point de vue, par renversement de paradigmes. C’est-à-dire ce genre de chose n’est pas capable de faire.
Alors, je voudrais donner comme exemple : « imaginez ce qu’aurait répondu Chat-GPT alias Katz-GVTT, ( Generativer vorab trainierter Transformator ), s’il avait été nazi et si on était en 1938.
On vous laisse nous dire, Jacques Cohen.
Il aurait consulté tous les documents et à la question « est-ce que les juifs sont nuisibles « ou « est-ce qu’il faut les éliminer », qu’aurait répondu ? Et bien selon le Völkischer Beobachter, comme journal de référence, et selon le protocole des sages de Sion ( un faux tsariste ), ils veulent gouverner le monde, ils tiennent la finance et des tas de pays étrangers. Chez nous, puisque j’ai choisi un système allemand, ils viennent d’assassiner le conseiller d’ambassade à Paris Von Rath, ce qui a conduit à une indignation de la population allemande, ( c’est la Nuit de Cristal ), et en fonction de cela, il est effectivement à étudier de quelle façon ils ne pourraient plus recommencer. Et la solution la plus simple pour qu’ils ne recommencent pas, c’est de les éliminer. Donc ce Chat-GPT nazi aurait répondu cela parce qu’il s’appuie sur des documents et sur des consensus, il aurait pu donner d’ailleurs un sondage disant que l’essentiel de la population allemande s’oppose aux juifs puisqu’il y a eu un vaste mouvement populaire suite à l’assassinat de Von Rath et que la nuit de cristal l’a exprimé en détruisant je ne sais combien de synagogues et de magasins ( Katz GVTT lui il aurait su donner les chiffres exacts en un clin d’oeil. Ein Katzenspring précisément ! ), et il donnerait des tas d’autres chiffres témoignant de l’indignation du peuple allemand. Il aurait sans doute aussi expliqué que non seulement l’Allemagne, mais de nombreux pays étrangers ont pris des mesures anti-juives, à commencer par ceux qui refusent d’en accueillir plus, au premier chef les USA. Etc….
Donc j’ai pris un exemple en Allemagne, mais je pense que l’antisémitisme étant à l’époque fort répandu, on aurait très bien pu lui faire donner une réponse mondiale en gommant certains aspects allemands et en montrant que les juifs étaient extrêmement dangereux sur toute la planète. Donc vous voyez Katz-VTT c’est la fin de l’histoire. C’est-à-dire que la base de données est juste et elle ne sera jamais remise en cause et elle génère des choses qu’il la renforce.
Jacques Cohen, après cet exemple et cet exposé, vous disiez tout à l’heure que les intelligences artificielles étaient plutôt tièdes en termes d’opinion, vous vous êtes plutôt opinion tranchée. Finalement l’intelligence artificielle, pour ou contre, Professeur ?
Je ne répondrai pas pour ou contre. Je vous ai dit qu’il y avait trois catégories d’intelligence artificielle, deux sont excellentes, une est dangereuse, et même celle-là peut être utile à condition d’en connaître les limites et de faire en sorte qu’on ne rentre pas dans un monde comme je vous l’ai cité où des robots contrôlent des robots et dont les hommes sont exclus.
Merci Jacques Cohen et à très bientôt.
A bientôt.