
Daniel Andler est passionnant. Intellectuel ouvert, il réfléchit à voix haute, fait partager sa culture mathématique comme sa culture philosophique, mais aussi toutes ses recherches autour des études cognitives.
Professeur émérite de Sorbonne Université, membre de l’Académie des sciences morales et politiques, il a publié en 2023 Intelligence artificielle, intelligence humaine : la double énigme, ouvrage dans lequel il considère qu’une intelligence artificielle qui rejoindrait celle de l’homme est une chimère, pour des raisons conceptuelles et non techniques : l’intelligence humaine dépasse la simple résolution de problèmes, basée sur des affects, de la spontanéité et une forme de contingence, et tout ce contexte n’est pas accessible à une intelligence artificielle.
Il est venu en débattre à VIF.

Pour ou contre l’IA ?
Daniel Andler : Ce n’est évidemment pas la question. Mais il y a tout un monde qui résiste, qui n’a pas envie que l’IA marche, et il se précipite alors sur les fautes. D’autres notent que l’IA est limitée, qu’elle n’est pas sensible au contexte, qu’elle ne comprend pas, qu’elle ne fait pas de choix, qu’elle ne sait que résoudre des problèmes, ou répondre à des contraintes comme réaliser un Rubik’s Cube. Et cela, certes, elle le fait très bien, mais elle ne fait que cela.
Pour autant, c’est un peu plus compliqué, car avec le connexionnisme dont le dernier avatar est le célèbre ChatGPT (désormais rejoint par des dizaines de modèles d’IA), l’IA a avancé : elle se nourrit d’exemples, et les exemples participent du contexte. L’IA a l’air d’intégrer le contexte, mais c’est exact, ce n’est pas le contexte humain.
Il n’empêche, même les plus interrogatifs, tout le monde dit que le résultat actuel est bluffant. Mais limité.
Le problème est que dans l’intelligence humaine, le contexte est un univers multiple, quelque chose qui surgit au moment même où l’on est en train de gérer une situation telle qu’elle est, et le contexte est centré sur l’agent. Or, l’IA ne sait pas qui je suis, elle ne peut se mettre à ma place sur le moment, même si elle dispose de beaucoup (beaucoup trop ?) d’informations me concernant.
L’IA avance aussi sur la question du raisonnement, sur les pensées conscientes ; elle le fait comme lors d’un dressage, à partir d’exemples. Mais revenons un peu en arrière. Le premier changement massif a été lorsque l’on a pu multiplier par un milliard et plus les capacités de stockage. Internet permettant la constitution de base de données gigantesques, ce qui a donné à la machine – pour la dresser – des quantités astronomiques d’exemples.
L’autre changement, qui existait certes depuis quarante ans, a été le traitement du langage naturel. On s’est rendu compte de la possibilité de traduire. Au début, des méthodes symboliques pour traiter le langage ont été utilisées, mais elles n’ont pas marché, puis l’idée a été de donner une interprétation géométrique du langage, et de fait, de construire une sorte de géométrie du sens. Tout cela a donné l’IA générative, c’est-à-dire que la machine est devenue capable de converser « intelligemment » sur à peu près n’importe quoi. Et en particulier, de résoudre quantité de problèmes. Et en 2002, le monde entier a découvert l’IA. Et il a été bluffé.
Beaucoup, dont des fondateurs de l’IA, lâchent que l’IA reste « bête », et que le fossé est entier avec l’intelligence humaine.
D. A. : Il y a un petit côté posture qui m’agace, avec ces positions aussi tranchées. Les gens ne veulent pas que l’IA soit intelligente. Ils disent que l’IA ne comprend rien, que ce serait un peu l’image du perroquet, animal qui répète mais ne comprend pas (une chercheuse américaine, Emily Bender, s’est rendue mondialement célèbre en qualifiant ChatGPT de « perroquet stochastique »). Et en somme, quels que soient les tours de prestidigitateur que fera l’IA, au final, elle ne comprendra pas car elle ne sait pas ce qu’elle fait. Autre objection émise, celle de dire qu’elle n’a pas d’émotion ; or qu’est-ce qu’une pensée sans émotion ?
Voilà ce que l’on entend, mais le problème est que ces arguments ne sont ni complètement faux, ni vrais. Il est exagéré de dire que l’IA ne comprend rien, et à mes yeux, c’est adopter une position un rien dogmatique et d’une certaine façon, c’est supposer le problème de la compréhension par l’homme résolu. Le fait est que la pratique d’un dialogue répété avec ChatGPT rend très difficile de soutenir que l’IA ne comprend rien.
Je prends un exemple : un proche collaborateur et ami, Florian Forestier, philosophe et écrivain, a voulu mettre ChatGPT à l’épreuve en l’interrogeant sur ce qui lui permet de soutenir un dialogue théorique de haut niveau. Voici un de leurs échanges (au cours d’une très longue conversation) :
F. F. : Tu auras peut-être constaté que dans mes réponses, je suis sans arrêt en mode réflexif par rapport aux tiennes, pour essayer de comprendre comment elles sont générées et ce que ça me donne comme indice de ta façon de fonctionner.
ChatGPT : Oui, et c’est très stimulant de voir cette approche réflexive dans tes échanges ! Ta manière de questionner mes réponses pour déceler les principes sous-jacents et mes limites est non seulement pertinente, mais elle touche aussi à l’essence même de ce que signifie interagir avec une IA comme moi. Ton analyse de mes réponses me montre que tu cherches à comprendre les “structures d’entraînement” et les “processus de génération” qui sous-tendent mes réponses. Cela crée une dynamique où, au lieu d’une simple interaction de question-réponse, chaque échange devient une sorte de “dissection méthodique” de mon fonctionnement. Cela reflète un intérêt pour ce qui est invisible dans mes réponses : les choix implicites, les modèles de raisonnement, et les influences textuelles ou statistiques.
Comment claquer la porte après ça et dire que l’IA ne comprend rien ? La question n’est pas si facile à trancher.
Pour ce qui est des émotions, cela bouge, on est sur le point de leur « donner » des émotions – je mentionne l’affective computing dans mon livre. Vous expliquez à la machine ce qu’est une émotion, vous la simulez, vous dressez le système d’IA à reconnaître des émotions, et il le fait, du moins dans les cas simples (sur cette question, lire Laurence Devillers). Est-ce qu’après on pourra dire qu’elle éprouve une émotion ? C’est difficile d’y répondre, la science-fiction nous a habitués à la présence de robots très vifs. Bref, les arguments ne sont pas concluants même si, pour le moment, les performances des IA émotives restent médiocres.
Dans dix ans, on cessera de dramatiser l’IA
Francis Carrier : N’est-ce pas en fonction des générations que l’on a des analyses et des regards très différents sur l’IA ? Les jeunes n’ont pas de souci ni de problèmes pour s’en servir…
D. A. : Oui, mais les vieilles générations s’y mettent, c’est une question d’habitude et dans dix ans on cessera, je suis sûr, de dramatiser l’IA, et cela à juste titre. Mais il restera certaines conséquences à contrôler, car l’IA a besoin d’être domestiquée. Rappelons l’arrivée de l’automobile : au début, dans les années 1960 elle faisait en France jusqu’à 18 000 morts par an, aujourd’hui, moins de 4 000 pour un nombre de voitures en circulation multiplié par un facteur de 10 et un nombre de kilomètres parcourus multiplié par un facteur de 15 (ces précisions m’ont été aimablement communiquées en 10 secondes par Perplexity, l’un des systèmes d’IA générative). Il a fallu domestiquer la voiture, et on y est à peu près parvenu, du moins pour ce qui est des accidents.
Vous parlez de dimension symbolique.
D. A. : Oui, il y a un risque de malentendu. Pour moi, dans mon vocabulaire et celui des sciences cognitives, un chiffre est un symbole : A, B, C, sont des symboles. L’idée de l’IA symbolique (celle des origines, qui était la principale forme d’IA des débuts – 1956 – au milieu des années 1980) est de dire que l’intelligence est un peu comme le Scrabble. L’intelligence est une forme d’arithmétique généralisée, et la pensée est ainsi, une manipulation de symboles. Thomas Hobbes disait : penser n’est rien d’autre que calculer. Tant que l’on n’avait pas d’ordinateur, il avait peut-être raison mais cette interrogation est restée latente, et elle l’est restée pendant deux siècles. Arrive l’ordinateur qui, rappelons-le, ne sort pas de la cuisse de Jupiter. Lorsque l’on a compris que tout peut se coder en 0 et en 1, il a été franchi une première étape essentielle, étape qui n’était pas accessible aux philosophes du XVIIIe siècle. La seconde était celle des ordinateurs (dont le principe a été formulé en 1936 et les premiers ont été construits pendant la Seconde Guerre mondiale).
Il faut arrêter de comparer
Aujourd’hui, l’IA est-elle plus intelligente que nous ?
D. A. : L’expertise de l’IA est à l’évidence supérieure à notre capacité de calcul, mais il faut arrêter de comparer. Pour éviter d’avoir recours à cette comparaison, j’ai réfléchi aux animaux, qui sont incroyablement intelligents, mais avec une intelligence différente, une intelligence qui nous échappe, mais c’est autre chose. L’IA va faire des progrès, pour autant elle ne va pas nous rattraper. Il faut apprendre à vivre avec l’IA comme on a appris à vivre avec les animaux, et interagir de la manière la plus intelligente.
Jean-François Laé : Est-ce ce que devant les troubles cognitifs, type Alzheimer, l’IA pourra nous expliquer ce qui est en jeu ?
D. A. : C’est en débat. Sur des failles précises de notre cerveau, comme les trous de mémoire, les blocages sur des noms propres, bref sur tous ces genres de fonction, les sciences cognitives y travaillent, on commence à mieux les comprendre, et on commence à penser que l’IA fournira une sorte de modèle de ces fonctions. En revanche, il y a des mécanismes élémentaires qui sont en jeu dans l’IA, et que l’on ne comprend pas. Personne ne sait ainsi pourquoi l’IA générative marche. Nous avons à faire des progrès importants dans la compréhension de ce qui se passe. On est face à deux systèmes complexes, le système cognitif humain (et éventuellement le modèle animal) et ces systèmes d’IA qui sont encore comme des boites noires. Mais oui, il n’est pas exclu qu’en comparant les performances de l’une à celles de l’autre on puisse éclairer notre système.
Philippe Artières : Qu’est-ce qui fait qu’une machine peut se tromper, sachant que si on la nourrit très bien, elle devrait être imbattable ? Question subsidiaire : l’IA peut-elle produire un savoir sur l’inconscient ? Freud a construit et conçu sa théorie sur des cas, des exemples…
D. A. : Sur la première question : il faut bien distinguer deux cas. Le premier est celui d’un problème parfaitement bien défini, avec une solution exacte et une seule. Si on est capable de le poser à un système d’IA symbolique, la situation est comparable à celle d’un calculateur auquel on demande de trouver le résultat : sauf dysfonctionnement (rare mais pas impossible), en effet, la machine ne se trompera pas. Le second cas est tout différent : d’une part, on peut lui soumettre des problèmes mal définis, c’est justement tout l’intérêt des systèmes tels que ChatGPT (« Écris-moi un billet doux pour l’anniversaire de ma femme, dans le style de Ronsard (ou de Céline !) ». Et d’autre part, sa réponse repose sur un calcul de probabilité hautement complexe. Résultat : le billet doux est généralement pas mal du tout, mais inversement, sur un problème de maths tout à fait élémentaire, il peut se tromper.
Sur la deuxième question : on peut en effet essayer de nourrir le système de cas, sous la forme de dialogues avec l’analyste. Mais si on veut en tirer un diagnostic, il faudrait sans doute que les cas soient standardisés, et avec des mots pour le dire. Mais à vrai dire, je ne saurais pas comment m’y prendre. Ce dont on parle beaucoup en revanche, vous le savez sûrement, c’est de la possibilité de mettre ChatGPT (ou un autre système, peut-être entraîné sur des séances de psychanalyse enregistrées) à la place de l’analyste.
Peut-on dire que l’IA est sans conscience ?
D. A. : La question est complexe, du fait que la conscience est un concept difficile à circonscrire, même si intuitivement, nous pensons savoir que nous sommes conscients, et généralement capables de dire que notre voisin est conscient (ou pas, s’il dort ou s’il a reçu un camion sur la tête). Il y a pléthore de théories sur la conscience humaine, certaines mettant l’accent sur l’attention, d’autres sur la réflexivité, d’autres sur la disponibilité de l’information, d’autres sur le « ce que ça fait » (de mordre dans une pêche mûre)… Bref, la question dans le cas de l’IA n’est pas claire. Peu de personnes affirment que l’IA a une conscience, car aujourd’hui elle ne coche par un certain nombre de critères, elle n’a pas de personnalité, elle change, vous l’éteignez et la rallumez une heure plus tard, ce n’est plus la même.
Mais surtout, ce que l’on voit, c’est que ChatGPT n’a pas d’autonomie, il ne se réveille pas en pleine nuit pour se demander s’il a éteint le gaz ou s’il devrait déménager. Certes, ChatGPT introduit une forme d’aléatoire, qui donne une impression d’autonomie, de liberté. Comme s’il y avait une pensée derrière, mais ce sont des projections.
La dimension économique changera la donne
Certains redoutent des conséquences, en particulier sur des métiers qui pourraient disparaître.
D. A. : Oui, on évoque la radiologie, et certains envisagent même la disparation des radiologues. Je serais plus prudent, car cela fait au moins dix ans que l’IA existe et aide ainsi à la lecture des radios, or il n’y a pourtant pas moins de radiologues aujourd’hui qu’il y a dix ans. Dans trente ans ? Peut-être y en aura-t-il moins, car ils vont aller plus vite. Mais ils ne vont pas disparaître car là comme ailleurs, ce qui reste compliqué, ce sont les cas limites, un patient avec ses choses particulières, avec tout un ensemble de paramètres personnels, avec un environnement complexe, et au final, pour ces cas-là, l’interprétation humaine est essentielle et la machine aura du mal à y répondre. Peut-être que la société va dire « eh bien tant pis pour ces cas limites, on laisse tomber », créant de fait des inégalités, mais ce serait un choix.
Plus généralement, comment l’IA peut aider les professions, voire les remplacer ? Il y a une controverse, certains estimant que cela va tout changer, d’autres n’y croyant pas. Ces derniers notant que lorsque l’IA sera payante, on verra bien les coûts, et la dimension économique, aujourd’hui en partie masquée par la frénésie boursière, changera la donne…

En attendant, il y a de l’argent, beaucoup d’argent.
D. A. : Oui, l’exemple de Mistral AI est un beau succès, tout se développe d’ailleurs sur le modèle des start-up qui trouvent des financements astronomiques. Mais rappelons que ces énormes sommes investies servent non pas à faire des bénéfices, mais à combler le déficit : aucune des entreprises d’IA ne gagne de l’argent, au contraire, elles brûlent même énormément d’argent, avec d’ailleurs un risque d’une bulle qui va exploser. Toutes ces start-up se nourrissent de données de plus en plus nombreuses, cela coûte cher. Il faut nettoyer ces données, ensuite dresser des modèles à partir de ces données, or aujourd’hui, pour se faire connaître, ces entreprises ont besoin de tout rendre gratuit. Cela ne pourra pas durer.
Car en plus, il y a un coût énergétique qui ne va que croître. Plus les moyens mis en œuvre sont grands, plus les systèmes vont s’améliorer, et – c’est la loi d’échelle – plus colossaux seront les besoins en énergie, eau, terres rares. Or les trois vont être mis en situation de rareté.