Les sciences cognitives, l’intelligence artificielle et la connaissance de l’esprit

Les sciences cognitives, l’intelligence artificielle et la connaissance de l’esprit

Pierre Wagner

Le traitement de l’information est le paradigme des sciences cognitives. Il trouve son origine dans l’invention des machines informatiques. Sur le modèle du fonctionnement de ces machines, une conception de l’esprit humain est élaborée et, plus généralement, une nouvelle approche des phénomènes de l’esprit, c’est-à-dire un ensemble de méthodes et de concepts dont on espère qu’ils rendront possible une meilleure connaissance de ces phénomènes. Dans cette perspective, ce qui est visé est la constitution d’une science.
Cependant, que le traitement de l’information serve de paradigme ne signifie pas nécessairement que l’on ait en vue le fonctionnement ou la structure des machines elles-mêmes. Les ordinateurs et les systèmes informatiques sont bien souvent très loin des préoccupations de ceux qui s’occupent de sciences cognitives. Les machines et l’intelligence artificielle n’apparaissent donc plus que comme l’une des voies d’accès, parmi d’autres possibles, au domaine des sciences cognitives, celle que l’on appelle parfois « cognitivisme » . Certains pensent cependant, ou ont pu penser dans le passé, que le point de vue des machines et de l’intelligence artificielle avait un privilège particulier, dans la mesure où c’est lui qui permettrait de constituer une véritable science de l’esprit, ou du moins d’en définir les conditions de possibilité. C’est ce point de vue restreint qui est examiné ici, afin de comprendre ce qui a pu apparaître, dans le développement de l’informatique, comme ayant une importance philosophique particulière pour la compréhension de l’esprit ; afin de voir, également, quelles sont les difficultés et les objections que cette approche de l’esprit humain a pu rencontrer. Cela permettra de clarifier la question de savoir ce que les machines informatiques et l’intelligence artificielle sont susceptibles de nous apprendre au sujet de la pensée, ou de l’esprit, et de comprendre quelles sont les conditions qui ont rendu possible la définition d’une approche computationnelle de l’esprit. On s’efforcera de montrer qu’il n’y a pas un point de vue unique, celui de l’intelligence artificielle, mais plusieurs évaluations possibles de l’importance qu’il convient de donner à l’informatique et aux machines, en philosophie, ou pour la constitution d’une science des phénomènes de l’esprit.

Les machines et les thèses de Turing

Il est éclairant de revenir à l’œuvre de Turing, à la fois parce qu’elle est à l’origine de l’intelligence artificielle et du modèle informatique des sciences cognitives (elle introduit plusieurs idées fondatrices), et parce qu’elle s’en distingue, permettant ainsi de mieux comprendre ce qui fait la singularité du cognitivisme. On se contentera cependant, faute de place, de quelques remarques relatives à deux articles de Turing .
Le premier, intitulé « Sur les nombres calculables », est publié en 1936. Il s’agit d’un texte de logique mathématique dans lequel sont définies les fameuses machines de Turing, qui servent alors à résoudre un problème purement logique. De notre point de vue, les idées essentielles de l’article de 1936 sont les suivantes :
1- Turing soutient que pour n’importe quelle procédure effective, c’est-à-dire pour n’importe quel calcul suffisamment bien défini, et qui porte sur des symboles quelconques, il existe une machine de Turing capable d’effectuer ce calcul. Il ne s’agit pas d’une proposition mathématiquement démontrable, mais d’une thèse (dite « thèse de Turing », et qui est équivalente à la « thèse de Church » ) selon laquelle les machines de Turing sont une formalisation adéquate de la notion informelle d’algorithme.
2- Il existe une « machine de Turing universelle », capable de simuler n’importe quelle autre machine de Turing, et donc capable d’effectuer à elle seule n’importe quel calcul.
3- Les machines de Turing sont des machines de papier, des outils logiques, mathématiquement définissables ; mais elles peuvent également être physiquement réalisées. En outre, (mais cela n’apparaît évidemment pas en 1936), les ordinateurs sont capables d’effectuer les calculs qui sont à la portée d’une machine de Turing (les seules limitations concernent des contraintes physiques : la taille de la mémoire, le temps nécessaire à l’exécution du programme). En conséquence, nombre de propriétés des machines de Turing universelles sont directement transposables aux machines réelles que sont les ordinateurs. Et de notre point de vue, la transposition la plus importante concerne la première des thèses fondamentales sur lesquelles repose le cognitivisme, ou philosophie de l’intelligence artificielle, thèse qui trouve son origine dans l’article de 1936 : tout calcul peut être effectué par une machine programmable (abstraction faite des limitations d’espace mémoire et de durée des opérations de calcul).
La seconde de ces thèses fondamentales du cognitivisme est la suivante : les phénomènes de l’esprit, les comportements qui manifestent de l’intelligence ou une forme de pensée, sont explicables par des processus de calcul. Cette seconde thèse présente des variantes possibles. Mais surtout, on aperçoit immédiatement les conséquences qui découlent de l’ensemble des deux thèses :
i) le modèle informatique est le point de vue correct pour comprendre les phénomènes de l’esprit ;
ii) l’intelligence artificielle et la psychologie cognitive ont un objet commun ;
iii) une machine peut penser, etc.
Autant de variantes, plus ou moins fortes (c’est-à-dire : plus ou moins contestables) de l’approche computationnelle des phénomènes de l’esprit.
Une forme particulière de la seconde thèse est abordée par Turing dans un deuxième article intitulé « les ordinateurs et l’intelligence », qui est publié en 1950. Le problème précis qui y est traité peut être formulé de la manière suivante : pourrait-on être amené à dire, au sujet d’une machine, qu’elle pense ? Ce qui est sensiblement différent de la question : des machines peuvent-elles penser ? Turing entend apporter à la première question une réponse positive, mais ne présente aucun argument positif, comme il le reconnaît d’ailleurs lui-même explicitement. Ce qu’il cherche à faire est bien plutôt de réfuter systématiquement toutes les objections que l’on pourrait être tenté de formuler contre cette idée, et de montrer que la possibilité d’une machine pensante n’est pas absurde.
Quelles sont les relations entre l’œuvre de Turing et les (différentes variantes des) thèses du cognitivisme ? Turing développe l’idée d’un rapprochement possible entre le calcul mécanique, le programme d’un ordinateur et la pensée, rapprochement qui fait abstraction de toute référence au corps et au cerveau. En cela, Turing introduit les idées qui seront celles de la philosophie de l’intelligence artificielle. Bien que cela ne soit pas exprimé en ces termes dans les articles de Turing, ces textes inspireront l’idée selon laquelle les phénomènes de l’esprit peuvent être compris ou analysés à partir de la notion de programme, notion qui permet d’établir un lien et un moyen terme entre les calculs mécaniques et les manifestations de la pensée.
Turing introduit donc l’idée fondamentale selon laquelle la pensée est un calcul. Certains diront que cette idée n’est pas nouvelle, qu’elle a déjà été exprimée dans l’histoire de la philosophie, et l’on cite souvent le mot de Hobbes : « Per ratiocinationem autem intelligo computationem » (De corpore) ou « Nous ne devons donc pas penser que le calcul, c’est-à-dire le raisonnement, n’a de place que dans les nombres » (Léviathan, chap. 5). Mais l’idée de Turing est indissociable des machines de Turing, de la thèse de Turing, du jeu de l’imitation qu’il expose dans l’article de 1950, etc. Disons donc qu’il construit une idée directrice : la pensée conçue comme un calcul, et que sa contribution à cette idée porte sur les points suivants :
(i) la formalisation de la notion de calcul par des machines abstraites et l’énoncé de la thèse de Turing ;
(ii) l’idée que les calculateurs ne sont pas purement numériques : les opérations peuvent porter sur des symboles quelconques ;
(iii) l’extension du modèle du calcul à la pensée tout entière.
Turing prépare l’idée d’une intelligence artificielle et d’une psychologie cognitive, mais n’en développe pas encore les thèses. Il n’est pas question, dans ses écrits, d’un fondement possible de la psychologie sur le modèle informatique, ni, a fortiori, des sciences cognitives. En outre, Turing n’affirme jamais qu’une machine peut penser, comme l’atteste son souci d’écarter le point de vue de la conscience et tous les problèmes afférents, ainsi que la forme négative de son argumentation : il s’agit d’écarter les objections afin de rendre concevable l’idée d’une machine pensante, et non d’affirmer qu’une telle machine est possible.
Il faut également souligner le fait que la thèse de Turing est énoncée en 1936, bien avant la construction effective des ordinateurs, et qu’en 1950, rares étaient ceux qui pouvaient comprendre l’avenir des machines, et donc suivre les idées de Turing. On sera ainsi moins disposé à reprocher à Turing ce qui apparaît aujourd’hui comme des erreurs, dans le texte de 1950, lorsqu’il est question de ce que les machines seront capables de faire à la fin du siècle. Turing semble avoir largement sous-estimé la difficulté qu’il peut y avoir à exprimer du sens en utilisant des moyens purement syntaxiques.

L’intelligence artificielle et les machines réelles

Turing meurt en 1954, deux ans avant l’acte de naissance de l’intelligence artificielle, en 1956 . A cette date, on commence à concevoir des programmes dont la vocation explicite est de rendre les machines intelligentes. L’expression « intelligence artificielle » est à l’image des espoirs irréalistes nourris par les fondateurs de ce domaine de recherche. C’est un programme de travail qui est alors énoncé, et accompagné de prévisions parfois fantaisistes sur les progrès à venir des machines informatiques. Le désir d’obtenir les fonds nécessaires à la recherche, puis à la survie des équipes engagées dans ces recherches, n’est peut-être pas étranger aux exagérations qui furent dénoncées par la suite, notamment par Hubert Dreyfus, dans Intelligence artificielle. Mythes et limites . Or il est d’autant plus important de préciser ce que l’on peut espérer d’une machine et ce qui, au contraire, semble être hors de sa portée, que le développement de l’informatique et de l’intelligence artificielle est à l’origine de thèses relatives à la possibilité d’une connaissance des phénomènes de l’esprit. Pour évaluer les conceptions computationnelles de l’esprit, la connaissance des progrès techniques et théoriques en informatique, ainsi que celle des performances réelles des machines, sont des conditions nécessaires, bien qu’elles soient loin d’être suffisantes. Essayons donc de comprendre ce qui a rendu de tels progrès possibles, ainsi que ce qui les a limités.
Les machines de Turing font abstraction de la complexité des calculs, c’est-à-dire, au sens informatique du terme, de l’espace mémoire indispensable et du temps nécessaire pour effectuer un calcul. Mais lorsqu’il s’agit de construire une machine capable de manifester un comportement intelligent, ces contraintes ne peuvent plus être négligées. On ne peut plus ignorer que certains exemples de calculs conduisant en principe à une solution requerraient un temps de travail de plusieurs milliers d’années, même si l’on utilisait la machine la plus rapide que l’on puisse concevoir. Car si l’on imagine avec Dennett un être qui aurait un comportement, une pensée, un discours comparables à ceux d’un être humain, à la seule différence que le débit vocal, le cours de la pensée et les gestes étaient dix mille fois plus lents, le considérerions-nous comme un être intelligent ? Ces remarques expliquent en partie pourquoi le développement de l’intelligence artificielle et des conceptions de l’esprit qui en dépendent est lié aux progrès théoriques et techniques de l’informatique. Au cours des années cinquante, les machines atteignent des capacités de calcul et laissent prévoir des performances techniques qui, aux yeux de certains, mettent à portée de main la construction de machines intelligentes. Les machines effectuent les calculs de plus en plus rapidement ; la taille de l’espace mémoire disponible est de plus en plus grande ; les machines sont de plus en plus fiables, les composants des machines sont miniaturisés. Et le développement ne concerne pas seulement la partie matérielle des machines, mais aussi la partie logicielle (les langages et les programmes). Entre le langage machine (de bas niveau) et les langages de niveau élevé (langages formels beaucoup plus proches du langage naturel que le langage machine) se constitue une hiérarchie de langages, tous équivalents du point de vue des possibilités de calcul (ils sont tous l’équivalent d’une machine de Turing universelle). On invente des langages qui facilitent l’intégration des connaissances dans la machine, ainsi que l’accès à ces connaissances, des logiques adaptées aux problèmes d’intelligence artificielle, ainsi que les systèmes experts, systèmes à bases de connaissances. A cela, il faudrait ajouter les nombreux progrès théoriques accomplis dans la maîtrise des processus de traitement de l’information.
L’ensemble de ces progrès rend effectivement possible la construction de machines capables d’effectuer de très nombreuses tâches qui requéraient naguère l’intelligence d’un être humain. Pour autant, on ne réussit pas à formaliser et programmer toutes les capacités humaines. Certaines formes de manifestations de la pensée ou de l’intelligence résistent particulièrement bien aux efforts qui sont fournis pour les conférer à des machines. Or il est intéressant de savoir quelles sont précisément les formes de l’intelligence humaine qui résistent, et quelles sont celles qui cèdent aux efforts de programmation. Peut-on caractériser cette différence, et l’expliquer ?

L’intelligence générale et les connaissances implicites

L’un des tout premiers programmes d’intelligence artificielle s’appelait le General Problem Solver. Il date de l’époque où l’on espérait encore construire des machines qui posséderaient une forme « d’intelligence générale ». L’idée fausse que l’on pouvait avoir était que si des machines étaient capables de résoudre des problèmes généraux, elles pourraient, a fortiori, résoudre tous les problèmes particuliers qui pourraient se présenter. Il semble bien que l’intelligence artificielle ait vécu une partie de son histoire dans le mythe de l’« intelligence générale », et que le projet des pères fondateurs de la discipline (Mc Carthy, Newell, Simon, etc.) ait été de programmer une telle forme d’intelligence. L’une des manifestations les plus évidentes de cette intelligence générale était censée être la capacité à démontrer des théorèmes. Et c’est effectivement ce que le General Problem Solver était capable de faire. Or il semble qu’on ait confondu, dans les premiers temps, « intelligence générale » et « intelligence appliquée à des problèmes abstraits ». Paradoxalement, les plus grandes difficultés de programmation n’apparaissent pas lorsque l’on considère des problèmes abstraits, mais lorsque la machine doit s’affronter à des problèmes qui se posent dans des situations très concrètes. Les principales difficultés qu’ont pu rencontrer les partisans de l’intelligence artificielle tiennent précisément à la singularité de ces situations. Les informaticiens avaient, en effet, sous-estimé l’importance et le nombre des connaissances — implicites pour la plupart d’entre elles — dont nous avons besoin pour résoudre un problème dans une situation concrète.
Dennett exprime cette difficulté de la manière suivante : « Comment puis-je faire pour me préparer un casse-croûte à minuit ? Qu’y a-t-il de plus simple ? Je suppose qu’il reste quelques tranches de dinde et de la mayonnaise au réfrigérateur, du pain dans le sac à pain, — et une bouteille de bière, également dans le réfrigérateur. Je me rends compte que je peux rassembler tous ces éléments, et je prépare un plan tout simplement enfantin : je vérifie ce qu’il y a dans le réfrigérateur, je sors les ustensiles dont j’ai besoin, et je me prépare un sandwich, arrosé à la bière. J’ai besoin d’un couteau, d’une assiette, et d’un verre pour la bière. Je mets immédiatement mon plan à exécution, et tout se passe bien. La bonne affaire !
Mais bien sûr, je n’aurais pas pu faire tout cela sans un bon nombre de connaissances — au sujet du beurre, de la manière dont on étale la mayonnaise, dont on ouvre un réfrigérateur, au sujet des frottements et de l’inertie qui vont maintenir la dinde entre les tranches de pain, et du pain sur l’assiette lorsque je porte l’assiette au-dessus de la table, à côté de mon siège confortable. J’ai aussi besoin de savoir comment faire passer la bière de la bouteille dans le verre » .
L’une des principales difficultés que l’intelligence artificielle rencontre est celle de l’intégration, de la représentation et de l’accès à l’ensemble des innombrables connaissances dont nous avons besoin chaque fois que nous résolvons un problème apparemment trivial de la vie courante. Dans le cas du jeu d’échecs, ou de la démonstration de théorèmes, on se trouve dans des situations abstraites, indépendantes des circonstances et de notre situation dans le monde. Cela ne signifie pas que la programmation de ces problèmes abstraits soit aisée, mais qu’elle ne rencontre pas le même type de difficultés. On comprend mieux, alors, pourquoi les tâches qui nous semblent les plus simples sont très difficiles à programmer : traduire un texte d’une langue naturelle dans une autre, décrire une photographie, reconnaître un visage sur une image, etc. Paradoxalement, des problèmes qui nous semblent plus difficiles à résoudre (démontrer des théorèmes, jouer aux échecs, etc.) sont, par comparaison, moins difficiles à programmer.
Souvent, les programmes d’intelligence artificielle atteignent des performances tout à fait remarquables lorsque les problèmes qu’ils doivent pouvoir résoudre sont bien circonscrits, et limités à des situations particulières. Les difficultés qui semblent rédhibitoires sont celles qui apparaissent lorsque l’on passe d’un environnement très localisé et simplifié à un environnement réel et plus large, d’un cas d’école à une situation réelle. Lorsque le cadre dans lequel la machine évolue n’est pas précisément circonscrit, elle doit avoir accès à un nombre arbitrairement élevé de connaissances de n’importe quel aspect de la situation dans laquelle elle se trouve ; intégrer tous les détails de l’environnement physique, pour ne rien dire, lorsque la machine joue contre un être humain, de l’environnement culturel, affectif, social, etc. D’où les problèmes majeurs de l’intelligence artificielle : comment représenter les connaissances dans la machine ? Comment accéder rapidement aux connaissances dont elle a besoin, à chaque instant, dans une base de connaissances de très grande taille ? Comment représenter les connaissances implicites ? Par un système déductif ou par une énumération explicite ? Ou encore : comment donner à la machine un savoir-faire, par exemple celui d’un expert ? Pour prendre un exemple précis : peut-on espérer formaliser et programmer les connaissances nécessaires au diagnostic médical ? On sait qu’il existe des machines ayant cette compétence, mais uniquement dans des domaines particuliers et bien circonscrits de la médecine.
On voit ainsi se dessiner quelques-unes des objections qui sont opposées à ceux qui prétendent élaborer une conception de l’esprit humain sur le modèle informatique de l’intelligence artificielle. L’une des objections majeures étant la suivante : l’esprit humain ne fonctionne pas de cette manière. Si l’on supposait que l’esprit humain résout les problèmes qu’il rencontre par un calcul effectué sur des informations représentées et stockées en mémoire, il faudrait des capacités de stockage de l’information de taille astronomique, et des processus de calcul ou de traitement de l’information dont la complexité serait rédhibitoire. L’objection revient à dire : il est illusoire de chercher à représenter la situation de l’être humain dans le monde par une représentation interne, formalisée et codée, de ce monde. Or, c’est bien ce que semble présupposer la manière dont l’intelligence artificielle pose le problème.
On voit aussi apparaître l’idée que l’intelligence artificielle n’est pas seulement une discipline technique, un secteur un peu particulier de l’informatique. Elle est également à l’origine d’une certaine conception de l’esprit humain et d’une manière bien particulière d’aborder le problème de la connaissance des phénomènes de l’esprit. Avant d’examiner les éventuelles difficultés que pourrait rencontrer une telle conception de l’esprit, ignorons provisoirement les objections que nous avons déjà évoquées afin de comprendre ce qui fait son intérêt.

Le niveau cognitif et l’explication en psychologie

La principale force de séduction du modèle informatique est qu’il semble pouvoir résoudre un problème crucial pour la possibilité de fonder une psychologie scientifique : celui du rapport entre les états physiques et les états mentaux. Cette difficulté se présente sous différentes formes. Par exemple, d’un point de vue naïf, non critique, celui de ce qu’on appelle la psychologie populaire, nous nous représentons des états physiques du corps, ainsi que des états mentaux, dont le langage et l’expérience nous donnent maints exemples ; nous nous représentons également une relation entre les deux (comme lorsque je veux lever le bras et que mon bras se lève, ou lorsque la plume effleure ma lèvre et que je ressens un chatouillement désagréable), mais il est difficile de comprendre quelles sont les relations qu’entretiennent états physiques et états mentaux. Le problème peut se poser aussi en termes de rapports entre différentes sciences ou différentes approches des phénomènes. Ainsi, dans le domaine de la psychopathologie, on peut distinguer les approches clinique, neurobiologique, et psychologique. Ici encore, il existe un lien entre ces différents points de vue (ne serait-ce que l’existence d’un patient), mais il est difficile de comprendre quelles sont les relations qui existent entre eux et comment ils peuvent contribuer à la connaissance d’un même objet.
Or, le modèle informatique semble pouvoir offrir une solution au problème des relations entre le physique et le mental. Pour le comprendre, considérons une machine capable d’effectuer une tâche qui requérait, avant son invention (c’est-à-dire avant l’écriture d’un programme adéquat), l’intelligence et la pensée d’un être humain (effectuer un diagnostic médical, démontrer un théorème mathématique, jouer aux échecs, etc.). On pourra considérer le travail accompli par cette machine d’un double point de vue : d’un point de vue intentionnel, en faisant comme si on lui attribuait des états mentaux (elle cherche une solution, elle prend en considération ce que lui dit le patient, son jeu est intelligent, elle décide de…) ; d’un point de vue mécanique, en décrivant les opérations élémentaires de calcul qui sont effectuées dans la machine en suivant le programme (ou, à la limite, en décrivant les transformations physiques de la machine au cours du processus de calcul). L’intérêt majeur de ce modèle est la possibilité de décrire un même phénomène de plusieurs points de vue, ou à différents niveaux. On distinguera ici trois niveaux :
(i) le niveau intentionnel, ou celui du comportement rationnel extérieurement observable ;
(ii) le niveau du programme, ou celui du traitement de l’information ;
(iii) le niveau physique, ou celui de la machine elle-même.
Ainsi, la compréhension de ce que la machine fait peut prendre au moins trois formes. Le rapport entre ces niveaux de description n’a rien de mystérieux ou d’énigmatique, même si, en pratique, l’explication précise de ce rapport n’est pas toujours possible. On voit bien, maintenant, qu’il est tentant de concevoir une analogie entre la machine (surtout lorsqu’elle effectue une tâche qui requiert de l’intelligence) et l’être humain. Cette analogie revient à postuler un niveau de description des comportements que l’on peut appeler le niveau cognitif, qui correspondrait au niveau du traitement de l’information ou du programme, dans la machine. Conçu comme une sorte de moyen terme, il permettrait ainsi d’établir un lien intelligible entre les états mentaux et les états physiques, ou entre l’approche psychologique et l’approche neurobiologique.
Dans le cas de la machine, nous sommes assurés que la description intentionnelle de son comportement n’implique le postulat d’aucun état mental irréductible à des opérations de calcul et, en définitive, à des processus physiques, précisément parce qu’il s’agit d’une machine. L’idée principale du cognitivisme (idée qui est aussi la plus contestable) pose qu’une telle réduction est également possible dans le cas d’un être humain : la description intentionnelle du comportement doit pouvoir être réduite à une description en termes de traitement de l’information (ou de programme informatique), qui peut être elle-même réduite à des calculs élémentaires qu’une machine peut effectuer. Ainsi se dessine l’idée d’un programme pour le cognitivisme ou la psychologie cognitive : réduire une capacité humaine (décrite en termes intentionnels) à des capacités plus élémentaires (qui peuvent éventuellement, eux aussi, envelopper une description intentionnelle) et poursuivre cette analyse jusqu’à atteindre des capacités que l’on puisse exprimer en termes de traitement de l’information, ou d’un programme qu’une machine sera capable d’exécuter.
Considérons l’exemple suivant : une personne utilise un logiciel de diagnostic médical. La machine pose des questions, le patient répond, fait des remarques sur son état, etc. Le dialogue se déroule à un niveau élevé, celui de la conversation courante. Mais ce dialogue est rendu possible, dans la machine, par les états physiques des composants, qui permettent d’effectuer, à très grande vitesse, une multitude d’opérations élémentaires qui font appel à de nombreuses connaissances codées et conservées en mémoire. De manière similaire, du côté de l’être humain, le dialogue est rendu possible par les états physiques du corps et, en particulier, par les innombrables processus microbiologiques qui se déroulent dans le cerveau. Or, il existe, dans la machine, un niveau de description intermédiaire : celui du programme, qui permet de comprendre son fonctionnement. Il explique à la fois les effets de haut niveau, aperçus au cours du dialogue, et les calculs élémentaires effectués au niveau physique (remarquons bien que le programme permet d’expliquer les processus physiques, mais qu’il serait absurde de dire qu’il en est la cause : il s’agit seulement d’un niveau de description). Le cognitivisme postule, chez l’être humain, un niveau cognitif correspondant, subpersonnel, qui permettrait notamment d’expliquer les effets de haut niveau, c’est-à-dire le comportement et les capacités mentales.

Quelques critiques du cognitivisme

La question est de savoir si ce postulat séduisant est légitime. On conçoit que les progrès empiriques de l’intelligence artificielle et de la psychologie cognitive soient essentiels pour la réponse à cette question : dans ce qui précède, nous avons considéré certaines des objections qui sont effectivement opposées au cognitivisme de ce point de vue. Ces critiques, exprimées notamment par Hubert Dreyfus , sont fondées sur une analyse précise de l’histoire de l’intelligence artificielle. Les difficultés empiriques que l’intelligence artificielle a rencontrées dans son développement historique montrent, selon Dreyfus, que le modèle computationnel ne donne pas une image adéquate du fonctionnement du psychisme. La nécessité d’intégrer dans la machine une connaissance précise de multiples aspects de l’environnement physique, culturel, social, etc. et les difficultés apparemment rédhibitoires qui se présentent lorsque l’on tente d’apporter une solution informatique à ce problème, semblent indiquer que ce n’est tout simplement pas de cette façon qu’un être humain résout les problèmes qu’il rencontre dans les situations concrètes de sa vie. Les manifestations de sa pensée et de son intelligence devraient être expliquées d’une autre manière. Ou encore : le modèle informatique et les thèses du cognitivisme n’offriraient pas une voie d’accès satisfaisante à la connaissance du psychisme. A ces objections, le cognitivisme ne manque pas de répondre que les difficultés rencontrées dans le passé pourront certainement trouver, dans le futur, une solution. Mais Dreyfus estime que les objections qu’il présente ont valeur de réfutation. Certains placent leur espoir de trouver une solution dans une autre forme de calcul et de représentation des connaissances : le connexionnisme .
Il existe d’autres formes de critique des thèses du cognitivisme, notamment celle que présente Searle dans une expérience de pensée : celle de la chambre chinoise . Searle appelle intelligence artificielle forte l’idée selon laquelle l’esprit est au corps ce que le programme est à la machine physique, et il estime qu’il existe des raisons de principe qui permettent de réfuter cette thèse. L’essentiel de son argumentation peut être résumé ainsi :
(i) les programmes d’ordinateur sont formels (c’est-à-dire fondés sur la seule syntaxe) ;
(ii) les pensées humaines ont un contenu mental (sémantique) ;
(iii) la sémantique n’est pas réductible à la syntaxe, et la syntaxe ne donne pas accès à la sémantique.
Donc les programmes ne suffisent pas à produire la pensée, et la formation des phénomènes mentaux dans le cerveau ne résulte pas seulement de l’exécution d’un programme informatique .
Searle estime donc qu’il y a dans les phénomènes mentaux une dimension intentionnelle irréductible à un traitement formel d’informations codées. Quand bien même un ordinateur pourrait passer le test de Turing, on ne pourrait donc pas dire qu’il pense, mais seulement qu’il réussit à simuler. Ce que Searle juge inacceptable dans la thèse du cognitivisme, c’est l’idée qu’une connaissance de l’esprit humain pourrait, en principe, faire entièrement abstraction du cerveau. Il réfute en outre l’idée selon laquelle la matière dont est constitué un être pensant ne joue aucun rôle essentiel sur sa capacité de penser.
Il convient donc de distinguer deux types d’arguments et, corrélativement, deux types d’objections, qui sont d’ailleurs indissociables. Le premier argument concerne les performances des machines ; l’autre, ce qu’on peut conclure de leurs performances, réelles ou supposées. Les critiques de Dreyfus portent plutôt sur le premier point, et celles de Searle sur le second. Mais les unes comme les autres sont relatives à la possibilité d’une psychologie cognitive inspirée du cognitivisme, c’est-à-dire d’une conception de l’esprit fondée sur les travaux menés en intelligence artificielle, et qui n’est pas la seule conception reconnue au sein des sciences cognitives. Pour le comprendre, il convient d’en revenir à l’idée d’un niveau de description intermédiaire entre le niveau physique et le niveau intentionnel, ou entre l’approche neurobiologique et l’approche psychologique. Il est vraisemblable que, si le niveau du programme était suffisant pour expliquer le comportement, l’analyse des processus au niveau physique perdrait de son importance. Pour un chercheur en intelligence artificielle, si la question de savoir sur quelle machine son programme sera mis en œuvre n’est pas absolument accessoire, le problème majeur n’est pas là. En généralisant le cas de la machine à celui de l’être intelligent quelconque, le cognitivisme est conduit à privilégier l’étude des relations entre, d’une part, un comportement ou une capacité que l’on cherche à expliquer et, d’autre part, le programme qui permettra de conférer ce comportement à la machine, ou qui lui permettra de manifester un comportement intelligent. Or, en ce qui concerne l’application de ce modèle au cas humain, cela signifie que l’étude du support physique et biologique du programme (le cerveau, l’appareil nerveux, le corps,…) n’est pas l’essentiel. Il pourrait même ne pas être indispensable pour l’explication des comportements et des capacités mentales. C’est cette conception étroite que l’on appelle, au sens strict, « cognitivisme ». De ce point de vue, le niveau cognitif est celui du programme. Il est moins un moyen terme entre le physique et le mental qu’un niveau fondamental d’explication.
Cette conception bien particulière de l’approche cognitive n’est cependant pas la seule. On conçoit aisément que, dans le domaine de la psychopathologie, par exemple, où les acquis de la neurobiologie et de la psychanalyse sont indiscutables, l’intérêt majeur de la perspective cognitive soit plutôt de rendre envisageable « l’articulation de données psychologiques élémentaires avec la clinique ou avec la neurobiologie » . Nicolas Georgieff analyse, dans le cas particulier de la schizophrénie, la possibilité, non d’une synthèse, qui reste illusoire, mais d’une mise en rapport des perspectives clinique, psychanalytique, neurologique et cognitive. Dans ce cas, l’approche cognitive joue bien le rôle d’un moyen terme, original et distinct des deux extrêmes, mais qui rend possible leur mise en relation : « Les recherches cognitives ont pour objectif de décomposer les symptômes en un ensemble de faits cognitifs élémentaires, mis en évidence par des études expérimentales, et susceptibles d’être mis en rapport avec le fonctionnement cérébral par la neuropsychologie cognitive » . Ici, le modèle de la machine n’est pas pris au pied de la lettre et l’on ne suit pas scrupuleusement les méthodes de l’intelligence artificielle. Cet exemple montre bien, s’il était besoin, qu’il convient de distinguer soigneusement le cognitivisme des sciences cognitives. Ces dernières s’accordent à reconnaître un niveau dit « cognitif » de description, d’analyse ou d’explication des phénomènes, distinct des niveaux propres à la physique, la biologie ou la psychologie, et qui s’inspire du modèle informatique. Mais tous ceux qui travaillent dans la mouvance de ces sciences naissantes sont loin de s’accorder sur l’importance qu’il convient de donner aux méthodes propres à l’intelligence artificielle et sur la définition précise de ce niveau cognitif.

L’idée d’une philosophie mécaniste de l’esprit

On appelle parfois « mécanisme contemporain » une conception philosophique de l’esprit qui s’inspire du modèle informatique. On suggère ainsi une analogie avec le mécanisme de l’époque classique, qui concernait, dans le cas de Descartes, non les phénomènes de l’esprit, mais ceux de la nature et du vivant. Quels sont les termes de cette analogie ? Ici et là, c’est la machine qui sert de modèle explicatif : aux animaux-machines et aux explications des phénomènes par raisons mécaniques correspondent la pensée des machines et l’explication des phénomènes de l’esprit par raisons cognitives. Ici et là, on trouve une forme de critique des qualités : à la réduction des qualités sensibles aux principes premiers de la philosophie mécaniste classique — figure, grandeur et mouvement — correspond la réduction analytique des comportements et des capacités mentales à des processus subpersonnels de traitement de l’information et à des programmes. Ici et là, enfin, une conception générale des choses (ici la nature, et là l’esprit) doit rendre possible une connaissance scientifique des phénomènes : à la mécanique, science mathématisée du mouvement, fondée par Galilée puis complétée par les mécaniciens de l’âge classique devrait correspondre une science de l’esprit. D’où l’appellation commune de « mécanisme ». Mais le dernier terme de l’analogie nous fait comprendre que celle-ci n’est pas tout à fait neutre. D’aucuns diront même qu’elle est mise au service d’une idéologie, puisque rien ne garantit, aujourd’hui, que les sciences cognitives sont l’origine d’une science future des phénomènes de l’esprit. Quant à ceux qui estiment que l’analogie est légitime, ils ne peuvent ignorer que, si le mécanisme cartésien à bien rendu possible une science mathématisée du mouvement, la mécanique n’a pu trouver le chemin de la science qu’en renonçant aux explications de la philosophie mécaniste de Descartes. Il est cependant difficile de savoir ce qu’il faudrait en conclure exactement pour le mécanisme contemporain, à quel renoncement cela pourrait correspondre, tant l’analogie devient alors hasardeuse.
Les sciences cognitive pourraient, par exemple, être conduites à renoncer au cognitivisme. C’est le modèle informatique des ordinateurs qui est à l’origine de l’approche cognitive des phénomènes de l’esprit, comprise comme un intermédiaire entre les points de vue physique ou neurobiologique, d’une part, psychologique ou intentionnel, d’autre part. Pourtant, l’intelligence artificielle n’est pas au centre du cercle des sciences cognitives : elle n’est que l’une des orientations possibles de l’approche cognitive du mental. Si la possibilité de programmer les capacités de l’esprit reste un horizon théorique qui oriente les différentes sciences de la cognition, cette idée directrice ne conduit pas nécessairement à concevoir le travail du psychologue comme étant comparable à celui de l’informaticien qui écrit des programmes. Parmi l’ensemble des réflexions et des critiques qui concernent les sciences cognitives, il convient donc de distinguer celles qui portent spécifiquement sur le cognitivisme ou sur l’idée d’un rapprochement de la psychologie et de l’intelligence artificielle. Par conséquent, rien n’empêche de poursuivre des recherches en sciences cognitives tout en renonçant au cognitivisme stricto sensu . Deux questions peuvent alors être posées au sujet des machines informatiques. La première concerne la possibilité d’une science des phénomènes de l’esprit : la psychologie cognitive doit-elle être conçue à partir d’un modèle de la programmation des ordinateurs ou faut-il au contraire renoncer à ce modèle et donner une signification différente à l’approche cognitive du mental ? Ce problème est relatif à la possibilité de définir une conception philosophique de l’esprit capable d’unifier les différentes sciences de la cognition. La seconde question, très différente, porte sur l’intérêt philosophique des machines informatiques. Celui-ci est rapporté, le plus souvent, à la possibilité d’une science des phénomènes de l’esprit selon laquelle la relation de l’esprit au corps se comprend à partir des rapports qui existent entre un programme et un ordinateur. Cependant, si l’idée d’une psychologie cognitive devait renoncer au modèle de la programmation des machines réelles, l’intérêt d’une réflexion philosophique sur les machines informatiques ne serait pas réduit à néant. En effet, les capacités des machines soulèvent par elles-mêmes des problèmes qui méritent d’être considérés par le philosophe. Cette réflexion peut alors prendre un autre sens, si elle est orientée par la problématique d’une philosophie des machines informatiques .