Première publication, avril 2007 (révisée août 2015)
A l’origine, le fonctionnalisme fut formulé par Hilary Putnam en termes de « machines de Turing » – sorte d’ordinateur caractérisé abstraitement par le logicien Alan Turing.
Ce fonctionnalisme de machine présentait le travail de l’esprit en des termes identiques à celui que pourrait effectuer un calculateur. Composé d’un ruban divisé en cases, d’une tête de lecture/écriture, d’un ensemble fini d’états internes et d’un alphabet, une machine de Turing peut être pensée comme recevant des stimuli et qui, en réponse, émet un comportement spécifique. Ainsi, un certain fonctionnalisme soutient que nous pouvons penser l’esprit comme une machine de Turing. L’idée centrale est que la possession du mental pour quelque chose, c’est-à-dire le fait de posséder une psychologie, consiste à être une machine de Turing physiquement réalisée possédant des types d’états mentaux identifiés, dans la machine, par ses états internes.
Dans un article célèbre, John Searle[1] a construit une expérience de pensée pour montrer comment le mental ne peut pas être équivalent à un programme d’ordinateur, aussi puissant et complexe soit-il.
Il nous demande d’imaginer une personne (Searle lui-même) enfermée dans une chambre close et qui ne possède qu’une seule petite fenêtre permettant de faire passer des papiers dans un sens et dans un autre. De l’extérieur on glisse à Searle des papiers sur lesquels sont inscrits des suites de symboles incompréhensibles. Equipé d’un livre de règles (dans la langue de Searle) qui lui explique comment on peut apparier les symboles qui ne sont identifiés que par leurs formes, Searle se met à manipuler ce qui n’est pour lui qu’un ensemble de griffonnages.
Ces suites de symboles sont en fait des expressions chinoises, et les règles de transformation forment un système purement formel dans le sens ou leurs applications dépendent seulement de la forme des symboles impliqués et non de leur signification. L’activité de l’homme enfermé dans la « chambre chinoise » consiste alors à identifier, apprécier, comparer des figures et produire, à son tour, des réponses appropriées et bien formées. Il doit ainsi, après avoir reçu telle entrée, « calculer » la sortie, exactement comme le ferait un ordinateur.
Dans la mesure où les réponses que fournit Searle sont pertinentes, du point de vue extérieur, ce que produit la chambre est semblable à ce que produirait un véritable locuteur chinois enfermé dans cette même chambre. Cependant, Searle ne parle ni ne comprend le chinois, peut-être ignore-t-il que les signes représentés sur les papiers sont du chinois. Ce qui se passe à l’intérieur de la chambre est une simple manipulation de symboles sur la base de leurs formes ou de la syntaxe, mais sans la compréhension qui, elle, implique la sémantique, c’est-à-dire, le savoir de ce que ces symboles représentent ou signifient. Ainsi, bien que les entrées/sorties soient équivalentes à ce que produiraient des locuteurs chinois patentés, Searle ne comprend pas le chinois.
Pour Searle ce qui se passe à l’intérieur de la chambre est donc équivalent à ce qui se passe à l’intérieur d’un ordinateur : une manipulation de règles gouvernant des symboles basés sur leurs formes. Il n’y a pas plus de compréhension du chinois dans un ordinateur que dans la chambre de Searle. La conclusion de Searle est que le mental est plus qu’un ensemble de règles syntactiques manipulant des symboles.
Searle construisit son argument contre l’intelligence artificielle (I.A) dans sa version « forte ». Pour cette version de l’I.A, l’ordinateur n’est pas un simple outil. En effet, une fois programmé de façon appropriée, il est un esprit, dans le sens où des ordinateurs ayant un bon programme, on peut dire littéralement qu’ils comprennent et possèdent des états cognitifs. Pour L’I.A dans sa version faible, en revanche, les ordinateurs simulent seulement les pensées. Leur compréhension n’est pas réelle. La simulation peut alors seulement être utile pour étudier l’esprit.
Ce que veut donc nous montrer Searle par son expérience de pensée, c’est qu’un programme, aussi complexe soit-il, ne sera jamais qu’un ensemble syntactique qui ne pourra générer aucune signification. La computation est un système syntactique. Un programme informatique ne génère que des suites de symboles binaires, des suites de 0 et de 1 qui ne signifient rien. Les processus computationnels répondent seulement à des formes de symboles, leurs significations sont, du point de vue informatique, non pertinents.
En revanche, nos états intentionnels, comme les croyances et les désirs, sont ce qu’ils sont, parce qu’ils signifient ou représentent quelque chose. Ma croyance qu’il pleut dehors, par exemple, possède le contenu « il pleut dehors » en vertu d’avoir ce contenu. Autrement dit, ma croyance qu’il pleut dehors représente ou a pour signification de représenter une condition climatique dans mon environnement.
Les processus mentaux sont donc portés par les contenus représentationnels ou les significations. Par conséquent, ils ne peuvent pas être produit par de simples processus de computation qui, eux, sont purement syntactiques. L’esprit ne peut donc pas fonctionner juste comme un programme d’ordinateur. L’esprit est une machine sémantique, l’ordinateur, lui, est seulement un engin syntactique, affirme Searle.
Pour Searle c’est le cerveau qui cause l’esprit. Le mental peut résulter seulement de systèmes biologiques complexes. Ce que Searle veut montrer avec l’argument de la chambre chinoise, c’est qu’un équivalent humain fonctionnel ne peut pas comprendre une langue, et donc ne peut pas causer l’esprit. Toutefois, en quoi des processus neuraux seraient-ils plus sensibles à la signification et au contenu représentationnel que des processus de computation ? Comment la compréhension, la signification, l’intentionnalité pourraient-elles émerger des molécules et des cellules plutôt que d’une suite binaire de 0 et de 1 ?
Références
[1] 1980, « Minds, Brains, and programs », Behavioral and Brain Sciences, p. 417-124.
2 pings
[…] avec l’intelligence en ligne de mire ainsi que des réalisations comme Eliza, la Chambre Chinoise ou encore, le prix Loebner . Et comme vous le soulignez, la voie dessinée par Turing a largement […]
[…] Dans son expérience de pensée, le philosophe John Searle disserte de la capacité à utiliser le langage. Il dit que ce n’est pas parce qu’une entité (un robot, une intelligence artificielle, ou un être humain qui aurait simplement accès à toutes les règles de langage d’une langue) est capable de formuler des réponses qui ont du sens dans une conversation qu’il en comprend lui-même le sens. Il remet ainsi en cause l’efficacité du test de Turing pour estimer si une machine est « intelligente », consciente. Ici, Koko montre non seulement qu’il maîtrise la grammaire et le vocabulaire d’une forme de la langue des signes, mais en plus qu’il en comprend au moins en partie la logique et la signification. […]