Des machines conscientes


Alors que jusque-là, et depuis Aristote, on distinguait les animaux, les humains et les dieux, voilà qu’à l’horizon on voit se profiler de nouveaux venus qui se montrent manifestement supérieurs à nous en calcul numérique et qui, si l’on en croit plusieurs futurologues, pourraient devenir conscients. Quel sens donner à un tel scoop ?  Quelle conception de la conscience se dissimule derrière une telle spéculation ?  La promesse des machines conscientes ne nous renseignerait- elle pas plutôt sur l’idée que nous nous faisons de notre nature métaphysique ?


Deformed robotic arm in multiple poses as it was collecting data through random motion.
Credit: Robert Kwiatkowski/Columbia Engineering

La question de savoir si un jour des artefacts deviendront aussi intelligents que les humains, voire les dépasseront, ou plus formidable encore si, « comme nous », ils accéderont à la conscience, est un de ces marronniers qui, à chaque exploit technoscientifique, refleurit et captive l’honnête homme[1]. Si l’affaire apparaît d’emblée comme purement technologique et scientifique, la question de l’éventualité que nous puissions fabriquer des machines conscientes est cependant lourde de présupposés philosophiques. Or, d’après certains neuroscientifiques[2], qui à l’instar de nombre d’ingénieurs[3], déclarent que les états subjectifs conscients seraient sur le point de pouvoir être implémentés dans des systèmes artefactuels, l’avènement de ces nouveaux êtres techniques est imminent. Seulement, si parfois on arrive à penser que le concept d’intelligence subsume à la fois ce qui relève du comportement de certaines machines et de certains organismes, il demeure discutable que le concept de conscience puisse se partager aussi facilement entre les uns (artefacts) et les autres (êtres vivants). Penser que des machines pourraient devenir conscientes relève non seulement d’une certaine imprudence, voire d’une inconséquence, mais exprime surtout une sorte de confusion ontologique qu’une conception étroitement fonctionnelle de la conscience vient soutenir. On peut donc se demander si, à propos des machines et de la conscience, nous n’aurions pas négligé nos interrogations métaphysiques !

Si la compétition entre l’homme et la machine sur le terrain de l’intelligence peut se montrer comme une curieuse rivalité entre l’homme et une technique, elle engendre selon certains ingénieurs et chercheurs une sorte d’angoisse[4] qui parfois s’accompagne de réponses surprenantes. Parmi ces réponses, celle de l’industriel Elon Musk par exemple, qui via sa société de recherches médicales Neuralink[5] spécialisée dans l’implantation d’électrodes dans le cerveau, se fixe comme objectif, outre le traitement de certaines maladies neurologiques, l’augmentation de nos capacités cognitives afin de ne pas perdre, face au développement de l’intelligence artificielle, notre pouvoir de décision. C’est que, pour l’entrepreneur de la Silicon Valley, l’intelligence des machines domine déjà l’intelligence humaine ! Alors face à ce danger, une seule solution : « Si vous ne pouvez battre la machine, le mieux est d’en devenir une ! »

Des machines intelligentes ?

Cette sorte de panique est donc bien présente dans le glissement sémantique qui fait dire à certains technophiles de type « anxieux » que des machines remportent des victoires contre les champions d’échecs ou de go ; ou encore que des intelligences artificielles reconnaissent des visages, établissent des diagnostics, écrivent des articles de presse, créent des œuvres d’art, etc.[6] comme si le fait d’être parvenu, au moyen de l’outil mathématique et des statistiques, à créer des algorithmes qui suivent des règles, pouvait faire passer le gué qui sépare les réseaux de neurones, qui sont des équations mathématiques, de nos neurones biologiques, pour conclure que l’intelligence artificielle est bien autre chose qu’une technique.

Bien que l’on ait été tenté de la mesurer, l’intelligence n’est pas un concept de science et sa définition, pour le moins volatile et multiple[7], a tendance à s’ajuster à son époque. Aujourd’hui, strictement associée à l’organe du cerveau, et s’appuyant sur de nombreuses disciplines scientifiques, elle semble se combiner prodigieusement avec l’outil informatique. Les techniques progressent, la machine « apprend » de mieux en mieux et « résout » des problèmes de plus en plus complexes. Cependant, si la capacité des algorithmes, simulant l’intelligence naturelle, semble lever une part de la frontière séparant les organismes des machines, cela signifie seulement que le concept d’intelligence est un concept que l’on pourrait qualifier de « nomade ».

Ainsi, pour peu que l’on admette le caractère souple et évolutif de la notion d’intelligence, on peut sans doute accepter le point de vue qu’une machine qui manipule des signaux électroniques en suivant les règles d’un algorithme est intelligente. Cependant, cette fluidité d’informations entre l’homme et ses artefacts, voire les possibilités de connexion entre un ordinateur et un cerveau humain, ne peut légitimer l’idée que nous soyons des machines comme le sont les artefacts ou que nous le devenions. Peut-être que nos cerveaux ne fonctionnent pas comme des ordinateurs et que la mémoire n’est pas un disque dur ! L’assimilation des parties de l’objet technique à des organes et l’objet lui-même à un organisme vivant, sous prétexte de partager l’un et l’autre une « intelligence », n’est sans doute qu’un de ces biais cognitifs nourrissant notre confusion ontologique. En effet, la distinction que nous acquérons très tôt dans l’enfance entre les êtres animés qui ont des intentions et agissent en fonction de buts et les êtres inanimés qui ne le peuvent pas, nous permet de naviguer d’une manière avisée dans notre monde d’objets. Et c’est ainsi que nous catégorisons d’un côté les phénomènes physiques et les choses inertes qui n’agissent pas en propre et, de l’autre, les phénomènes mentaux qui sont immatériels et subjectifs. Or, en ne respectant pas ces distinctions, nous générons nombre d’erreurs de catégories entre le mental et le physique, l’animé et l’inanimé, le vivant et l’inerte et nous ouvrons la porte à la pensée magique.

Il faut dire que nous sommes très sensibles à la détection des agents intentionnels[8]. En effet, en nous référant à un dessein intentionnel, une fonction, un but ou une croyance que quelque chose existe « afin de… », nous adoptons une posture explicative opérante face à certains systèmes complexes. Cependant, quand le programme Alpha Go – conçu par les ingénieurs de l’entreprise britannique DeepMind – « bat » en 2016, le champion coréen Lee Sedol au moyen d’un calculateur et d’un apprentissage profond, c’est-à-dire en faisant fonctionner une intelligence évolutive, alors par excès de la posture intentionnelle nous entrons dans une confusion ontologique nous amenant à dire que la machine « a gagné » la partie[9]. Comment dans ces conditions ne pas être rattrapé par la métaphore de la machine qui, en évoluant vers davantage de complexité et des performances de plus en plus imposantes, nous embarque dans le fantasme d’une évolution des objets techniques qui serait similaire à celle des êtres vivants[10] et… nous amènerait à penser qu’un jour viendra où les machines nous dépasseront, voire pourraient, tel des ennemis, se retourner contre nous – comme si, oublieux des bureaux d’études et de leurs ingénieurs qui poursuivent leurs missions, elles étaient parvenues d’elles-mêmes à l’existence, négligeant le fait que toute machine a son origine dans un principe qui lui est extérieur.

La métaphore organisme/machine

Une telle pensée est le jouet d’un désordre. Si l’homologie entre machine et organisme ne date pas d’hier[11], c’est qu’elle s’avère très utile pour la connaissance objective des organismes[12] et qu’elle est liée à la méthode même de la science. En effet, pour parvenir à comprendre un organisme, il faut que nous en ayons une représentation spatiale et son assimilation à une machine déterministe pourrait bien, en partie, être la condition de possibilité de cette connaissance. C’est d’ailleurs cette assimilation qui permet non seulement de rendre compte des fonctions du vivant mais sans doute de pratiquer de la bonne médecine. Ainsi, cette conception qui consiste à penser le vivant comme un mécanisme[13] répond en partie à des raisons épistémologiques.

Selon ce point de vue, l’être vivant, considéré comme « agencement de pièces » et dont chaque élément est conforme aux principes mécaniques – là où règne une causalité efficiente –, est bien enfermé dans un système biologique qui peut être considéré comme une machine. Une telle machine soumise à l’explication mécaniste permet ainsi de comprendre et d’isoler les fonctions de ses composants avec la plus haute précision (des organes aux tissus, à la cellule, aux gènes, aux chromosomes, à l’ADN, aux protéines, etc.). Il est vrai que ce qui constitue le vivant ne diffère pas de ce qui constitue la matière inerte – autrement dit, on peut soutenir l’idée qu’il n’y a pas de principe surajouté, et qui serait venu d’ailleurs, à ce qui nous constitue. En d’autres termes, qu’il y a seulement un processus d’organisation de la matière qui conduit à la vie. C’est pourquoi l’on peut parler ici d’une approche objective du vivant.

Néanmoins, cet état relativement éphémère qu’est la vie pour un organisme pourrait bien échapper à la saisie d’une définition. En effet, entre d’un côté les définitions de la biologie moléculaire[14] ou des sciences darwiniennes et, de l’autre, les cas-limites, comme les virus, dont on ne sait pas s’ils sont vivants ou non, la réponse à la question « Qu’est-ce que la vie ? » ou « Qu’est-ce qu’un être vivant ? » peine à aboutir[15]. Or, bien que les êtres vivants soient des objets matériels, ils présentent indéniablement des propriétés que la matière inerte ne possède pas. Il est toutefois vrai que le problème d’individuation biologique reste très discuté[16]. On peut cependant utiliser le terme d’« être vivant » – selon une individuation du sens commun –, pour les individus biologiques présentant une cohésion interne[17] et que l’on peut isoler dans l’espace et le temps, et qui, dotés d’un corps, forment leur substance à partir de leur milieu au moyen de fonctions (nutrition, respiration) permettant ainsi à leurs tissus de se régénérer.  

La question du sens à donner à l’expression « machine consciente » doit donc dans un tout premier temps s’appuyer sur l’équivalence – et non pas seulement sur la métaphore[18] –, des termes « machine-artefact » et « machine-organisme » qui est cette fois une équivalence ontologique et non plus seulement épistémologique, c’est-à-dire bien au-delà de la pensée de l’une sur le modèle de l’autre. Pareille équivalence ne peut être rendue possible qu’en enrégimentant l’explication biologique sous un postulat mécaniste. Mais le soutien de lois de la mécanique pour réparer et découvrir les conditions du vivant conduit-il à transformer les êtres vivants en machines ?

Une explication d’ingénierie posée sur le monde vivant permet sans doute de donner une réponse positive à cette question et vient renforcer l’équivalence, voire conduit à briser la frontière entre l’inerte et le vivant. Mais la drôle de machine qu’est l’organisme, machine qui demeure la même sans cesser d’évoluer à travers le temps, machine qui se défend et veut persister dans son être ne doit-elle pas se définir autrement qu’une machine-artefact ? L’impression de vie qui émerge des automates en action en fait-elle autre chose qu’une addition de parties fonctionnelles ? Autrement dit, peut-on déduire le vivant des lois physico-chimiques qui réalisent les propriétés fonctionnelles des machines qui nous composent ?

Une vision purement techniciste des choses ne s’appesantit pas sur des interrogations qui ne font que brouiller la perspective qu’ouvre les sciences et la technique. Ainsi, selon ce point de vue très entreprenant, l’on ferait mieux de se demander comment la conscience, qui jusque-là était pensée comme une propriété du vivant, pourrait être incorporée dans les machines artefactuelles. C’est que dès lors que nous aurons atteint un certain niveau d’organisation des systèmes, la machine pourra devenir consciente. Il ne s’agirait donc plus, pour le technoscientifique, de se demander si l’on peut atteindre ce niveau mais quand cela arrivera.

Laissons ces questions aux futurologues qui acquiescent sans restriction à l’idée que la frontière entre l’artefact et l’organisme vivant ne sera bientôt plus vraiment motivée et demandons-nous, quel concept de conscience leur sera nécessaire pour affirmer que les machines seront un jour conscientes.

La conscience dans les machines ?

A supposer par exemple que l’on équipe votre ordinateur de bureau d’un capteur de température associé à un programme sachant déclencher l’arrêt de ses activités lorsque la température devient trop élevée et pouvant afficher sur son écran : « Je souffre de la chaleur ! Je ne me sens pas très bien ce matin ! ». Face à la réaction de la machine, je ne pense pas que nous serions prêts à interpréter ce fait comme une véritable expérience de conscience. De tout évidence, ce que nous appelons « conscience » nous semble manifestement plus qu’une description de ce qui peut se passe dans notre cerveau. Cependant, lorsque l’on attribue à une autre personne un état de conscience, c’est bien en troisième personne que nous le faisons. Or, ce que nous ressentons, et qui accompagne la description que nous pouvons en faire, semble bien déborder l’expression tangible de notre subjectivité, comme à l’instant où, éprouvant une douleur soudaine, nous crions : « Aie ! ».

Evidemment la science, et les neurosciences en particulier, nous apprend qu’il existe un lien entre l’activité électrochimique de notre cerveau et le fait de ressentir une douleur[19] ou d’avoir un orgasme par exemple[20]. Mais cette douleur ou cet état orgasmique demeure profondément inexplicable. On peut en effet se demander pourquoi nos expériences manifestent des aspects qualitatifs de ce type lorsque nous sommes dans un certain état physique ? Comment l’activité du cerveau a-t-elle pu produire cette sensation ? Comment de la « viande », pour reprendre le titre d’une nouvelle de Terry Bisson[21] « Ils sont faits de viande », peut-elle provoquer ce saisissement ? D’une manière plus générale comment quelque chose de physique peut-il bien faire émerger des états subjectifs qui échappent à la description et à la mesure ? Et cette question concerne tous ces états classés sous l’étiquette « qualia » et autre « effet que cela fait… » pour reprendre la célèbre expression de Thomas Nagel.

Cette conscience dite « phénoménale » pose problème dans la mesure où il semble qu’un écart explicatif semble impossible à corriger entre le système nerveux d’un organisme et ce qu’il ressent à l’intérieur. D’un côté on trouve l’objet complexe du cerveau soumis aux lois physiques et de l’autre, le monde de la conscience, des images et des sons de notre vie environnante, de la peur et de la colère, de l’amour et de la tristesse et de la joie… Et un tel écart se traduit par la difficulté d’expliquer en termes physiques ces expériences de conscience.

Il faut dire que la conscience phénoménale n’apparaît dans aucun des modèles mathématiques qui fondent la science physique, pas plus que dans les tableaux périodiques des éléments chimiques ou même dans les séquences moléculaires de nos gènes. Or, nous sommes pourtant bien des êtres entièrement matériels et avec tout cela conscients… et sans doute pas les seuls dans l’univers ! L’effet que cela fait d’être soi – tout comme l’effet que cela fait d’être une chauves-souris –, est certainement vécu par un grand nombre d’organismes vivants. Il est cependant vrai que nous n’avons pas l’intuition que les blastomères humains de quelques jours font l’expérience de cet effet que cela fait… En revanche, pour ce qui est des animaux vertébrés, on peut affirmer, dans la mesure où ils sont équipés d’un système nerveux, qu’ils éprouvent des émotions du type de la douleur que conduisent certains de leurs récepteurs sensoriels[22].  Le point délicat, c’est qu’il est probable que cette conscience phénoménale ne soit pas du genre à donner une information ! En disant cela, on pourrait presque dire que l’on ne sait pas de quoi l’on parle, que c’est ineffable ! En vérité, il n’y a réellement pas de différence entre l’accès à l’information d’avoir mal et d’en faire l’expérience.

Une telle analyse n’incitera pas, on l’imagine, les neuroscientifiques[23] qui affirment qu’il n’y a pas de véritable obstacle à ce l’on puisse un jour développer des machines conscientes à prendre en compte ces fameuses propriétés phénoménales. Pour parvenir à implanter de la conscience dans une machine, il faut donc commencer par écimer le concept de conscience. On peut imaginer que cela reposera sur un argument de cet acabit :

  1. Un être a prétend qu’un phénomène x du type « what it is like… » se produit à t.
  2. x ne peut pas être expliqué par des causes observables empiriquement.
  3. Attendu que (2), pour expliquer x il est postulé l’existence d’instances de propriétés  phénoménales Q.
  4. Cependant, toujours en vertu de (2) nous ne pouvons pas savoir si Q existe.
  5. En conséquence Q est infalsifiable.
  6. Donc postuler Q est antiscientifique.

Ce qui est sous-jacent à ce type d’argument est l’idée que les entités qui ne confèrent aucun pouvoir causal efficient à leurs instances n’existent pas[24] ou sont taxées d’illusions. Or, les propriétés phénoménales (Q) passent bel et bien au travers de la mesure physique et ne peuvent donc pas être considérées comme des entités légitimes de la science physique. Une fois les qualia écartés – qui ne seraient que la survivance d’une pensée rétrograde[25] –, l’idée de la machine-cerveau peut alors se renforcer.

Cette science de la conscience va alors considérer que ce que l’esprit-cerveau exécute est un traitement de l’information. Il est vrai que la psychologie cognitive, qui s’est voulue une réponse au béhaviorisme qui ne prenait en compte que les entrées et sorties quantifiables des systèmes, est particulièrement associée à la science informatique. Stanislas Dehaene, par exemple, en posant la question du pourquoi « certaines de nos entrées sensorielles deviennent-elles des perceptions conscientes, tandis que d’autres restent confinées aux limbes de l’inconscient ?[26] » pousse la méthode scientifique à examiner la « boite noire ». Mais ce qu’il est crucial d’estimer c’est que ce n’est pas la constitution physique du cerveau mais l’organisation et le fonctionnement des processus et des représentations mentales qui ordonnent la méthode. Bien entendu, une connaissance des processus neuronaux du cerveau aide à comprendre l’organisation fonctionnelle de la pensée mais c’est le pouvoir de computation des machines qui devient le modèle. La conscience, se changeant en logiciel du cerveau peut alors devenir l’objet respectable d’une science. Le traitement de l’information apparaissant alors clairement plus substantiel que l’éther des qualia.  

C’est ainsi que le couplage de l’ingénierie des algorithmes et des neurosciences permet de penser qu’un jour les machines deviendront conscientes. Pour cela, il nous faudra réformer notre certitude de vivre des expériences phénoménales et penser qu’il ne s’agit-là que d’un moyen un peu simpliste et passablement suranné de nous référer à des modèles mentaux profonds. Pour Dehaene, l’expérience subjective est simplement une représentation porteuse d’information[27]

Comme on le voit, pour parler de la possibilité de machines conscientes, il faut d’abord se mettre d’accord sur ce qu’est la conscience, et là les points de vue divergent car c’est une question métaphysique. Autrement dit, avant de nous enfiévrer à propos du scoop d’une éminente implémentation de la conscience dans les machines, peut-être ferions-nous mieux – du fait des désaccords sur le sujet à propos du terme même de « conscience » –, d’être prudent et de ne pas trop vite abandonner, sous prétexte que nous aurions déjà toutes les réponses technologiques, les questions métaphysiques.

Références

[1] « « IA » contre « IB » : la guerre des intelligences aura‑t‑elle lieu ? », Charles Hadji, La libre.be, 15 septembre 2019.

[2] Stanislas Dehaene, Le code de la conscience | Stanislas Dehaene | TEDxMarseille, nov. 2017.

[3] Cf. les travaux de Robert Kwiatkowski et Hod Lipson de l’université de Colombia, « Task-agnostic self-modeling machines », Science Robotics, vol. 4, 26, 2019.

[4] Stephen Hawking, par exemple, qui déclarait en 2014 à la BBC « Je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité ».

[5] Voir, « An integrated brain-machine interface platform with thousands of channels », août 2019.

[6] On peut lire à ce sujet, l’article de Quentin Ruyant « Qui a battu les meilleurs joueurs de go ? AlphaGo ou les ingénieurs de Google ? », 2018, sur son blog. Pour une version « lucide », voir les arguments de Luc Julia et son livre L’intelligence artificielle n’existe pas, First, 2019.

[7] Les auteurs de l’article « A Collection of Definitions of Intelligence », Technical Report, IDSIA, juin 2007, p. 1-12, ne dénombrent pas moins de soixante-dix définitions du terme « intelligence » rapporte Catherine Malabou dans son livre Métamorphoses de l’Intelligence. Que faire de leur cerveau bleu ?, Puf, 2017.

[8] Dans le noir, nous avons tendance à interpréter n’importe quel bruit non-identifié comme étant produit par un agent intentionnel. Notre cerveau nous indique parfois qu’il y a un agent là où il n’y a en réalité personne. Notre système de détection des intentions fait que nous interprétons nombre de phénomènes naturels comme le résultat d’une action intentionnelle d’un agent invisible. Nous sommes équipés d’un système de détection des agents intentionnels qui se déclenche très facilement. Il faut dire que dans l’environnement dangereux de nos ancêtres, mieux vaut voir un prédateur ou un ennemi là où il n’y a personne que s’endormir paisiblement et ne jamais se réveiller. Selon Daniel Dennett dans The Intentional Stance, MIT Press, Cambridge, 1987,trad. Française P. Engel, La stratégie de l’interprète, Paris, Gallimard, 1990, une stratégie intentionnelle revient à considérer les objets dont on veut prédire le comportement comme ayant des états intentionnels.

[9] En vérité aucune machine ne peut « battre » un joueur d’échec ou de go puisque l’intentionnalité du comportement que cette machine exhibe est une intentionnalité dérivée d’une intentionnalité plus fondamentale qui est celle des ingénieurs d’un bureau d’études. Pour amorcer cette question on peut lire « Dennett contre Searle », Métaphysique, Ontologie, Esprit, 2015.

[10] Voir les analyses d’André Leroi-Gourhan, Évolution et techniques. Milieu et techniques, Paris, Albin Michel, 1973 et de Gilbert Simondon, Du mode d’existence des objets techniques, Paris, Aubier, 1989 dans lesquelles la notion d’évolution technique n’est en rien une biologisation de la technique. Autrement dit, l’analogie entre la transformation technique et l’évolution du vivant ne revient pas à naturaliser le domaine technique.

[11] Dans son Traité sur le principe général du mouvement dans les animaux (chapitre 1, paragraphe 7) Aristote compare la structure et le déploiement des organes du vivant à ceux des bras d’une catapulte.

[12] La méthode qui étudie le monde physique aura besoin de ne considérer que les « qualités premières » de l’objet (Galilée, L’Essayeur, 1623, paragraphe 48) qui sont mesurables et quantifiables. Darwin, quant à lui, en montrant que les espèces sont le produit d’un mécanisme aveugle et d’une combinaison de variations et sélections, renforcera l’image de l’être vivant comme machine. Alors certes, les organismes sont des objets physiques mais on peut questionner la pertinence d’un cadre d’investigation les concernant sur le seul modèle de la science physique et de l’évolution mécaniste.

[13] Idée que diffusa Descartes dans sa théorie de l’animal-machine, théorie dans laquelle il s’agit de penser le vivant en dehors d’un principe supérieur ou d’une âme ou d’un esprit, etc. Voir le Discours de la méthode, V., Les principes de la philosophie, IV, art. 203.

[14] Voir Lily E. Kay, The Molecular Vision of Life: Caltech, The Rockefeller Foundation, and the Rise of the New Biology, Oxford University Press, 1993.

[15] Comme concept issu du sens commun ou comme notion théorique, la vie peine à trouver sa définition. Soit, elle ne peut être définie (sens commun), soit la définition (théorique scientifique) ne se réfère à rien. Pour une stratégie éliminativiste, voir Edouard Machery, «Why I stopped worrying about the definition of life… and why you should as well », Synthese 2012, p. 145 – 164. Pour une discussion plus générale sur les enjeux de la recherche d’une définition de la vie, voir Sébastien Dutreuil « La vie en biologie : enjeux et problèmes d’une définition, usages du terme », Philosophie 2018/1 (N° 136), pages 67 à 94.

[16] Voir Thomas Pradeu, Les limites du soi immunologie et identité biologique, Vrin, 2010, chapitre 6.

[17] David Hull, « Units of Evolution: A Metaphysical Essay » dans H.J. Jensen , R. Harré (eds) The philosophy of evolution. The Harvester Press, Brighton, England, p 23 – 44.

[18] Dans son ouvrage Le code de la conscience, O. Jacob, 2014, S. Dehaene, il n’est plus tout à fait question de métaphore au sujet de l’ordinateur, bien qu’il s’en défende, chapitre 3, « Ne vous méprenez pas, je n’ai aucune intention de relancer la métaphore élimée qui identifie le cerveau à un ordinateur. » avant d’ajouter, chapitre 5, « Selon l’hypothèse de Bernard Baars, les opérations conscientes coïncident avec celles que permet l’espace de travail, qui assure la diffusion flexible des informations pertinentes à une grande diversité de circuits cérébraux. En principe, rien n’empêche de reproduire ces fonctions dans un ordinateur. »

[19] Cf. Laure Cailloce, « Ce que l’on sait de la douleur », CNRS, Le journal, 20.06.2019.

[20] Cf. The Science of Orgasm, de barry R. Komisaruk, Carlos Beyer-Flores, Beverly Whipple, The Johns Hopkins University Press, Baltimore, 2006, p. 101 – 113, ouvrage dans lequel il précise le chemin corporel qui conduit à l’orgasme. L’information sensorielle qui transite par la moelle épinière est traitée dans le thalamus, puis le signal se diffuse dans le système limbique. Quand l’orgasme se produit, le cervelet et le cortex frontal deviennent alors des zones actives alors que d’autres zones sont inhibées. 

[21] « Ils sont faits de viande »

[22] Voir « Conscience animale : des connaissances nouvelles », Inria, Science & Impact, 03/09/2018.

[23] S. Dehaene,  “What is consciousness, and could machines have it?”, Science, 27 oct. 2017, Vol. 358, Issue 6362, pp. 486-49 ; M. Graziano, Can Consciousness be Non-Biological ?, 2015.

[24] S’inspirant d’une parole de l’étranger d’Elée dans le Sophiste de Platon (247d-e), D. Armstrong, A World of State of Affairs, Cambridge University Press, 1997, p. 41, formule le principe suivant : « Toute chose existante possède un pouvoir causal ». Dans une veine similaire, J. Kim, dans “Downward Causation” Emergence or Reduction? – Essays on the Prospects of Nonreductive Physicalism, Berlin, New York: De Gruyter, 1992, p. 134, s’appuyant sur les travaux du philosophe émergentiste Samuel Alexander, fortifie le lien entre pouvoir causal et existence. Ainsi, ce que Kim nomme la « Maxime d’Alexander » est un principe métaphysique qui attache les pouvoirs causaux aux propriétés. Pour plus de précisions, cf. F. Loth, Le corps et l’esprit, essai sur la causalité mentale, Vrin, 2013, p. 74-77.

[25] S. Dehaene, dans Le code de la conscience, O. Jacob, 2014, chapitre 6, en tordant le cou à ce qu’il considère être les deux résistances au développement de la conscience dans les machines, à savoir, les qualia et le vitalisme, est catégorique : « Dans quelques décennies, la notion même de qualia, ces quanta d’expérience pure, dépourvus de tout rôle dans le traitement de l’information, sera considérée comme une idée étrange de l’ère préscientifique. Ce débat aura la même issue que celui du vitalisme – l’idée erronée du XIXème siècle selon laquelle, quelle que soit la quantité de détails accumulés sur la biochimie des organismes, nous ne rendrons jamais compte de ce qu’est le vivant. »

[26] Ibid., chapitre 1 intitulé, « Quand la conscience entre au laboratoire ».

[27] S. Dehaene et al, « Responses » à « Conscious Machines : Defining Questions », Carter et al., Science, 2018.

Lien Permanent pour cet article : https://www.francoisloth.com/des-machines-conscientes/

(2 commentaires)

  1. Même si évidement la question de la conscience de soi des machines pose la question déjà pour ce qui concerne les humains, ne pourrait on pas aussi parler de la conscience des autres et donc de l’attribution aux non humains de cette fameuse conscience, phénomène qui a lieu pour les animaux, les plantes et aussi pour tout le nouveau bestiaire que constitue l’ensemble des objets plus ou moins intelligents auxquels nous faisons face en permanence ?

    • Debra on 5 novembre 2019 at 0 h 11 min
    • Répondre

    Ce qui me frappe en lisant votre exposé est notre obsession à… réduire la question du vivant à son intelligence, retenue comme critère absolu, si je puis dire.
    Je pourrais même dire qu’il s’agit d’une forme de monomanie.
    C’est vrai que je m’insurge de manière émotionnelle en voyant combien notre civilisation occidentale (mais pas seulement) met en acte une haine profonde de l’intrication indépassable du corps/esprit, phénomène que j’associe au vécu intolérable de se vivre comme fragile, dépendant, et voué à la mort en fin de compte.
    Plus le temps passe, plus je deviens consciente de mon rejet de l’extension de la théorie de l’information à un nombre grandissant d’activités du vivant, et pas seulement humain.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.