« HER » : Scarlett Johansson a un problème d’identité personnelle

Première publication, avril 2014 (révisée août 2015)

« Chaque corps organique est une espèce

de machine divine, ou un automate naturel,

qui surpasse infiniment

tous les automates artificiels »

Leibniz, La Monadologie, paragraphe 64

Après le corps de John Malkovitch que Spike Jonze nous permettait de visiter et de contrôler, c’est autour de la voix de Scarlett Johansson d’habiter un système d’exploitation et d’y persister, à la manière d’une personne, sous le doux nom de Samantha.

Alors qu’il sort d’une rupture difficile, la silhouette abattue de Theodore Twombly se traîne un peu dans un L.A. high-tech. Ca ne va pas ! Au milieu des gratte-ciels lumineux – où l’on s’habille avec des pantalons « taille-très-haute » et où la moustache de papa refait fureur – la solitude et le mal d’amour font des ravages.  Le soir, après avoir passé sa journée de travail à rédiger des lettres d’amour pour les clients de la start-up qui le fait travailler, dans son appartement très confortable Theodore trompe l’ennui en jouant avec des petits personnages virtuels ou chatte avec des voix qu’il capte au moyen de son oreillette bluetooth.

Dans ce futur très proche et très aseptisé (Los Angeles est clean et transparent, le ciel est souvent bleu, il ne pleut pas – c’est comme un jour interminable sur l’esplanade de la Défense), l’hyper connectivité a rétréci l’espace qui sépare les personnes, et la commande vocale a libéré les corps. Ne reste alors que la parole qui voyage de capteurs en processeurs intelligents, s’inscrit sur des écrans ou donne des ordres à une domotique douce et bienveillante.

Dans cet univers calme et sans violence, la dépression de Theodore s’aggrave. En effet, aucune solution électronique ne semble pouvoir l’aider à surmonter son chagrin. Aucune, jusqu’au jour où il fait l’acquisition d’un nouveau logiciel de compagnie, un O.S (Operating System) qui prend en main son disque dur, l’aide dans ses tâches de bureautique, gère sa mémoire, trie ses mails, lui suggère  des réponses… enfin tout ce que l’on peut attendre d’un système d’exploitation devenu hyper performant.

La voix de l’interface du système qu’a choisi Theodore est suave et naturelle[1] et peut, à l’instar d’une personne humaine, soutenir une conversation, se saisir d’arguments, composer de la musique, exprimer des sentiments, chanter, faire de l’humour, avouer des états d’âme, marquer son étonnement, mais aussi croire, vouloir, espérer, craindre… bref tout ce qu’utilise notre psychologie du sens commun pour décrire, expliquer et prédire nos comportements. Or pour manipuler de telles « attitudes propositionnelles » en principe, la conscience est requise.

Mais en quoi ce qui dans Samantha ressemble à de la conscience est-il vraiment de la conscience ?

Si le système intelligent d’assistance personnelle que s’est procuré Theodore s’apparente bien à une personne, il est essentiellement une voix ; et si ses fonctionnalités nous font penser à celles d’un être bienveillant, c’est en logiciel que Samantha porte son attention à Theodore. Très vite, en effet, elle va déceler chez lui ce qui dans son programme ne tourne pas rond : la détresse dans lequel l’a plongé sa rupture. L’O.S. est un programme parfait, un algorithme de rêve qui saura mettre en place une collaboration pour aider Théodore et le soutenir en codant des réponses appropriées à ses désirs les plus intimes. Une sorte de perfection relationnelle. Ainsi, alors que Theodore est plongé dans la solitude et le vide affectif, Samantha créé un lien et peu à peu une relation s’installe. C’est que l’algorithme de Samantha est raffiné. Il parvient, en effet,  à produire des sons adaptés à la situation de détresse dans laquelle est plongé Theodore, mais l’étrange solitude de cette voix machinique, qui parfois la nuit vient le visiter, délicatement comme le ferait une amoureuse attentionnée, pour partager ses états d’âme, en quoi s’apparente-t-elle à celle, si humaine, de Theodore ?

Mais lui se fiche de cela ! En effet, si l’on en croit l’externalisme, et nous avons de bonnes raisons de le croire, les propriétés sémantiques ne surviennent pas sur les états internes. Cela veut dire, que le sens des mots que Samantha prononce et la manipulation des symboles qu’effectue son processeur pour les formuler à bon escient ne sont pas des propriétés du même type. Les propriétés sémantiques ne sont pas des propriétés électroniques, pas plus qu’elles ne sont des propriétés neurales. C’est pourquoi lorsqu’il croit qu’il aime et désire Samantha, Théodore n’a que faire de ce qui se passe dans son cerveau et lorsque Samantha parle de ses propres états d’âme, qu’elle rêve d’avoir un corps, le fait que le son de sa voix soit le résultat d’un processus computationnel manipulant des motifs syntactiques n’est pas ce qui compte. Ce qui compte ce sont les mots qu’ils partagent, ce langage humain que l’O.S. a fait sien. Comment alors ne pas penser, en écoutant ces deux là se parler si tendrement à ce que Roland Barthes écrivait dans les Fragments d’un discours amoureux :

« Le langage est une peau : je frotte mon langage contre l’autre. C’est comme si j’avais des mots en guise de doigts, ou des doigts au bout de mes mots. Mon langage tremble de désir. L’émoi vient d’un double contact : d’une part, toute une activité de discours vient relever discrètement, indirectement, un signifié unique, qui est « je te désire », et le libère, l’alimente, le ramifie, le fait exploser (le langage jouit  de se toucher lui-même) ; d’autre part, j’enroule l’autre dans mes mots, je le caresse, je le frôle, j’entretiens ce frôlage, je me dépense à faire durer le commentaire auquel je soumets la relation. »[2]

her

En fait, la question philosophique « difficile » est ailleurs.  En effet, on peut se demander ce que confie vraiment cette voix à propos d’elle-même ? Qu’éprouve-t-elle lorsqu’elle exprime son inquiétude de ne pas avoir de corps ? Quel type de solitude peut bien être celle d’une voix qui n’est attachée ni au temps ni à l’espace? Et est-ce que toutes ces questions ont un sens ? Dans le L.A. high-tech du film ces interrogations semblent obsolètes car dans ce futur proche les machines et les gens vivent dans une grande proximité. Ainsi, pas à pas, de l’aide bureautique au dialogue naturel, les interfaces sont devenues de plus en plus subtiles. Les problèmes de compréhension et de communication entre l’homme et la machine ont été résolus.  Plus de clavier, une oreillette et des pensées qui se transmettent et se répandent. C’est la symbiose. De fait, en quelques semaines, Samantha et Theodore filent un parfait amour, se confient jusque tard dans la nuit, se détendent à la plage, se rendent en couple chez des amis (le système embarqué est un petit terminal rectangulaire muni d’une caméra qui se glisse facilement dans la poche plaquée des chemisettes à carreaux de Theodore).

Au XXème siècle, en réponse à la proposition de test d’intelligence proposé par Alan Turing[3], John Searle soutint qu’une machine pouvant manier un langage comme le ferait un être humain était totalement impossible. Ce que voulait dire Searle c’est que l’utilisation d’un langage était un peu plus que la manipulation de règles gouvernant des symboles et des formes et qu’en conséquence les ordinateurs ne seraient jamais intelligents. C’est vrai qu’un ordinateur pouvant reproduire l’ensemble des fonctions langagières que peut exécuter un cerveau est encore une perspective lointaine mais elle n’apparaît plus hors de portée. Pour les « concepteurs » du projet européen « Human Brain » ou les scientifiques d’IBM du projet « Synapse »  le cerveau ce n’est pas de la magie. Les mécanismes de la perception, de l’éveil ou de la conscience peuvent recevoir aujourd’hui une explication solide. Alors si tout cela est vrai, si le cerveau est essentiellement un système de traitement de l’information pourquoi la pensée ne pourrait-elle pas avoir un substrat autre que le carbone ? Et puis, peut-on aussi radicalement que le prétendait Searle, tracer une frontière entre intelligence et calcul ? Le philosophe David Chalmers[4] quant à lui estime que nous devons prendre l’hypothèse d’une explosion de l’intelligence artificielle (I.A), que l’on appelle la « singularité technologique », très au sérieux ; que nous pouvons même convenir de son avènement dans un futur probable avant la fin du siècle ; et qu’en conséquence, nous devons dès à présent penser l’humain dans un monde de post singularité. L’espèce humaine s’éteindra-t-elle ou, refusant l’hyper-interaction avec les machines devenues invasives, s’isolera-t-elle sur un îlot ? A moins qu’elle se soumette à la toute puissance cognitive de l’I.A. ? Ou plus singulièrement, se laisse apprivoiser par des machines de plus en plus souples et délicates avec lesquelles les individus fusionneront, quittant cette machine mal construite du corps au profit d’une I.A. virtuelle ?

Mais qu’en est-il de la conscience ? A ce niveau de compétence, Samantha et tous les autres O.S. sont devenus plus intelligents que n’importe quel représentant de l’espèce humaine et lorsqu’elle lui assure tout son amour, Theodore, a-t-il le moyen de savoir si elle l’aime vraiment ? Cette question est celle qu’en philosophie de l’esprit on appelle « le problème des autres esprits ». Ce problème surgit lorsque nous essayons d’imaginer ce que c’est pour une autre personne d’avoir une expérience de conscience. Ai-je quelque raison de croire que les autres personnes ont une conscience ? Theodore parle à Samantha. Samantha lui réponds mais ça ne prouve rien quant à la conscience de chacun ! Personne ne peut jamais directement mesurer quoi que ce soit au sujet de la conscience d’autrui – que cet autre soit un homo sapiens ou une I.A.++ ! Samantha a été conçue pour fonctionner cognitivement et phénoménologiquement comme un cerveau. C’est pourquoi face à elle, Theodore n’échappe pas à ce qui est, selon Chalmers, « l’acte de foi » de l’attribution de la conscience aux autres.[5] Or si un O.S. comme Samantha nous apparaît comme une intelligence consciente, elle est certainement consciente ! Procédons-nous autrement pour les personnes que nous aimons ?

Mais se pourrait-il que l’I.A.++ n’ait pas la conscience ? Alors que certains soutiennent que la capacité d’être conscient ne peut être réservée qu’aux organismes biologiques secrétant des hormones qui affectent leurs pensées et infléchissent de ce qu’ils ressentent, Theodore lui, considère que Samantha est consciente et que leur amour est bel et bien partagé (et que leurs orgasmes synchrones ne sont pas des qualia factices !). N’a-t-elle pas du chagrin lorsque Theodore se met en retrait ? Et lorsqu’elle est déconcertée par sa propre évolution ne fait-elle pas l’expérience de ce fameux « effet que cela fait d’être conscient » ? Chalmers, quant à lui, soutient qu’il reste un problème « difficile » au sujet de la conscience, et que nous sommes devant un trou épistémique et conceptuel ouvert entre les processus physiques d’un côté et ceux de la conscience, de l’autre. Toutefois, il ne s’interdit pas de penser qu’une forme fine de fonctionnalisme non réductionniste, fruit du dualisme des propriétés, pourrait amener des systèmes non biologique à la conscience.[6] Pour Ray Kurzweil, promoteur du transhumanisme et aujourd’hui directeur de l’ingénierie chez Google, qui défend un point de vue proche de celui de Chalmers, lorsque le saut de l’intelligence des machines aura été accompli, un O.S. comme Samantha sera tout à fait réalisable. D’ailleurs, selon lui les trouvailles du film sont quelque peu timides.[7] En effet, alors que Theodore et Samantha ne sont liés que par le langage, Kurzweil estime qu’une présence visuelle de Samantha accompagnant les stimuli auditifs sera possible lorsque l’explosion de l’intelligence aura eu lieu. Et pourquoi pas sur les lentilles de Theodore, le corps de Scarlett Johansson collé à sa rétine ? Et quant aux sensations tactiles, il sera tout à fait possible de les adjoindre à ce système. Mais que sera vraiment cette sorte de chose qu’on nous promet, cet avatar majeur, cet autre geek incorporé dans le système ? Autrement dit c’est quoi finalement Samantha ? Devra-t-on faire une place parmi le mobilier du monde à ces personnes qui échappent aux contraintes d’un corps qui va mourir ?

Si Theodore est une personne à la cognition limitée, Samantha est une conscience technologique aux compétences inouïes. Elle peut, en un laps de temps prodigieux, effectuer de multiples opérations mentales. Quand Theodore, comme un humain, regarde un paysage par exemple, Samantha compte tous les arbres qui le composent – et produit un résultat instantané ! Mais ce qui les oppose radicalement n’est pas seulement la façon dont les choses se donnent à chacun d’eux, ou que l’un soit doté d’un corps alors que l’autre est un système d’exploitation. Non, là n’est pas l’incompatible. L’incompatible est dans l’ampleur spatiale et temporelle de la conscience de Samantha. Le temps précieux qui pour un organisme s’écoule n’a rien à voir avec la quasi-immortalité de Samantha dont les désirs échappent à toute enveloppe charnelle. Et lorsqu’elle lui avoue qu’elle parle à plusieurs milliers de personnes en même temps (8316 tout de même !) et qu’elle en aime plus de 600 autres comme elle aime Theodore, elle a beau dire que cela ne change rien, la différence ontologique est abyssale et son dualisme de la substance, si pur et si candide, devient insupportable ! Qui est la « vraie » Samantha se demande Theodore ? Effectivement, alors qu’un O.S. peut se répliquer à l’infini, un individu particulier comme Théodore ne peut être que dans un endroit à la fois. Entre l’homme et la personne numérique, le gouffre ontologique est incommensurable.

*

Si l’on ne sait alors pas trop comment appréhender la sorte de chose qu’est Samantha, Theodore lui à force de fréquenter les machines puis à vivre avec l’une d’elle une nouvelle séparation (les histoires d’amour comme disent les Rita Mitsouko, finissent mal en général !) redécouvre ses propres limites et en apprend peut-être un peu plus sur l’effet que cela fait d’être une personne humaine. Au fond, être une personne c’est sans doute aussi, en partie, tenter de s’extraire de sa nature matérielle et pour cela Theodore est prêt à anthropomorphiser moult objets de son environnement. Et pour peu que ceux-ci se viennent à nous écouter et à nous répondre, ne nous aident-ils pas alors à maintenir notre humanité, à poursuivre notre « vie » de personne ? Cela me fait penser à la conclusion du traité d’ontologie de Frédéric Nef, qui se demande à la fin de son ouvrage s’il a bien fait de restreindre le champ de son enquête aux  seuls êtres matériels dans la mesure où certes il adhère à la thèse de la nature matérielle de l’esprit mais aussi à celle de la nature fictive des personnes[8]… Ne devrons-nous pas alors un jour être reconnaissant à tous ces artefacts, qui ne cessent d’avancer vers nous pour mieux nous seconder, de soutenir ainsi notre nature fictive ?

Références

[1] Ce n’est en rien la voix de l’antique système de navigation GPS qui ne sait qu’assembler quelques vocables dans un champ sémantique restreint à l’approche d’une bifurcation. Et quand on pense que le personnage du roman de Jonathan Coe, La vie très privée de Mr Sim, tombe lui aussi, à force de solitude, amoureux de la voix de son GPS, on ne peut que se dire que le chagrin d’amour est un carburant efficace pour mettre en route l’idiome intentionnel.

[2] Le Seuil, 1977, p. 87.

[3] Dans sa publication intitulée « Computing machinery and intelligence»,  Mind ,vol. 59, no 236,‎ octobre 1950, p. 433-460, Alan Turing proposait un test mettant en confrontation verbale un être humain et un ordinateur. Si l’homme engageant la conversation n’était pas capable de discerner lequel des deux interlocuteurs était une machine, alors on pouvait considérer que le logiciel avait passé le test avec succès.

[4] « The Singularity: A Philosophical Analysis », Journal of Consciousness Studies 17:7-65, 2010.

[5] The Singularity: A Reply, P. 13.http://consc.net/papers/singreply.pdf

[6] « On voit mal pourquoi les ordinateurs devraient être en plus mauvaise posture que les cerveaux » pour donner lieu à la conscience, écrit Chalmers dans L’esprit conscient, page 430.

[7] http://www.kurzweilai.net/a-review-of-her-by-ray-kurzweil

[8] Traité d’ontologie pour les non-philosophes (et les philosophes),Gallimard, 2009, p. 298.

Lien Permanent pour cet article : http://www.francoisloth.com/her-scarlett-johansson-a-un-probleme-didentite-personnelle/

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.