Humain, trop humain

OPINION. Les assistants vocaux et autres « chatbots » envahissent notre quotidien. Ces robots au petit soin pour les humains sont conçus pour que l'interaction homme-machine soit la plus naturelle. La tentation est grande de penser que la machine éprouve des émotions, sans parler d'avoir soi-même des émotions pour « elle ». Par Philippe Boyer, directeur de l’innovation à Covivio (*).
Philippe Boyer
Philippe Boyer.
Philippe Boyer. (Crédits : DR)

Moi : « Et tu as de l'humour ? »

La machine : « C'est gentil de t'intéresser à moi, mais comme toi, j'aime cultiver mon jardin secret... »

L'illusion était presque parfaite. En m'indiquant qu'il se sentait sincèrement touché par cette question, certes un brin personnelle, mais qu'il préférait ne pas en dire plus pour ne pas dévoiler son intimité, il était impossible de se douter que sous cette banale conversation se cachait en fait un amas de circuits électriques et de silicone ayant été programmé pour dialoguer avec moi. Mon interlocuteur avait presque toutes les caractéristiques d'une vraie personne, jusqu'à un certain sens de l'humour. Sauf que celui-ci n'était en fait qu'une intelligence artificielle ou, plus précisément, un robot conversationnel (chabot), en l'occurrence celui de Oui SNCF(1), programmé pour répondre aux multiples questions de clients à la recherche de renseignements sur leurs futurs voyages.

La conversation avec une machine, parabole de la solitude

Si c'est en grande partie grâce à l'essor de l'intelligence artificielle couplée à la puissance des machines que nous pouvons à présent dialoguer avec des machines via la voix, l'image ou encore le texte, cette interaction Hommes-machines nous fait presque oublier que ces objets interactifs, capables de comprendre nos questions, voire de ressentir nos sentiments, ne sont en rien proches de notre espèce. Bien sûr, la science-fiction s'est essayée à imaginer cette empathie émotionnelle du robot vers l'Homme. Le film Her, de Spike Jonze, met en scène une intelligence artificielle capable de décrypter les phrase du héros, jusqu'à ses intonations, ses gestes, ses mimiques, pour en déduire, grâce à ses algorithmes sophistiqués, son état mental et ses attentes. Parabole de la solitude des humains face aux machines, le personnage principal pense jusqu'au bout converser avec une «personne » immatérielle, bienveillante, mais en réalité, il ne converse qu'avec lui-même. De plus en plus, notre perception d'un objet dépend de notre façon d'interagir avec lui. Au quotidien, nous parlons à nos objets exactement de la même façon que nous nous adressons à des personnes : « Dis Siri, quel temps fait-il ? »

Les apparences sont trompeuses

Cette situation n'a rien de magique. Elle est le résultat d'une nouvelle combinaison de savoir-faire entre scientifiques qui travaillent sur l'accroissement de la puissance des machines et d'autres, dont le métier est de faire parler nos objets connectés. Qu'on les désigne par « psydesigner », « UXcopywriter », voire « egoteller », ces « professionnels de la conversation », à mi-chemin entre scénaristes TV et écrivains, sont recrutés par les GAFA et les start-up dans le but d'élaborer la personnalité linguistique des assistants personnels. Au quotidien, ils ont pour tâche de créer l'illusion parfaite d'une empathie spontanée afin que des personnes se sentent émotionnellement engagées envers une machine à apparence humaine.

Dialoguistes pour machines

A la façon d'un souffleur au théâtre, ces dialoguistes pour machines façonnent les liens qui unissent, le temps d'un dialogue, l'Homme et la machine. Le choix des mots et la façon dont les phrases vont être dites ou écrites est capital car, il s'agit de faire en sorte que l'ensemble « sonne » parfaitement humain grâce à une trame d'interactions ultra-précise et aussi complexe qu'un vrai dialogue qui mêlerait hésitations, humour, interrogations... En l'absence d'anthropomorphisme physique de la machine, c'est à ces conditions que l'illusion se fera jusqu'à faire croire que les machines ont des sentiments, voire de réelles personnalités.

Empathie émotionnelle de l'Homme vers le robot

Si ces assistants personnels sont d'abord conçus pour créer une interaction homme-machine dans un langage qui soit le plus naturel possible, il revient aux dialoguistes de rendre ces échanges à la fois vrais et crédibles. Plus que de simplement parler en langage naturel, l'enjeu étant avant tout de paraître humain. Les récents développements de Google Duplex qui passe des coups de fil à la place des utilisateurs(2), démontrent que toutes les dimensions de l'écrit et de l'oral sont désormais intégrées au corpus numérique qui nourrissent ces assistants personnels. L'enjeu premier étant de parvenir à humaniser la relation en créant un échange spontané. Ce piège tendu par cette machine « humaine, trop humaine » nous plonge dans une forme d'empathie spontanée. Face à un robot qui simulera les émotions humaines, la tentation sera grande de penser que la machine, elle aussi, éprouve des émotions, sans parler que nous-mêmes éprouvions des émotions pour « elle ». Ce phénomène ne date pas d'hier. Il remonte à la fin des années 60 quand, le scientifique Joseph Weizenbaum(3), du MIT (Massachusetts Institute of Technology), mis au point « Eliza », un agent conversationnel capable de simuler un psychothérapeute en reformulant la plupart des affirmations du « patient ». Après quelques échanges, ce dernier développa une forme d'empathie spontanée envers Eliza du fait qu'elle lui paraissait comme parfaitement humaine.

Face à ces machines programmées pour, sous peu, détecter la moindre de nos émotions, il est urgent que nous apprenions à vivre avec ces robots et, plus fondamentalement, que nous pensions autrement notre rapport à ces machines. Ne pas se plier à cet exercice se serait se mettre en danger, c'est-à-dire renoncer à notre libre arbitre au profit d'une machine qui puisse ou qui, « en conscience », veuille un jour entièrement nous contrôler.

___

NOTES

1 https://www.oui.sncf/bot

2 https://www.latribune.fr/technos-medias/intelligence-artificielle-quand-google-veut-imiter-les-humains-777961.html

3 https://fr.wikipedia.org/wiki/Joseph_Weizenbaum

___

A PROPOS DE L'AUTEUR

(*) Philippe Boyer est directeur de l'innovation à Covivio (le nouveau nom de Foncière des régions).

Philippe Boyer

Sujets les + lus

|

Sujets les + commentés

Commentaires 2
à écrit le 13/02/2019 à 9:57
Signaler
Quand on pique le titre d'un des plus grands penseurs de l'humanité on fait un minimum d'effort sémantique, le premier degrés c'est franchement limite et on ne censure pas ceux qui vous contredisent en plus... -_- Quelle honte. prochain artic...

à écrit le 13/02/2019 à 9:53
Signaler
On taxe l'homme, mais on ne taxe pas les robots. Qui le comprendra un jour?? Voir la note n°6 du CAE. Il faut répartir les charges sociales (chomage et retraites) sur le travail ET sur l'énergie. Les robots consomment de l'énergie, de même que tous l...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.