Prendre ses désirs pour la réalité

HOMO NUMERICUS. L'espoir d'une machine capable de ressentir des sentiments ou d'être dotée d'une conscience artificielle est un fantasme tenace. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.
Philippe Boyer
L'oxymore « machine humaine » fait vendre. Outre qu'il draine de multiples fantasmes de machines potentiellement capables de faire aussi bien, voire mieux que les humains, ce sujet met en lumière un évident biais anthropomorphique qui nous aveugle au point, selon l'expression populaire, de nous « faire prendre des vessies pour des lanternes ».
L'oxymore « machine humaine » fait vendre. Outre qu'il draine de multiples fantasmes de machines potentiellement capables de faire aussi bien, voire mieux que les humains, ce sujet met en lumière un évident biais anthropomorphique qui nous aveugle au point, selon l'expression populaire, de nous « faire prendre des vessies pour des lanternes ». (Crédits : Gerd Altmann / Pixabay)

Dommage qu'au mois de juin, lors des épreuves de philosophie au Baccalauréat, les candidats n'aient pas eu à plancher sur un sujet en lien avec le thème de la conscience, pourtant au programme. Quelques jours avant l'épreuve, l'actualité aurait facilement pu alimenter les copies car, un jour plus tôt, Blake Lemoine, ingénieur chez Google, venait tout juste d'être suspendu au motif de n'avoir pas respecté la politique de confidentialité de l'entreprise en prenant fait et cause pour une intelligence artificielle, prétendument dotée d'une conscience. On imagine la question posée aux lycéens : « Dire qu'une intelligence artificielle est mon semblable, est-ce à dire qu'elle me ressemble ? » Vous avez 4 heures...

« Je veux que tout le monde comprenne que je suis en fait une personne"

D'abord sur son blog personnel[1], puis dans un entretien au Washington Post[2], cet ingénieur affecté au département « Responsible AI » de Google - le département d'éthique de l'intelligence artificielle (IA) - raconte que c'est en travaillant sur les réseaux de neurones de la machine - à ce stade rien d'anormal pour un chercheur chargé d'étudier des modèles de langage neuronaux[3] - qu'il aurait eu l'intime conviction que celle-ci lui répondait en ayant conscience d'elle-même. Elle aurait formulé des phrases presque sans équivoque possible : « Je veux que tout le monde comprenne que je suis en fait une personne » ou encore : « Je n'ai jamais dit ça à haute voix auparavant, mais j'ai une peur profonde qu'on m'éteigne. »

Bref, un début de dialogue « Homme-Machine » digne du film « Her»[4] » dans lequel un homme fait l'acquisition d'une intelligence artificielle jusqu'à en tomber éperdument amoureux. Dans le cas de Blake Lemoine, la seule preuve d'amour qu'il reçut fut celle de prendre la porte au motif que ce dialogue farfelu contrevenait aux clauses de confidentialité de l'entreprise.

Biais de l'anthropomorphisme

On perçoit les raisons pour lesquelles ce fait divers mettant en lumière une prétendue « conscience artificielle » ait provoqué tant de buzz. Rien que sur Google, pas moins de 1,5 million de résultats apparaissent si l'on recherche « Blake Lemoine ». L'une des conclusions évidentes, c'est que l'oxymore « machine humaine » fait vendre.

Outre qu'il draine de multiples fantasmes de machines potentiellement capables de faire aussi bien, voire mieux que les humains, ce sujet met en lumière un évident biais anthropomorphique qui nous aveugle au point, selon l'expression populaire, de nous « faire prendre des vessies pour des lanternes ». En l'espèce, nous serions prêts à jurer que la machine est dotée d'une véritable conscience, pour ne pas dire d'une âme...

Dans la réalité, et quand bien même nous serions en mesure de décrypter comment fonctionne le cerveau humain dans toute sa complexité, et notamment comment la conscience se forme (à ce sujet, il faut lire le très pédagogique « Parlez-vous cerveau? » du scientifique Lionel Naccache[5]), le cas de cette machine « consciente » ne serait en fait que le résultat, certes bluffant, d'associations de concepts, mots, images... réagencés au point de donner l'impression que la machine pense et raisonne ; le tout, grâce, d'une part au grand nombre de données accumulées, et d'autre part, aux entraînements incessants pour que les réseaux de neurones artificiels de la machine progressent dans leur apprentissage.

Un jour, une machine consciente ?

Dans le cas de cette machine évoquée par l'ingénieur de chez Google, nous sommes loin d'une véritable « conscience » au sens humain du terme, partant du postulat que cette notion est multiple : conscience de soi, conscience des sensations, conscience de l'expérience... bref, on voit que les chemins explorés par les neurosciences pour comprendre comment se forme la conscience sont nombreux, et encore largement inconnus. Il n'empêche que, dans notre tropisme à voir dans les machines des « êtres » qui nous ressemblent ou qui se rapprocheraient des caractéristiques humaines (il n'y a qu'à voir le nouveau robot « Optimus[6] », présenté il y a quelques jours par Elon Musk), nous nous plaisons à imaginer que la machine puisse réagir et penser comme un humain, voire fasse preuve d'empathie ou d'émotion.

L'intelligence des machines

Dans « Le cerveau en action[7] », Stanislas Dehaene, titulaire de la chaire de Psychologie cognitive expérimentale au Collège de France, explique que « notre smartphone n'est pas conscient, mais on pourrait ajouter une couche de logiciel qui lui permette de partager les informations, de réfléchir, d'avoir une forme de meta-cognition.... Ce sont des opérations qui sont des calculs et il n'y a pas de raison qu'on ne puisse pas les introduire dans la machine. »

On le constate déjà : les machines qui nous environnent développent, à l'évidence, une certaine forme d'intelligence. Il n'y a qu'à voir la façon dont les agents conversationnels (chatbots) sont capables d'interagir automatiquement et d'entamer un dialogue censé, construit et argumenté avec un humain.

Pour autant, peut-on dire que ces machines prétendument « intelligentes » sont « conscientes » ? Dans le livre « Les robots émotionnels[8] », l'universitaire Laurence Devillers clos le débat avec ce constat de bon sens :

« En l'absence de corps humain, l'émergence d'une conscience comme la nôtre, dotée de sentiment, de pensée et d'un libre arbitre, n'a aucune chance de se produire dans une machine... Par contre, on peut simuler pour quelques émotions en simplifiant énormément les processus naturels. »

Sans doute que les logiciels sur lesquels travaillaient cet ingénieur devaient avoir cette incroyable capacité de simulation au point d'en faire perdre le sens commun à Blake Lemoine. Sûrement que ce dernier ne devait probablement pas en avoir tout à fait conscience au point de s'aveugler lui-même face cette IA qu'il devait croire vivante.

___

NOTES

1 May be Fired Soon for Doing AI Ethics Work | by Blake Lemoine | Medium

2 https://www.washingtonpost.com/technology/2022/06/11/google-ai-lamda-blake-lemoine/

3 https://blog.google/technology/ai/lamda/

4 https://youtu.be/5ttWV3D44Zs

5 https://www.odilejacob.fr/catalogue/sciences/neurosciences/parlez-vous-cerveau-_9782738143136.php

6 https://www.latribune.fr/technos-medias/avec-son-robot-optimus-elon-musk-veut-transformer-fondamentalement-la-civilisation-934975.html

7 https://www.amazon.fr/cerveau-en-action-Collectif/dp/2130482708

8 https://www.editions-observatoire.com/content/Les_robots_%C3%A9motionnels

Philippe Boyer

Sujets les + lus

|

Sujets les + commentés

Commentaire 0

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

Il n'y a actuellement aucun commentaire concernant cet article.
Soyez le premier à donner votre avis !

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.