D'où parlez-vous  ?

HOMO NUMERICUS. Les machines nous parlent et comprennent de mieux en mieux ce que nous disons et ce que nous sommes, au point de devenir de redoutables instruments de manipulation. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.
Philippe Boyer
Photo d'illustration : lors du Web Summit, à Barcelone, le 3 novembre 2021, Charlie Caper, directeur de la création de la startup suédoise Furhat Robotics, fait une démonstration de son robot social, dont l'interface humanoïde réaliste intègre un moteur d'intelligence artificielle conversationnelle.
Photo d'illustration : lors du Web Summit, à Barcelone, le 3 novembre 2021, Charlie Caper, directeur de la création de la startup suédoise Furhat Robotics, fait une démonstration de son robot social, dont l'interface humanoïde réaliste intègre un moteur d'intelligence artificielle conversationnelle. (Crédits : Reuters)

Si vous croisez une camionnette blanche sur laquelle s'étalent de grandes lettres rouges qui forment les mots « Écouter-parler »[1], ne vous méprenez pas. Il ne s'agit pas d'un véhicule de l'Assurance maladie en charge de dépister des troubles auditifs de la population. Ici, ceux qui entrent dans ce véhicule affrété par le CNRS (Centre national de la recherche scientifique) et le ministère de la Culture, n'ont qu'une seule chose à faire : parler !

mobile language laboratory, DGLFLF, CNRS

[« Écouter-Parler », le laboratoire mobile des langues qui sillonne le territoire pour faire le portrait sonore de la France. Crédit : Toutenkamion]

Peu importe du sujet car, l'essentiel, c'est de prononcer le plus de mots possibles afin que les langues et accents de nos régions soient enregistrées. L'objectif de cette étude est de recenser et d'enregistrer cette mosaïque sonore faite de dialectes et d'accents qui peuplent notre pays.

Mais, alors qu'ici on cherche à les préserver, ailleurs, grâce à la technologie, on tente de les gommer.

Travestir les accents pour supprimer leurs effets parfois disqualifiants

Parce que la parole des personnes qui ont un accent est parfois disqualifiée, voire moquée, le recours à des programmes spécialisés fabriqués à base d'intelligence artificielle (IA) et d'algorithmes s'avère être la solution pour qui voudrait atténuer ces intonations linguistiques.

Aux États-Unis, plusieurs éditeurs de logiciels, dont la société Sanas[2], commercialisent déjà une IA capable « d'occidentaliser » les langues, c'est-à-dire de travestir un accent natif en un autre afin de persuader l'interlocuteur qu'il s'adresse à un de ses concitoyens.

Prioritairement destinée aux centres d'appels situés en Afrique ou en Asie, cette technologie efface les accents des téléconseillers : un stratagème utile pour faire retomber la pression face à des clients acariâtres qui reprochent aux téléconseillers de baragouiner leur langue. Dans une vidéo[3], un brin caricaturale, Sanas explique que, selon lui, le « son du futur » est celui d'un algorithme gommant un accent indien pour le transformer en voix américaine de la région de Boston.

Percer les mystères du langage

Transformer une voix est une chose, mais plonger dans la compréhension des mots et des phrases en est une autre. Dans ce domaine, les avancées de l'IA sont spectaculaires. Connue sous l'acronyme de NLU (Natural Language Understanding ou compréhension du langage naturel), cette branche de l'IA ne vise rien moins que d'identifier les intentions d'un écrit ou d'un énoncé, à la différence du NLP (Natural Language Processing ou traitement naturel du langage) qui, elle, s'emploie à « simplement », serait-on tenté de dire, interpréter les écrits ou conversations orales humaines.

Dit autrement, si le NLP s'attache à comprendre le sens le plus évident d'un propos, le NLU s'attache quant à lui à déceler le sens caché d'un propos ou d'un texte. Surface pour l'un, profondeur pour l'autre, pourrait-on résumer pour ces deux technologies d'IA biberonnées à un très grand nombre de données permettant ainsi d'établir des corrélations statistiques entre des mots ou groupes de mots, pour que ce tout approche la compréhension du langage humain tel que nous le pratiquons depuis qu'Homo Sapiens a prononcé ses premiers phonèmes il y a entre 350.000 ans et 150.000 ans.

Dans les faits, les usages de ces technologies « NLU » et « NPL » sont d'ores et déjà très nombreuses. Ici, la détection d'opinions, sentiments, émotions ou informations avant ou après un achat, et donc la perception que des clients ont d'une marque au moyen de l'analyse très fine des avis publiés en ligne, là, la mise au point de capacités conversationnelles dignes de vrais humains à destination d'agents conversationnels (chatbots) ou encore la revue automatisée de documents techniques, évitant en cela les risques d'erreurs de lecture ou de compréhension.

« Putaing cong »

GPS, assistants vocaux, à l'instar de Siri ou d'Alexa, agents conversationnels... les concepteurs de ces technologies capitalisent sur nos cinq sens, et en particulier le langage, pour développer des machines capables d'interagir le plus naturellement possible avec les humains.

Sans que l'on s'en rende vraiment compte, ce confort à un prix, celui de notre liberté, du fait que nous nous résignons souvent à suivre les avis de la machine comme si elle était notre égale.

Dans cette guerre que l'Homme se livre à lui-même en produisant des machines toujours plus perfectionnées, ces dernières certes facilitent nos vies, mais, revers de la médaille, tendent à nous déposséder de notre libre arbitre : GPS nous guidant de sa voix suave, enceintes connectées nous prodiguant des conseils avisés - parfois non dénués d'arrière-pensées commerciales -, agents conversationnels aux petits soins pour guider le client... le moins que l'on puisse dire, c'est que l'on s'habitue à ces machines qui savent nous parler.

Mais quiconque désire maintenir sa liberté doit se rappeler de ne pas tout révéler à la machine, à moins que cela se fasse avec un fort et vrai accent de nos régions. Parions alors que l'intelligence artificielle abandonnera la partie en renonçant à analyser ce « Putaing cong », cher aux Toulousains, qui ne fait pas partie de ses algorithmes d'apprentissage.

__

NOTES

1 https://ecouter-parler.fr/

2 https://www.sanas.ai/

3 https://youtu.be/ur28EpG9CR0

Philippe Boyer

Sujets les + lus

|

Sujets les + commentés

Commentaire 1
à écrit le 22/11/2022 à 8:43
Signaler
les ordinateurs ne parlent pas et ne comprennent rien, ils calculent....calculer une derivee partielle dans un modele lstm ou gru, c'est pas de la comprehension......apres, la reconnaissance vocale c'est bien, les chatbots c'est bien, mais la realite...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.