Le Canada teste une intelligence artificielle pour détecter les mensonges

Un chercheur américain a mis au point une machine basée sur l'intelligence artificielle pour détecter les mensonges à partir des comportements physiologiques. Si la technologie est encore en phase de test dans les aéroports canadiens, elle pourrait s'étendre à d'autres domaines si cet essai s'avère concluant.
Grégoire Normand
Le robot Avatar s'appuie sur les expressions du visage, le regard et les modulations dans la voix pour détecter les mensonges.

Les robots s'attaquent aux mensonges. L'agence des services frontaliers canadiens teste actuellement une machine d'intelligence artificielle nommée Avatar (pour Automated Virtual Agent for Truth Assessments in Real Time) pour aider les douaniers à contrôler les voyageurs en cas de doute sur leur motivation à venir sur le territoire.

"Avatar est un guichet, comme on en trouve dans les zones d'enregistrement dans un aéroport ou une caisse automatique dans un supermarché" précise le professeur de management des systèmes d'information à l'université de San Diego Aaron Elkins. "Cependant, ce guichet possède un écran facial qui pose des questions aux voyageurs et peut détecter des changements physiologiques ou comportementaux pendant l'interrogatoire. Le système peut détecter des changements dans les yeux, la voix, les gestes et la posture pour déterminer des risques potentiels."

Des questions qui peuvent destabiliser

Le communiqué de l'université qui présente le projet précise que les passagers doivent progresser jusqu'au guichet où des questions telles que "Avez-vous des fruits et des légumes dans vos bagages" ou "Transportez-vous des armes avec vous ?" sont posées. Un logiciel de détection du regard et de mouvements doit contrôler les voyageurs dans leurs réponses et permet de détecter grâce à des capteurs des signes de gêne. Le guichet doit également poser des questions anodines pour savoir si les passagers ne sont pas juste stressés à l'idée de prendre l'avion. Une fois que le robot a détecté des signes, des agents des douanes peuvent procéder à des questions plus approfondies.

aaron

Le professeur Aaron Elkins à l'origine du projet Avatar. Crédits : Christian Hicks

De nombreuses applications concrètes

Elkins a commencé à travailler sur le projet Avatar lorsqu'il il effectuait sa thèse à l'université d'Arizona. Il a poursuivi ces travaux sur l'intelligence artificielle lorsqu'il est devenu professeur assistant à l'université de San Diego récemment. Entre les deux, cette technologie a déjà été testée par l'aéroport de Bucarest en 2014 et à la frontière entre le Mexique et les Etats-Unis. "Nous avons réalisé que cette technologie pouvait être utilisée pour la sécurité aux frontières mais aussi pour le maintien de l'ordre public, les entretiens d'embauche [...] Nous continuons à faire des améliorations en analysant les données collectées par des techniques de big data qui pourrait faire d'Avatar un outil intéressant pour de nombreuses industries," explique l'universitaire. "Le système est entièrement prêt pour aider à endiguer les flux de contrebande, poursuivre les criminels en fuite et détecter les potentiels terroristes."

Une efficacité remise en cause

L'usage de cette technologie suscite des débats relatifs à son efficacité. Aux Etats-Unis, le polygraphe qui mesure la pression sanguine, le rythme cardiaque et respiratoire pendant que la personne doit répondre à des questions est remis en cause. Ces indicateurs devraient refléter "l'expression corporelle du mensonge" comme le souligne la spécialiste des neurosciences Elena Sender dans le magazine Sciences et Avenir. "Néanmoins le lien entre mensonge et émotions d'une part et entre émotions et variables physiologiques d'autre part n'est pas linéaire et de ce fait difficilement prédictible. Sa fiabilité est remise en question", indique Olivier Oullier, professeur de psychologie et neurosciences à l'université d'Aix-Marseille. Si l'intelligence artificielle est déjà utilisée dans les tribunaux américains pour rendre des verdicts, l'usage d'outil tel que Avatar n'est pas encore assez fiable pour être autorisé dans toutes étapes de la procédure judiciaire.

>> Lire aussi : Justice : une intelligence artificielle rend des verdicts semblables à ceux des juges

Grégoire Normand

Sujets les + lus

|

Sujets les + commentés

Commentaire 1
à écrit le 02/01/2017 à 16:09
Signaler
Il fallait bien se douter que le terme "intelligence artificielle" allait rapidement se faire acheter par le secteur marchand, emballer c'est peser.

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.