Reconnaissance faciale : un débat utile et nécessaire

 |  | 816 mots
Lecture 4 min.
Jean-Michel Arnaud.
Jean-Michel Arnaud. (Crédits : DR)
OPINION. La reconnaissance faciale est un marché en pleine expansion sur lequel l'Europe n'est pas suffisamment présente. Pour éviter de tomber dans un fantasme orwellien, il est nécessaire et urgent de mener une réflexion pour encadrer juridiquement ses usages. Par Jean-Michel Arnaud, Vice-président de Publicis Consultants et Directeur des publications de l'Abécédaire des institutions.

Peu d'innovations suscitent autant de crainte que la reconnaissance faciale, qui ravive le spectre dystopique de la surveillance généralisée. Avancée technologique aux multiples applications, elle pose de profondes questions éthiques, pour l'intégrité de l'individu et son autonomie vis-à-vis des acteurs politiques et économiques.

Impossible de ne pas penser à la Chine lorsque l'on parle de reconnaissance faciale. Elle fait là-bas déjà partie du quotidien, où elle s'insère dans un système de contrôle généralisé par vidéosurveillance. Elle y permet notamment la mise en œuvre du système de « crédit social », qui permet en temps réel de connaître le degré de civisme de chacun des habitants du pays et de sanctionner les moins vertueux. Dans la ville de Shenzhen, l'identité des piétons qui traversent au feu rouge s'affiche sur un écran géant et ne s'efface qu'une fois l'amende payée. La Chine est le leader mondial des technologies de reconnaissance faciale, qu'elle exporte déjà dans le monde entier, y compris aux régimes les moins scrupuleux.

Un marché en pleine expansion

Le marché est en pleine expansion. Il a augmenté de 20% par an ces trois dernières années, dominé par les entreprises chinoises, japonaises et américaines. Comme trop souvent, les entreprises européennes sont à la traîne. La reconnaissance faciale connaît des usages nombreux et variés. Dans le domaine commercial, on se sert déjà de son visage pour déverrouiller son smartphone et, demain peut-être, pour payer en ligne. La reconnaissance faciale permet aussi de passer le contrôle d'identité dans les aéroports. Certains rêvent même de l'utiliser pour identifier des individus en temps réel dans une foule et déjouer ainsi par avance des attentats terroristes.

Ce dernier exemple permet de mieux cerner les différences fondamentales qui existent entre les usages de la reconnaissance faciale, entre l'identification et l'authentification. Il s'agit, dans le premier cas, de vérifier l'identité de quelqu'un, en comparant l'image prise avec celle figurant par exemple sur le passeport. Utilisée avec les garde-fous nécessaires en termes de stockage des données, une telle application suscite des problèmes limités et pourrait grandement contribuer à la lutte contre la fraude et l'usurpation. L'authentification, à l'inverse, qui permet de retrouver l'identité de quelqu'un dont le visage a été capté par un panneau publicitaire ou une caméra de vidéosurveillance, pose de plus grandes questions. Elle nécessite de comparer le visage à ceux figurant dans une banque de données préexistante, sans l'accord de la personne visée. C'est ici que les risques d'atteinte aux libertés fondamentales sont les plus grands.

Cadre juridique rigide

Avec le Règlement général sur la protection des données (RGPD), la France dispose d'un cadre juridique rigide, mais paradoxalement pas suffisamment protecteur. Celui-ci exige le consentement des intéressés pour tout traitement de données personnelles, ou bien l'existence d'une nécessité publique. C'est cette dernière possibilité que les pouvoirs publics tentent d'exploiter avec plus ou moins de succès, mais les opérateurs économiques restent pour le moment encore frileux. Tout en restant fidèle à nos principes, gare à ne pas laisser complètement passer le train de la reconnaissance faciale, d'autant que les chercheurs et entreprises françaises sont considérés comme parmi les meilleurs du monde. Faute d'une vision claire, les expérimentations se multiplient de manière disparate.

Plutôt que d'une politique des petits pas et du fait accompli, il est nécessaire d'engager un vrai débat démocratique et une réflexion philosophique d'ampleur sur cette question. Le visage est ce que l'individu a de plus précieux et son utilisation n'est pas anodine. Comme ne l'est pas la tentation actuelle de procéder par la reconnaissance faciale à l'analyse des émotions, confiant à une intelligence artificielle le soin d'interpréter nos expressions. Il y a là, comme le dit l'anthropologue David Le Breton, « un fantasme de maîtrise qui occulte la complexité de la condition humaine ».

Circuler incognito

On pourra se rassurer en relevant que la technologie est loin d'être aboutie. Très performante dans des conditions d'exposition idéales, la machine connaît des difficultés lorsque la lumière n'est pas suffisante ou l'angle pas le bon. Plus fondamentalement, il est bien plus aisé que l'on croit de l'induire en erreur : maquillage, port de la barbe ou vieillissement. Sans compter que la crise sanitaire a mis le masque sur le devant de la scène, où il pourrait bien rester encore de longues années. Circuler incognito a donc de beaux jours devant lui. Il reste encore le temps de poser sereinement les termes du débat afin de faire le meilleur usage de cette technologie naissante et inquiétante, mais aussi prometteuse.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 28/01/2021 à 18:14 :
Si la reconnaissance faciale s'immisce progressivement dans la vie courante et est de plus en plus utilisée à travers le monde par les autorités, les forces de l'ordre, les aéroports, les banques, les commerces ou bien encore les écoles sur les smartphones, elle est loin d'être parfaite.

Tout du moins aux États-Unis, où un rapport du National Institute of Standards and Technology (NIST), un centre d'expertise affilié au gouvernement, pointe du doigt les trop nombreuses erreurs d'identification qui sont commises.
Selon les chercheurs du NIST, ces systèmes de reconnaissance ne sont pas très fiables dès lors qu'il s'agit d'identifier de personnes non blanches. Cette technologie identifierait fautivement les personnes asiatiques ou noires 100 fois plus souvent que les personnes blanches, selon cette étude qui a analysé des dizaines d'algorithmes.Pour parvenir à cette conclusion, les chercheurs du NIST ont étudié le fonctionnement de 189 algorithmes , principalement développés par l'industrie, et ont utilisé une base de données contenant 18,3 millions d'images de 8,5 millions de personnes.

Il en ressort notamment que les algorithmes développés aux Etats-Unis sont ceux qui présentent des taux d'erreur plus élevés pour les Asiatiques, les Afro-Américains et les Amérindiens. Les auteurs de cette étude ont même repéré deux algorithmes qui attribuaient le mauvais sexe à des femmes noires dans 35 % des cas.En comparaison, ceux conçus dans des pays d'Asie ne présentent pas ce type de biais et parviennent à identifier bien plus facilement aussi bien les visages asiatiques que blancs.
a écrit le 28/01/2021 à 14:29 :
24 mois de prisons suite a une reconnaissance faciale en Asie , pour découvrir l’erreur au bout de 24 mois et libérer le citoyen innocent , qui peut toujours courir pour une indemnisation ( perte d’emploi , divorce , perte de garde des enfants , plus de toit )
a écrit le 28/01/2021 à 13:01 :
ANNULE ET REMPLACE : Vous avez inversé identification et authentification. L'identification répond à la question "Qui êtes-vous ?" à partir d'une image captée "à la volée", croisée avec un fichier de profils répertoriés, souvent à notre insu. L'authentification vise à répondre à la question "Êtes-vous bien cette personne ?", quand vous présentez votre passeport biométrique aux portiques PARAFE d'un aéroport par exemple. Les mots ont de l'importance dans ce genre de débat, mélanger les termes favorise - ou témoigne - une mauvaise compréhension.
a écrit le 28/01/2021 à 13:00 :
Vous avez inversé identification et authentification. L'identification répond à la question "Qui êtes-vous ?" à partir d'une image captée "à la volée", croisée avec un fichier de profils répertoriés, souvent à notre insu. L'authentification vise à répondre à la question "Êtes-vous bien cette personne ?", quand vous présentez votre passeport biométrique aux portiques PARAFE d'un aéroport par exemple. Les mots ont de l'importance dans ce genre de débat, mélanger les termes favorise - ou témoigne - d'une mauvaise compréhension.
a écrit le 28/01/2021 à 12:28 :
Résister, refuser, le faire savoir. Les autres commentaires sont très biens vus.
Un exemple concret, entre autres, les aéroports se préparent tous à vous obliger (évidemment au début c'est sur la base du volontariat) mais rapidement à l'image de ce qui s'est passé sur les bagages cela deviendra une obligation de tout faire avec votre visage.
Cela commencera par le passage aux frontières avec le système EES european entry exit system, 480M€ quand même.... opéré par eu-LISA, développé par Idemia, Accenture, Sopra Steria. Cela se poursuivra j'en suis certain par les compagnies aériennes aidées d'un tas d'industriels pour nous suivre, nous analyser, tout savoir de nous. Vous serez un honnête homme obligatoirement suspect et une valeur pour le marchande...
a écrit le 28/01/2021 à 11:04 :
Reconnaissance faciale avec masque obligatoire! Une société humaine ne se forme que s'il y a une confiance réciproque mais quand c'est de l'élevage tout passe par la surveillance!
a écrit le 28/01/2021 à 10:49 :
les reseaux convolutifs ca marche avec les photos facebook, ou sur cifar
une start up francaise avait developpe une solution pour une ville americaine ( los angeles, je crois)
en un an, pas un seul malfrat n'a ete identifie comme entrant en ville; ni a pied ni a moto ni en voiture
quand on sait comment ca marche, on sait pourquoi
l'intelligence artificielle fliquera parfaitement tous les gens honnetes
faudra vite comprendre comment on peut les leurrer...
a écrit le 28/01/2021 à 10:30 :
Politiquement, cela revient à mettre toute le population sous surveillance. Les politiciens qui s'offusquaient autrefois de la "Staatssicherheit" (stasi ex RDA) légalisent en toute impunité un régime encore pire : avec la digitalisation et l'équipement des ménages, les citoyens n'ont plus aucun VRAI espace de liberté (faire ce qu'il nous plait sans que personne ne soit informé - dans le cadre règlementaire s'entend). Toute votre vie peut être décortiquée par l'Etat soit disant de droit, mais non, un Etat de droit, c'est justement un équilibre entre la force publique et les citoyens. Cet équilibre a volé en éclat sous les socialistes, entretenu par la droite et la rem : tout les textes de loi visent à contraindre les citoyens à tout accepter en fermant (excuser l'expression) sa gueule, c'est pire que les régimes totalitaires : au moins avec eux les objectifs et conséquences sont bien identifiés. Sous notre 5ème "République", le pouvoir s'évertue sans cesse à mettre la pression sur les travailleurs et les obligations des citoyens, sans aucune contre partie.... En un mot, lamentable.
a écrit le 28/01/2021 à 8:26 :
Article plus qu'incomplet car ne pas mentionner l'interdiction de la Californie de ce moyen de surveillance par les policiers du fait de son racisme prouvé parce que technologie insuffisamment maitrisée est de la malhonneteté, à l'ère d'internet on aimerait quand même des analyses un minimum plus riches, merci.

De quel droit balayez vous cet argument normalement alarmant ?

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :