
Peu d'innovations suscitent autant de crainte que la reconnaissance faciale, qui ravive le spectre dystopique de la surveillance généralisée. Avancée technologique aux multiples applications, elle pose de profondes questions éthiques, pour l'intégrité de l'individu et son autonomie vis-à-vis des acteurs politiques et économiques.
Impossible de ne pas penser à la Chine lorsque l'on parle de reconnaissance faciale. Elle fait là-bas déjà partie du quotidien, où elle s'insère dans un système de contrôle généralisé par vidéosurveillance. Elle y permet notamment la mise en œuvre du système de « crédit social », qui permet en temps réel de connaître le degré de civisme de chacun des habitants du pays et de sanctionner les moins vertueux. Dans la ville de Shenzhen, l'identité des piétons qui traversent au feu rouge s'affiche sur un écran géant et ne s'efface qu'une fois l'amende payée. La Chine est le leader mondial des technologies de reconnaissance faciale, qu'elle exporte déjà dans le monde entier, y compris aux régimes les moins scrupuleux.
Un marché en pleine expansion
Le marché est en pleine expansion. Il a augmenté de 20% par an ces trois dernières années, dominé par les entreprises chinoises, japonaises et américaines. Comme trop souvent, les entreprises européennes sont à la traîne. La reconnaissance faciale connaît des usages nombreux et variés. Dans le domaine commercial, on se sert déjà de son visage pour déverrouiller son smartphone et, demain peut-être, pour payer en ligne. La reconnaissance faciale permet aussi de passer le contrôle d'identité dans les aéroports. Certains rêvent même de l'utiliser pour identifier des individus en temps réel dans une foule et déjouer ainsi par avance des attentats terroristes.
Ce dernier exemple permet de mieux cerner les différences fondamentales qui existent entre les usages de la reconnaissance faciale, entre l'identification et l'authentification. Il s'agit, dans le premier cas, de vérifier l'identité de quelqu'un, en comparant l'image prise avec celle figurant par exemple sur le passeport. Utilisée avec les garde-fous nécessaires en termes de stockage des données, une telle application suscite des problèmes limités et pourrait grandement contribuer à la lutte contre la fraude et l'usurpation. L'authentification, à l'inverse, qui permet de retrouver l'identité de quelqu'un dont le visage a été capté par un panneau publicitaire ou une caméra de vidéosurveillance, pose de plus grandes questions. Elle nécessite de comparer le visage à ceux figurant dans une banque de données préexistante, sans l'accord de la personne visée. C'est ici que les risques d'atteinte aux libertés fondamentales sont les plus grands.
Cadre juridique rigide
Avec le Règlement général sur la protection des données (RGPD), la France dispose d'un cadre juridique rigide, mais paradoxalement pas suffisamment protecteur. Celui-ci exige le consentement des intéressés pour tout traitement de données personnelles, ou bien l'existence d'une nécessité publique. C'est cette dernière possibilité que les pouvoirs publics tentent d'exploiter avec plus ou moins de succès, mais les opérateurs économiques restent pour le moment encore frileux. Tout en restant fidèle à nos principes, gare à ne pas laisser complètement passer le train de la reconnaissance faciale, d'autant que les chercheurs et entreprises françaises sont considérés comme parmi les meilleurs du monde. Faute d'une vision claire, les expérimentations se multiplient de manière disparate.
Plutôt que d'une politique des petits pas et du fait accompli, il est nécessaire d'engager un vrai débat démocratique et une réflexion philosophique d'ampleur sur cette question. Le visage est ce que l'individu a de plus précieux et son utilisation n'est pas anodine. Comme ne l'est pas la tentation actuelle de procéder par la reconnaissance faciale à l'analyse des émotions, confiant à une intelligence artificielle le soin d'interpréter nos expressions. Il y a là, comme le dit l'anthropologue David Le Breton, « un fantasme de maîtrise qui occulte la complexité de la condition humaine ».
Circuler incognito
On pourra se rassurer en relevant que la technologie est loin d'être aboutie. Très performante dans des conditions d'exposition idéales, la machine connaît des difficultés lorsque la lumière n'est pas suffisante ou l'angle pas le bon. Plus fondamentalement, il est bien plus aisé que l'on croit de l'induire en erreur : maquillage, port de la barbe ou vieillissement. Sans compter que la crise sanitaire a mis le masque sur le devant de la scène, où il pourrait bien rester encore de longues années. Circuler incognito a donc de beaux jours devant lui. Il reste encore le temps de poser sereinement les termes du débat afin de faire le meilleur usage de cette technologie naissante et inquiétante, mais aussi prometteuse.
Tout du moins aux États-Unis, où un rapport du National Institute of Standards and Technology (NIST), un centre d'expertise affilié au gouvernement, pointe du doigt les trop nombreuses erreurs d'identification qui sont commises.
Selon les chercheurs du NIST, ces systèmes de reconnaissance ne sont pas très fiables dès lors qu'il s'agit d'identifier de personnes non blanches. Cette technologie identifierait fautivement les personnes asiatiques ou noires 100 fois plus souvent que les personnes blanches, selon cette étude qui a analysé des dizaines d'algorithmes.Pour parvenir à cette conclusion, les chercheurs du NIST ont étudié le fonctionnement de 189 algorithmes , principalement développés par l'industrie, et ont utilisé une base de données contenant 18,3 millions d'images de 8,5 millions de personnes.
Il en ressort notamment que les algorithmes développés aux Etats-Unis sont ceux qui présentent des taux d'erreur plus élevés pour les Asiatiques, les Afro-Américains et les Amérindiens. Les auteurs de cette étude ont même repéré deux algorithmes qui attribuaient le mauvais sexe à des femmes noires dans 35 % des cas.En comparaison, ceux conçus dans des pays d'Asie ne présentent pas ce type de biais et parviennent à identifier bien plus facilement aussi bien les visages asiatiques que blancs.
Un exemple concret, entre autres, les aéroports se préparent tous à vous obliger (évidemment au début c'est sur la base du volontariat) mais rapidement à l'image de ce qui s'est passé sur les bagages cela deviendra une obligation de tout faire avec votre visage.
Cela commencera par le passage aux frontières avec le système EES european entry exit system, 480M€ quand même.... opéré par eu-LISA, développé par Idemia, Accenture, Sopra Steria. Cela se poursuivra j'en suis certain par les compagnies aériennes aidées d'un tas d'industriels pour nous suivre, nous analyser, tout savoir de nous. Vous serez un honnête homme obligatoirement suspect et une valeur pour le marchande...
une start up francaise avait developpe une solution pour une ville americaine ( los angeles, je crois)
en un an, pas un seul malfrat n'a ete identifie comme entrant en ville; ni a pied ni a moto ni en voiture
quand on sait comment ca marche, on sait pourquoi
l'intelligence artificielle fliquera parfaitement tous les gens honnetes
faudra vite comprendre comment on peut les leurrer...
De quel droit balayez vous cet argument normalement alarmant ?