Face à face

 |  | 1180 mots
Lecture 7 min.
Paradoxe des paradoxes, ce sont les prophètes de la technologie qui mettent en garde contre les risques de la reconnaissance faciale. En effet, pour le meilleur, cette technologie (aidée par l'IA) permet une sécurisation bien plus efficace que les mots de passe. Et pour le pire : la potentielle surveillance généralisée de la population.
Paradoxe des paradoxes, ce sont les prophètes de la technologie qui mettent en garde contre les risques de la reconnaissance faciale. En effet, pour le meilleur, cette technologie (aidée par l'IA) permet une sécurisation bien plus efficace que les mots de passe. Et pour le pire : la potentielle surveillance généralisée de la population. (Crédits : TBIT/via Pixabay (CC0 Creative Commons))
HOMO NUMERICUS. Les technologies de reconnaissance faciale suscitent de nombreuses inquiétudes. Face à cette situation, il revient aux Etats de tracer leurs propres « lignes rouges ». Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.

C'est désormais officiel : Alicem fera partie de nos vies. Non, il ne s'agit pas d'un énième robot domestique que l'on trouvera au pied du sapin ou d'un nouvel assistant vocal, façon Alexa, mais de l'application de reconnaissance faciale portée par le ministère de l'Intérieur et l'Agence nationale des titres sécurisés (ANTS). Dans un avis paru le 4 novembre dernier[1], le Conseil d'État a rejeté le recours déposé par l'association La Quadrature du Net[2] contre le système Alicem (acronyme pour «Authentification en LIgne CErtifiée sur Mobile») qui, dans quelques mois, fera partie du futur dispositif d'identité numérique que chaque citoyen sera libre d'activer ou pas.

De toutes les technologies presque à la portée de tous, la reconnaissance faciale est de loin la plus clivante. Le débat manichéen est connu. D'un côté, ceux qui ne manquent pas de faire valoir qu'il est temps de généraliser cette technologie, ne serait-ce que pour mieux sécuriser nos villes en proie au terrorisme, voire de se doter d'outils performants contre les fraudes et autres formes d'usurpations d'identité qui se multiplient sur le Net et de l'autre, ceux qui redoutent un régime de contrôle à mi-chemin entre Big Brother et le régime de Pékin.

Argus, Big Brother antique

Ce sujet sensible de la reconnaissance faciale renvoi bien sûr aux craintes liées à la surveillance globale de la société. Comme souvent, les mythes Antiques avaient vu juste : le dieu Grec Argus (ou Argos) était connu comme possédant une centaine d'yeux répartis sur l'ensemble de son corps. Impossible de tromper la vigilance de cette créature. Toujours à l'affut et ne laissant rien échapper à son regard, la mythologie grecque raconte que ce personnage surnommé Panoptes, « celui qui voit tout », était beaucoup plus qu'un simple « veilleur » mais plutôt, et comme par excès de zèle, un hyper-inquisiteur, un « sur-veillant » dont il était impossible de tromper la vigilance. Seul Hermès, messager des dieux, réussira à tromper l'attention d'Argus.

Si l'on voulait transposer ce mythe antique à notre siècle, on pourrait résumer les choses en disant qu'avec la reconnaissance faciale, Argus (les caméras) et Hermès (la communication, les réseaux) ont décidé de joindre leurs extraordinaires pouvoirs au service d'une cause commune : la surveillance au moyen de la reconnaissance faciale. Pour le meilleur, cette technologie (aidée en cela par l'intelligence artificielle) permet une sécurisation bien plus efficace que les mots de passe. Et pour le pire : la potentielle surveillance généralisée de la population.

Entre appels à ralentir et espoirs de déploiement

Paradoxe des paradoxes, ce sont les prophètes de la technologie qui mettent en garde contre les risques de la reconnaissance faciale. En janvier dernier, Sundar Pichai, le patron de Google, indiquait dans une tribune parue dans le Financial Times[3], qu'il appelait de ses vœux la mise en place de standards mondiaux pour encadrer l'utilisation de l'intelligence artificielle utilisée à des fins de reconnaissance faciale.

«Il y a de réelles inquiétudes concernant les potentielles conséquences négatives de l'IA, des deepfakes jusqu'aux utilisations néfastes de la reconnaissance... Des entreprises comme la nôtre ne peuvent pas élaborer de prometteuses nouvelles technologies et laisser les forces du marché décider comment celle-ci va être utilisée .»

Il est vrai que nous n'en sommes encore qu'au début du déploiement à grande échelle de cette technologie qui suscite toujours un grand nombre d'interrogations techniques comme politiques. Sur le premier point, il s'agit de la question de la fiabilité des algorithmes qui pilotent ces programmes de reconnaissance faciale. En l'espèce, il existe une importante littérature scientifique[4] qui relate en détail les insuffisances et les erreurs d'identification qui sont commises par les machines.

En Chine, où la reconnaissance faciale fait partie de l'appareil de surveillance d'Etat, l'épidémie de Covid-19 a montré que les systèmes de caméra s'avéraient être défaillants pour reconnaître les citoyens... bien que cette barrière ait été apparemment déjouée par une société indiquant avoir perfectionné ses algorithmes de façon à reconnaitre les traits de visage d'une personne portant un masque chirurgical[5].

Tracer des « lignes rouges »

Quant aux limites politiques de la reconnaissance faciale, on s'en doute, elles sont nombreuses. Même s'il convient de définir ce dont on parle - ici, distinguer entre les systèmes « d'identification » (certifier l'identité d'une personne) et ceux « d'authentification » (être sûr qu'une personne est celle qu'elle elle prétend être, par exemple, lorsqu'on déverrouille son iPhone grâce à son visage ou quand paye avec son appareil) - ceux qui redoutent la reconnaissance faciale ont à leur portée des arguments de poids allant des progrès des «deep fakes», ces vidéos truquées créées à partir d'enregistrements d'une personne réelle, jusqu'à la généralisation de tels systèmes par des États (Chine) ou des services publics, voire des entreprises.

À chaque fois, pointe le fait qu'il n'y a ni bonne ni mauvaise reconnaissance faciale, mais un usage dévoyé de cette technologie.

Cadrage juridique des expérimentations

En France, la CNIL a permis de dépassionner ce débat complexe sur les enjeux de la reconnaissance faciale en présentant « les éléments techniques, juridiques et éthiques qui doivent être pris en compte dans l'approche de cette question.[6] »

C'est à ce titre qu'elle publia, fin 2019, sa feuille de route sobrement intitulée «Reconnaissance faciale, Pour un débat à la hauteur des enjeux ».

Prioritairement destinée aux pouvoirs publics enclins à lancer de nouvelles expérimentations autour de cette technologie, ce document pose trois exigences, sortes de lignes à ne pas franchir :

  • 1/ tracer de stricts contours avant même tout usage expérimental,
  • 2/ placer le respect des personnes au cœur de toute démarche, et
  • 3/ adopter une démarche sincèrement expérimentale.

Quelques semaines après ce document-repère, la Commission européenne fit de même via un livre blanc dont l'une des conclusions fut de préconiser un moratoire de trois à cinq ans, le temps d'établir « une solide méthodologie d'évaluation des impacts de ces technologies et d'éventuelles mesures de gestion des risques pourraient être identifiées et développées ».

Tiraillée entre les velléités de développement de ces technologies largement promues par les GAFA et le passage à l'acte de régimes qui font de la reconnaissance faciale un véritable outil de contrôle de leurs populations, L'Europe n'avait d'autre choix que de se donner cet instant de raison. Après tout, c'est sur ce continent que tout a commencé, comme si les dieux grecs, Argus et Hermès, vivaient encore parmi nous.

___

NOTES

[1] https://www.conseil-etat.fr/fr/arianeweb/CE/decision/2020-11-04/432656

[2] https://www.laquadrature.net/

[3] https://www.ft.com/content/0e19e81c-3b98-11ea-a01a-bae547046735

[4] https://www.nist.gov/news-events/news/2019/12/nist-study-evaluates-effects-race-age-sex-face-recognition-software

[5] https://www.businessinsider.fr/us/chinese-company-claims-its-facial-recognition-95-accurate-masks-2020-3

[6] https://www.cnil.fr/fr/reconnaissance-faciale-pour-un-debat-la-hauteur-des-enjeux

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 16/11/2020 à 17:03 :
Il y a bien pire encore que la reconnaissance faciale (seule) c'est de la doubler avec la surveillance labiale, ainsi aucune conversation, aucun échange ne pourrait échapper à un big brother.
a écrit le 15/11/2020 à 8:47 :
Ouais enfin on adore montrer du doigt les états unis question utilisation de technologies douteuses n'empêche c'est en France que l'on valide machinalement la reconnaissance faciale alors qu’elle a été interdite en Californie et ce sont également nos politiciens les premiers à nous envoyer des drones non seulement pour nous surveiller mais en plus nous parquer.
a écrit le 14/11/2020 à 9:03 :
Il serait peut être plus intelligent d'enfermer tout le monde et de ne faire sortir que les plus gentils en fin de vie naturellement!

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :