Vous avez aimé les « infox » ? Vous allez adorer les « Deepfake »

 |   |  944  mots
Philippe Boyer.
Philippe Boyer. (Crédits : Thomas Lainé)
HOMO NUMERICUS. Les images truquées générées par l'intelligence artificielle envahissent le monde numérique au point de ne plus pouvoir démêler le vrai du faux. Et ce n'est sans doute là que le début. Par Philippe Boyer, directeur de l’innovation à Covivio.

La question de savoir si les technologies vont changer le monde est depuis longtemps dépassée. La réponse est évidemment oui. La vraie question est plutôt de savoir si nous piloterons ce changement ou si nous le subirons. En d'autres termes, si nous serons les bénéficiaires de cette révolution numérique ou si nous deviendrons ses esclaves

À cette interrogation qui n'en finit pas d'opposer thuriféraires et collapsologues du numérique, l'un des enjeux porte sur la notion de vérité. Avec la percée de l'intelligence artificielle, le « vrai » se trouve battu en brèche dans des proportions jamais atteintes par le passé. Certes, on objectera qu'il y a toujours eu des faussaires qui ont réalisé de faux tableaux, de faux billets de banque ou encore de faux bijoux, mais avec le numérique, le faux a trouvé un allié de choix, en particulier avec les Deepfake.

Faire passer le faux pour le vrai

Contraction des termes anglais « Deep Learning » pour « apprentissage profond » et « fake » pour « truqué », les Deepfake sont apparues à partir de 2017 sous forme d'applications en apparence ludiques mais qui recouvrent une réalité inquiétante : l'usage de l'intelligence artificielle pour créer une vidéo qui met en scène un personnage en train de dire ou de faire quelque chose qu'il n'a jamais dit ou fait. YouTube1 regorge d'exemples où l'on voit notamment des chefs d'État tenir des propos qu'ils n'ont jamais prononcés. D'abord exploités pour créer des contenus pornographiques à base de fausses images ou vidéos - l'application DeepNude2, aujourd'hui fermée, utilisait l'intelligence artificielle pour créer des photos de femmes nues sans leur consentement - les deepfake ont cette redoutable capacité de nuisance, comme si le passé et le présent pouvaient être réécrits à l'infini en trompant tous nos sens.

Algorithmes d'apprentissage

Pour réaliser de tels trucages vidéo plus vrais que nature, les chercheurs en intelligence artificielle ont créé des « réseaux antagonistes génératifs » (en anglais, « generative adversarial networks » aussi connus sous l'acronyme « GAN »). « Schématiquement, le principe consiste à faire interagir deux algorithmes. L'un, essaie de créer un contenu (image, son, vidéo) censé ressembler à un contenu qu'un second algorithme a appris à reconnaître. Tant que le premier ne produit pas quelque chose qui trompe le second, ce dernier refuse le contenu en question. Le premier reprenant alors son "travail" en essayant de s'améliorer. Un aller-retour se met ainsi en place entre les deux algorithmes, sans intervention humaine, et ce jusqu'à l'obtention d'un équilibre ou le second algorithme est incapable de distinguer le vrai du faux. » explique Gérard Biau3, professeur à Sorbonne Université et directeur du Centre d'intelligence artificielle de cet établissement. Un cran plus loin, et pour aboutir à ces résultats époustouflants, les chercheurs ont développé une variante qui intègre dans la transformation de la vidéo initiale non seulement les caractéristiques spatiales mais également de nombreux autres paramètres liés au contexte ; le tout permettant d'obtenir un mimétisme presque parfait tant du rythme que des mouvements d'une image à l'autre.

Scénario cauchemardesque

Nul besoin d'une imagination débridée pour imaginer les impacts de la généralisation de ces deepfake. Si, pour certaines industries -le cinéma, par exemple pour des films ayant recours aux effets spéciaux et aux animations anthropomorphiques - cette technologie parait appropriée, les deepfake peuvent devenir de redoutables armes de propagande, sortes d'infox (fake news en anglais) puissance dix dès lors qu'elle sera utilisée à des fins de manipulation politique, de diffusion de fausses informations ou de vidéos offensantes qui utilisent le visage de personnes connues ou anonymes.

Gouvernance démocratique des pays

Les autorités politiques n'ont pas attendu pour réagir. Aux Etats-Unis, le House Intelligence Committee américain4, commission du Congrès des États-Unis en charge de surveiller les activités des agences de renseignement, avait estimé que « les deepfake soulèvent de graves questions liées à la sécurité nationale et à la gouvernance démocratique, avec des individus et électeurs qui ne peuvent plus faire confiance à leurs propres yeux ou oreilles lorsqu'ils évaluent l'authenticité de ce qu'ils voient sur leurs écrans ». Le président de la commission Adam Schiff soulignant que la propagation de ces vidéos manipulées représentait un scénario « cauchemardesque » pour les élections présidentielles de 2020, et d'exhorter les principaux réseaux sociaux à mettre en place des politiques destinées à protéger leurs utilisateurs des fausses informations. Même préoccupation en France dans le rapport parlementaire relatif à la lutte contre la manipulation de l'information publié l'année dernière5 : « La fausse information peut aujourd'hui être aisément fabriquée par n'importe quelle personne, les capacités de création de fausses informations ayant été démultipliées par les possibilités offertes par les technologies actuelles pour forger des faux de plus en plus crédibles. » précise le rapport dans ses pages introductives.

Comme souvent, la sagesse Antique avait vu juste. Socrate en particulier quand il résumait les trois grandes questions à l'origine de la philosophie : « Qu'est-ce qui est vrai ? », « Qu'est-ce qui est bon ? » et « Qu'est-ce qui est bien ? ». Ces trois questionnements fondamentaux n'ayant pas pris une seule ride, voire, sont devenus des questions plus contemporaines que jamais auxquelles notre monde numérisé doit répondre.

____

NOTES

1 https://www.youtube.com/watch?v=NbedWhzx1rs

2 https://www.cosmopolitan.fr/une-application-qui-deshabille-en-un-clic-les-femmes-cree-le-scandale,2030419.asp

3 http://www.lpsm.paris/pageperso/biau/

4 https://www.c-span.org/video/?461679-1/house-intelligence-committee-hearing-deepfake-videos

5 http://www.assemblee-nationale.fr/15/pdf/rapports/r0990.pdf

___

POUR ALLER PLUS LOIN

Twitter https://twitter.com/Boyer_Ph

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 15/10/2019 à 14:17 :
A lire le titre il y aurait l'IA d'un coté et le numérique de l'autre…ou c'est de l'incompétence, ou de l'intox, car ce que l'on appelle abusivement IA n'est qu'une application du numérique. L'Intelligence n'y a pas grand chose à voir, peut-être celle du programmeur?
a écrit le 15/10/2019 à 12:49 :
Tout cela va aboutir a une méfiance vis a vis de toute les déclarations visant a lutter contre les infox!
a écrit le 15/10/2019 à 9:50 :
A force de manipulation, la méfiance à l'égard des médias, des réseaux sociaux, de tout canal d'information s'accentue tous les jours. Il est désormais impossible de démêler le vrai du faux et le faux bien réalisé est plus agréable à entendre, à voir. Il est là pour flatter nos instincts les moins avouables. Il est toujours plus facile de hurler avec les loups.
Difficile de ne pas se faire avoir, c'est usant de devoir tout suspecter. Reste la solution de ne plus s'informer, rejetter en bloc les réseaux sociaux, les chaînes d'information en continu, et se méfier de la presse écrite.
La démocratie est vraiment mal en point. Pour les générations futures, seule l'école avec un enseignement adapté pourra leur donner les moyens d'analyse et les clés pour réagir.
a écrit le 15/10/2019 à 9:21 :
"avec des individus et électeurs qui ne peuvent plus faire confiance à leurs propres yeux ou oreilles lorsqu'ils évaluent l'authenticité de ce qu'ils voient sur leurs écrans "

Que les gens apprennent à se méfier de ce qu'ils voient aux travers de TOUS les écrans est plutôt une bonne nouvelle. Il y aura une période de casse auparavant c'est évident mais comme les journalistes feront l'effort d'expliquer que l'image peut-être fausse ou instrumentalisée ce qu'ils n'ont jamais fait avec la télévision alors que technique copieusement utilisée par les propriétaires des médias, les gens pourront enfin apprendre.

Époque difficile pour les manipulateurs de toutes sortes qui s'étaient bien trop endormis sur la tellement efficace capacité manipulatoire de la télévision. La facilité engendrant la peine à penser.

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :