L'intelligence artificielle, accélérateur de « fake news »

Capable de créer des textes et de reproduire des voix à partir d'extraits, l'intelligence artificielle permet aussi de générer des fausses vidéos de personnes existantes, compliquant encore plus la lutte contre les « fausses nouvelles ». Une très inquiétante course de vitesse est en train de se jouer.
François Manens
Dans cette vidéo, le comédien et réalisateur Jordan Peele met en garde le public sur les dangers que représentent les deepfakes.
Dans cette vidéo, le comédien et réalisateur Jordan Peele met en garde le public sur les dangers que représentent les deepfakes. (Crédits : DR)

Sur la vidéo, Barack Obama, en costume, prend la parole depuis son bureau. « Nous entrons dans une ère où nos ennemis peuvent faire croire que n'importe quelle personne peut dire n'importe quoi à n'importe quel moment, prévient-il d'un ton grave. Par exemple, ils pourraient me faire dire "le président Trump est une gigantesque sombre merde". » C'est alors que l'écran se scinde en deux et que le comédien et réalisateur Jordan Peele apparaît, parfaitement synchronisé avec l'image de l'ancien président. Avec cette vidéo postée par Buzzfeed le 17 avril 2018, le cinéaste a voulu prévenir le public sur les dangers des deepfakes, par ailleurs utilisés au cinéma.

« À l'avenir, nous devons être encore plus vigilants sur ce que nous trouvons sur Internet, ou nous allons sombrer dans une sale dystopie », conclut-il.

Derrière le mot-valise deepfake se trouve les termes deeplearning (ou apprentissage profond, une forme d'intelligence artificielle) et fake (faux en anglais).

Les deepfakes permettent, dans leur forme la plus simple, de superposer des images et des vidéos existantes sur d'autres images et vidéos. Dans leur forme la plus avancée, ils peuvent créer un contenu vraisemblable de toutes pièces. Les algorithmes sont entraînés à partir de bases de données importantes, comme par exemple les nombreuses prises de parole télévisées de Barack Obama, pour générer des vidéos avec une reproduction réaliste de sa voix. Dans leur usage premier, au cinéma, Star Wars : Les Derniers Jedi en a par exemple fait usage pour ajouter des dialogues à l'actrice Carrie Fisher, décédée avant la fin du tournage.

Des dégâts dans le "revenge porn"

Côté grand public, le procédé s'est fait connaître en 2016, par le biais du réseau social Reddit. Un utilisateur avait posté un outil rudimentaire de création dedeepfake, destiné à calquer le visage de célébrités, très majoritairement des femmes, sur les corps d'actrices pornographiques.

Pire, une centaine de milliers de participants du forum a rapidement profité du procédé pour du « revenge porn », en incrustant des images d'anciennes compagnes par exemple. Un pseudo affirmait ainsi avoir utilisé 380 photos tirées des comptes Facebook et Instagram d'une ancienne camarade de lycée pour créer une vidéo pornographique. Si ces deepfakes ont pu causer des dégâts, ils n'en restaient pas moins grossiers et donc repérables.

La technologie est complexe et pour l'heure rudimentaire. Il n'existe pour l'instant aucun outil vraiment performant qui rendrait leur usage accessible au grand public, comme une sorte de Photoshop des deepfakes.

Une classe d'algorithmes découverte par un chercheur de Google en 2014

Techniquement, les deepfakes sont créés par des réseaux antagonistes génératifs (ou GANs en anglais pour Generative Adversarial Network), une classe d'algorithmes découverte par un chercheur de Google en 2014. Les GANs se construisent à partir de l'interaction entre deux réseaux neuronaux. Le premier, le générateur, s'inspire de la base de données insérée pour créer des échantillons qui imitent le contenu. Le second réseau, le discriminateur, évalue la qualité de ces échantillons. Ensuite, le générateur affine ses productions en fonction des retours du discriminateur, qui lui-même doit peaufiner ses évaluations, et ainsi commence le cercle vertueux.

Ce procédé permet de créer des images, immobiles comme animées, à grande vitesse et surtout à très grande échelle.

En décembre 2018, des chercheurs de Nvidia ont publié les résultats de leur recherche, un algorithme capable de générer à l'infini des visages réalistes... de personnes qui n'existent pas.(Voir photo ci-dessous. Crédit : Nvidia)

-

Nvidia, visages artificiels, intelligence artificielle, deepfake,

-

Ils ont introduit dans leurs GANs une architecture nouvelle qui distingue trois niveaux de détail (des plus grossiers comme la forme du visage aux plus fins comme la pilosité) sur les visages humains. Grâce à une base de données de 70.000 photos, leur algorithme peut créer toutes sortes de combinaisons de ces trois niveaux.

Mais des nouveautés comme celle de Nvidia surgissent à chaque trimestre. Les ressources allouées à la recherche en intelligence artificielle n'ont jamais été aussi importantes, et la puissance de calcul des ordinateurs ne cesse de progresser grâce à l'utilisation de puces désormais dédiées à l'intelligence artificielle.

De multiples déclinaisons perverses sont à prévoir

« Une capacité de création de deepfakes, destinée au grand public, va rapidement émerger, notamment grâce au marché grandissant du cybercrime comme service sur le Dark Web », préviennent les chercheurs en droit Robert Chesney et Danielle Keats Citron.

Vol d'identité pour accéder à des comptes, abus d'identité pour diffuser des rumeurs, demandes de rançon en échange de la non-diffusion de faux contenus sexuels, les déclinaisons perverses de la technologie sont nombreuses. Sur les réseaux sociaux, le procédé automatisé permettra la diffusion de fausses informations d'une qualité inédite, à une échelle jamais vue auparavant, la vidéo étant le médium préféré des utilisateurs.

Vincent Claveau, chargé de recherche au CNRS, expliquait dans Télérama que des techniques fondées sur l'observation des sourcils ou des coins de la bouche permettent aujourd'hui de repérer facilement les deepfakes. Mais demain, le subterfuge sera si réaliste qu'il faudra de vrais outils de détection, qui arriveront forcément en retard vis-à-vis des dernières technologies.

Appel à la surveillance de la recherche en IA

Conscients des dangers potentiels de leurs algorithmes, les chercheurs prennent des précautions. OpenAI, association de recherche en intelligence artificielle cofondée par Elon Musk, a récemment mis à jour son algorithme très performant de génération de textes, GPT-2.

Après avoir identifié tous les effets néfastes, ses auteurs ont limité la publication de leurs résultats à une partie de code, sans la base de données qu'ils ont utilisée.

« Nous pensons que les gouvernements devraient développer des initiatives pour surveiller de façon plus systématique les effets des technologies d'IA sur la société, et pour mesurer la progression de leurs capacités», préconisent les chercheurs.

Malheureusement, la technologie pourrait une nouvelle fois prendre de vitesse le droit.

François Manens

Sujets les + lus

|

Sujets les + commentés

Commentaires 2
à écrit le 21/05/2019 à 9:47
Signaler
Arrêtez de prendre les gens pour des crétins, arrêtez de leur dire ce qu'ils doivent regarder ou pas, plus internet devient irremplaçable car révolutionnaire et plus vous vous enfoncez dans un obscurantisme ordurier. Certes certains partent de tr...

à écrit le 21/05/2019 à 8:39
Signaler
Rien de plus logique dans la mesure où l'IA est globalement aux prises à la bêtise naturelle.

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.