IA : les géants de la tech vont développer des outils pour débusquer les « deepfakes » à l'approche de plusieurs élections

De grandes entreprises technologiques et des réseaux sociaux s'apprêtent à signer un pacte pour mieux identifier les contenus trompeurs sur internet générés par des intelligences artificielles. Ainsi, Meta, Microsoft, Google, OpenAI ou encore TikTok vont développer des outils pour repérer les « deepfakes » sur internet, qui pourraient influencer les prochaines élections partout dans le monde.
Les outils d'IA, dont certains accessibles gratuitement, se multiplient à grande vitesse.
Les outils d'IA, dont certains accessibles gratuitement, se multiplient à grande vitesse. (Crédits : Getty Images)

Les garde-fous de l'IA se mettent en place, mais le temps presse. 2024 va, en effet, être une année particulièrement importante pour les démocraties du monde entier. « En cette année cruciale sur le plan électoral », avec des scrutins majeurs prévus aux Etats-Unis, au Royaume-Uni, en Inde, en Union européenne ou en Russie, « les entreprises technologiques travaillent de concert afin de combattre l'utilisation de l'IA pour tromper les électeurs », selon un porte-parole de Meta interrogé jeudi dernier par l'AFP.

Pour empêcher l'utilisation mal intentionnée de cette nouvelle technologie, Meta, Microsoft, Google, OpenAI, TikTok, Adobe, « et d'autres » mettent la dernière main à un pacte qui doit être dévoilé vendredi en marge de la grande conférence de Munich sur la sécurité (MSC), a déclaré un porte-parole de Meta.

Selon le Washington Post, qui a, le premier, fait état de cet accord, les partenaires vont travailler à des outils permettant de repérer les contenus trompeurs, les identifier comme tels pour les utilisateurs et les contrôler.

Le problème des deepfakes

L'IA dite générative permet de créer, sur simple demande en langage courant, du texte, des images, des fichiers sonores ou des vidéos, susceptibles de faire passer pour authentiques des documents générés de toutes pièces. Grâce à des archives, la technologie peut notamment produire des « deepfakes », des documents qui présentent une personne en train de dire ou de faire quelque chose alors que cela ne s'est jamais produit.

Lire aussiIA : l'heure de gloire des deepfakes a sonné

Or, plusieurs « deepfakes » ont fait parler d'eux ces dernières semaines, notamment un faux message téléphonique du président américain Joe Biden avant la primaire démocrate du New Hampshire, fin janvier. Samedi, le parti de l'ancien Premier ministre pakistanais Imran Khan, le Pakistan Tehreek-e-Insaf (PTI), a diffusé un message vidéo utilisant l'IA générative et mettant en scène son leader, actuellement incarcéré et dans l'impossibilité de s'exprimer publiquement. En juin, le gouverneur de Floride et candidat à la primaire républicaine, Ron DeSantis, avait publié des images de Donald Trump enlaçant son ancien conseiller sur le Covid-19, Anthony Fauci. Des journalistes de l'AFP ont réussi à établir qu'il s'agissait d'images générées grâce à l'intelligence artificielle, mais les moyens sont manquants aujourd'hui pour bien analyser et contrôler ces contenus trompeurs.

Et ce nouveau type de contenus trompeurs ne s'arrête pas à la désinformation politique. Fin janvier, alors qu'un employé d'une entreprise hongkongaise pensait exécuter les ordres d'un directeur financier, il a effectué quinze transactions, d'une valeur totale de 200 millions de dollars hongkongais, soit 23,8 millions d'euros... à des arnaqueurs. La victime, pourtant méfiante de prime abord, a effectué les virements après avoir participé à une visioconférence où plusieurs de ses collègues hauts placés affichaient leur caméra, pendant que son directeur financier détaillait ses instructions. Mais en réalité, les images étaient des imitations réalisées par ordinateur, des « deepfakes » donc, tout comme la voix de son interlocuteur. Ce fait divers fait écho au boom de la complexité des arnaques prédit par les experts de la cybersécurité depuis l'émergence des intelligences artificielles génératives.

Un appel à la régulation de plus en plus fort

La réaction à ces nouveaux dangers de l'IA commence cependant à émerger. Avant la signature du nouveau pacte qui doit être publié vendredi, Meta, Google, Microsoft et OpenAI ont notamment déjà mis en place un premier système de marquage (watermark) qui permet l'identification d'un contenu créé grâce à l'IA générative.

Surtout, après une campagne d'attaque de « deepfakes » contre l'image de la chanteuse Taylor Swift, fin janvier, le directeur général de Microsoft lui-même, Satya Nadella, est allé s'excuser sur le plateau de NBC. Il a rappelé que la création de telles images allaient contre les conditions d'utilisation de son outil et que les utilisateurs seraient bannis. Le pire dans l'histoire, c'est que Microsoft est considéré comme un des précurseurs de l'IA responsable, et n'est certainement pas le plus imprudent des acteurs de l'IA.

Côté politique, la porte-parole de la Maison Blanche, Karine Jean-Pierre, appelle le Congrès américain à prendre des mesures législatives pour « éliminer les fausses images explicites ». En France, la loi Barrot sur la sécurisation du numérique, récemment votée, mentionne elle aussi les « deepfakes ». Mais comme souvent à cause de la dimension mondiale d'Internet, traquer les créateurs des images compromettantes sera une tâche extrêmement complexe. D'autant plus que les outils d'IA, dont certains accessibles gratuitement, se multiplient à grande vitesse.

Trump menace l'OTAN

Si la période semble cruciale pour la régulation des « deepfakes », c'est avant tout car l'élection américaine, qui aura lieu en novembre prochain, fait déjà parler d'elle.

L'ex-président et candidat à un nouveau mandat, Donald Trump, a en effet surpris la scène internationale en déclarant samedi ne pas vouloir protéger de la menace russe les pays de l'Otan. Lors du meeting, Donnald Trump a rapporté une conversation qu'il aurait eu avec un des chefs d'Etat de l'Otan, (sans le nommer) : « Monsieur, si on ne paie pas et qu'on est attaqué par la Russie, est-ce que vous nous protégerez ? » aurait demandé ce chef d'Etat mystérieux. La réponse, selon Trump : « non, je ne vous protégerais pas et j'encouragerais même (la Russie) de vous attaquer ! ».

Des propos qui ont fait réagir. « Nous ne nous laisserons pas nous diviser », a affirmé le chef de la diplomatie polonaise Radoslaw Sikorski, lundi. De son côté, le chancelier allemand Olaf Scholz a jugé « irresponsables » et « dangereuses » les déclarations de Donald Trump. « Toute relativisation de la garantie d'assistance de l'Otan est irresponsable et dangereuse, et ne sert que les intérêts de la Russie », a-t-il déclaré lors d'une conférence de presse à Berlin avec son homologue polonais, Donald Tusk. « Personne ne doit jouer avec la sécurité de l'Europe », a-t-il ajouté.

(Avec AFP)

Sujets les + lus

|

Sujets les + commentés

Commentaires 2
à écrit le 14/02/2024 à 17:01
Signaler
Des altruistes sans but ni conséquence.... nous entrons dans une nouvelle religion !;-)

à écrit le 14/02/2024 à 9:36
Signaler
Le néolibéralisme où quand les politiciens osnt aussi cupides que les hommes d'affaires qui eux sont aussi bavards que les politiciens.

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.