Les nazis et Vikings noirs de Gemini ou comment Google s’est raté dans la gestion des biais de l’IA

Ces derniers jours, des utilisateurs, souvent issus de la droite conservatrice, ont remarqué que Gemini, le modèle d'intelligence artificielle de Google, avait tendance à commettre des incohérences historiques, en voulant supprimer les biais racistes et sexistes. L'entreprise a mis en pause la fonctionnalité permettant de générer des images de personnes pour prendre le temps de régler le problème.
Deux images de Vikings générées par Gemini, l'intelligence artificielle générative de Google,
Deux images de Vikings générées par Gemini, l'intelligence artificielle générative de Google, (Crédits : Capture d'écran de Gemini)

Google a-t-il voulu trop bien faire ? En voulant gommer les biais racistes et sexistes de Gemini (ex-Bard), son intelligence artificielle capable de générer du texte et des images, le géant a fini par produire des aberrations historiques. Entre autres : des soldats allemands nazis noirs et asiatiques, des Vikings noirs, des femmes sénatrices américaines au XIXe siècle... Mais aussi un Elon Musk noir, et des fondateurs de Google version asiatique.

Pointées du doigt par des utilisateurs via les réseaux sociaux, ces incohérences ont conduit la firme de Mountain View à mettre en pause ce jeudi la génération d'images de personnes, en attendant de trouver une solution. Notons que la fonctionnalité création d'images notamment disponible aux Etats-Unis et au Royaume-Uni, ne l'est pas pour le moment en France et dans les autres pays de l'Union européenne.

« Nous nous efforçons de corriger ces représentations immédiatement. Gemini représente une grande variété de personnes. Ce qui est normalement une bonne chose puisque des personnes des quatre coins du monde l'utilisent, mais ici elle rate sa cible », a reconnu Google mercredi.

Ce vent de panique intervient quelques jours après la présentation de Gemini 1.5, la dernière version de son intelligence artificielle générative, et du lancement d'une famille de modèles d'IA baptisée Gemma.

Dans les faits, la polémique est née sur X. Ces derniers jours, plusieurs utilisateurs, notamment issus des sphères d'extrême droite, ont publié des images synthétiques obtenues avec Gemini. L'exercice est toujours le même : demander à l'IA de générer un certain type de personnes. Souvent les internautes choisissent délibérément un profil stéréotypé de personne blanche. A savoir : un passionné de cryptomonnaie, une femme allemande, un pape... Quoiqu'il arrive le générateur crée des portraits d'hommes et de femmes dites racisés.

Une IA trop « woke » qui « déteste les blancs », estime la droite

Et cela semble poser problème à certains, qui y voient un défaut majeur de l'intelligence artificielle. Pour les plus virulents cette dernière « détesterait » les blancs et « refuserait », donc de les représenter en image. L'information est d'ailleurs titrée comme tel par le site conservateur Fox Business. « Google s'excuse, car Gemini AI refuse de montrer des images et les accomplissements des personnes blanches », peut-on lire. Ce qui est inexact. En effet, plusieurs exemples montrent que l'IA n'exclut pas la représentation des blancs. L'affaire fait même la une du New York Post, autre média conservateur, qui juge Gemini « absurdement woke ».

La polémique prend par ailleurs de l'ampleur, car elle souligne, selon une partie de la droite, les défauts des politiques de diversité en entreprise. Depuis plusieurs mois, une partie de la presse américaine et de personnalités, notamment des chefs d'entreprise, accuse les universités et les organisations d'être victimes de leurs règles d'inclusion désignées par le sigle D.E.I (pour diversité, équité et inclusion) aux Etats-Unis.

Celles-ci sont considérées comme une « idéologie totalitaire », qui défavoriserait certaines communautés (les hommes blancs, principalement) en jugeant les gens d'après leur race. « DEI est un autre mot pour dire racisme », a notamment écrit Elon Musk sur X en janvier 2024.

Grok, la réponse d'Elon Musk à un ChatGPT trop lisse

Ce n'est pas la première fois que des utilisateurs jugent les garde-fous d'une intelligence artificielle trop politiquement corrects. ChatGPT, le chatbot du leader OpenAI récemment valorisé plus de 80 milliards de dollars, est régulièrement pointé du doigt pour ses réponses trop lisses.

C'est d'ailleurs pour cette raison bien précise qu'en novembre 2023 Elon Musk a lancé Grok, une intelligence artificielle « rebelle », qui n'hésite pas à répondre « aux questions piquantes que la plupart des autres IA évitent », peut-on lire sur le site de Xai, l'entreprise dédié à l'IA lancée par le milliardaire. Idem pour le réseau social Gab, refuge de l'extrême-droite américaine, qui met en ligne des chatbots ouvertement négationnistes, rapporte Wired.

La difficulté de corriger les biais racistes et sexistes

Au-delà de la polémique, les problèmes que rencontre Google sont significatifs de la difficulté à borner les intelligences artificielles. Dans un tweet du 21 février, Jack Krawcyk, directeur produit de Gemini chez Google, explique que les incohérences de Gemini sont liés à l'attention particulière que l'entreprise porte aux biais. « En respect à nos principes, nous avons conçu notre modèle de génération d'images, afin qu'il reflète l'ensemble de notre base d'utilisateurs », dit-il.

Comme ces programmes sont entraînés et des images issues du web, ils reproduisent invariablement certains stéréotypes. Si vous demandez à une intelligence artificielle génératrice d'images de créer la photo d'une personne productive, elle représentera la plupart du temps un jeune homme blanc derrière un ordinateur. Un ingénieur ? Un homme blanc, encore une fois. Une aide-ménagère sera plutôt une femme racisée.

Dernière preuve en date de ces biais : une expérimentation de l'agence publicitaire McKinney. Cette dernière a mis au point un quiz baptisé « Êtes-vous plus noir que ChatGPT ? », rapporte Tech Crunch. Ce test permet de se rendre compte à quel point le chatbot d'OpenAI ignore la culture et les références afro-américaines. Tout simplement, car ces références ne sont pas présentes dans les données d'entraînements qui ont servi à alimenter le modèle.

Accepter les biais pour mieux les corriger

Pour lutter contre ces biais, il y a deux options, estime Laurent Daudet, PDG de l'entreprise française LightOn, qui commercialise des modèles de langage aux entreprises. Celle choisie par Google, qui consiste à tenter de les supprimer en amont.

« Mais c'est une course sans fin (les garde-fous des intelligences artificielles étant facilement contournables, ndlr), et l'on s'expose à ce que le programme génère des incohérences ».

Ou alors, estime-t-il, « il faut accepter que les IA soient biaisées, car leurs données d'entraînement le seront toujours, et le prendre en considération selon les cas d'usage. Par exemple, si l'on utilise une IA pour trier des CV, il faudra faire attention à préciser dans les paramètres de ne pas considérer la couleur des candidats. Et quoiqu'il arrive pour ce type d'application il faudra toujours conserver un humain dans la boucle pour contrôler ces biais. ».

Dans son post, Jack Krawcyk fait savoir qu'à l'avenir Gemini continuera de représenter une grande diversité de personnes pour des descriptions universelles, type « un homme promène un chien », mais apportera plus de nuance lorsqu'il s'agira de scènes historiques. Car comme le note le média The Verge, le problème de ces représentations trompeuses, c'est qu'elles gomment d'une certaine manière l'histoire des discriminations raciales.

Ces « itérations » comme les nomme le chef produit montre aussi que Google, comme ses concurrents, n'hésitent à pas à mettre à disposition du plus grand nombre des produits qui sont en réalité des versions bêta.

Sujets les + lus

|

Sujets les + commentés

Commentaires 10
à écrit le 24/02/2024 à 7:58
Signaler
Pas besoin d'aller aussi loin. Tapez juste dans Google image "photo homme blanc et femme blanche" et admirez le travail

à écrit le 23/02/2024 à 14:18
Signaler
Ça montre bien que l'Intelligence dont il s'agit n'a pas le sens qu'on utilise dans la vie courante, même si on n'est pas tous férus d'histoire, on a quelques notions élémentaires (mon cher Watson). Un jour l'IA va sortir une pyramide à toit plat (c...

le 19/04/2024 à 8:28
Signaler
Une pyramide à toit plat? L’IA n’aurait pas tord de le faire. Allez jetez un œil sur les pyramides Mayas et Aztèques.

à écrit le 23/02/2024 à 13:25
Signaler
L'axe du bien nous révèle enfin la vérité vrai !!! On nous aurai menti ??? :)

à écrit le 23/02/2024 à 7:48
Signaler
Ben oui c'est qu'un deep learning.

le 23/02/2024 à 14:25
Signaler
apprentissage avec des corrections pour rester dans les clous, ne pas 'défavoriser' les minorités dans leur visibilité mais ça bascule dans le sens opposé, comme signalait un article il y a peu, en voulant ne pas défavoriser les femmes, ça fait que d...

le 24/02/2024 à 9:46
Signaler
Parce qu'il fonctionne en binaire, comme nos dirigeants politiques et économiques d'ailleurs, ce n'est pas une IA.

à écrit le 23/02/2024 à 0:36
Signaler
Qu est ce qu ils nous saoulent avec leur IA a croire qu ils n ont que ça dans s leur vie .. des ados à peine prebubere pathétique ! Pendant ce temps là les otages Israéliens n ont pas été délivrés , les palestiniens s en prennent plein la tronche ...

à écrit le 22/02/2024 à 22:04
Signaler
Pour les wokes racialistes mondialistes islamogauchistes ce ne sont pas du tout des incohérences historiques, c'est la vérité et la réalité...

à écrit le 22/02/2024 à 18:29
Signaler
🥇 👏 Google a créé la première IA raciste au monde, en éliminant la représentation des Blancs❕ Une IA est entraînée par des jeux de données. Elle ne sortira pas de leur cadre car c'est tout ce qu'elle connaît de son environnement. Donner des jeux de d...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.