Google a-t-il voulu trop bien faire ? En voulant gommer les biais racistes et sexistes de Gemini (ex-Bard), son intelligence artificielle capable de générer du texte et des images, le géant a fini par produire des aberrations historiques. Entre autres : des soldats allemands nazis noirs et asiatiques, des Vikings noirs, des femmes sénatrices américaines au XIXe siècle... Mais aussi un Elon Musk noir, et des fondateurs de Google version asiatique.
Pointées du doigt par des utilisateurs via les réseaux sociaux, ces incohérences ont conduit la firme de Mountain View à mettre en pause ce jeudi la génération d'images de personnes, en attendant de trouver une solution. Notons que la fonctionnalité création d'images notamment disponible aux Etats-Unis et au Royaume-Uni, ne l'est pas pour le moment en France et dans les autres pays de l'Union européenne.
« Nous nous efforçons de corriger ces représentations immédiatement. Gemini représente une grande variété de personnes. Ce qui est normalement une bonne chose puisque des personnes des quatre coins du monde l'utilisent, mais ici elle rate sa cible », a reconnu Google mercredi.
Ce vent de panique intervient quelques jours après la présentation de Gemini 1.5, la dernière version de son intelligence artificielle générative, et du lancement d'une famille de modèles d'IA baptisée Gemma.
Dans les faits, la polémique est née sur X. Ces derniers jours, plusieurs utilisateurs, notamment issus des sphères d'extrême droite, ont publié des images synthétiques obtenues avec Gemini. L'exercice est toujours le même : demander à l'IA de générer un certain type de personnes. Souvent les internautes choisissent délibérément un profil stéréotypé de personne blanche. A savoir : un passionné de cryptomonnaie, une femme allemande, un pape... Quoiqu'il arrive le générateur crée des portraits d'hommes et de femmes dites racisés.
Une IA trop « woke » qui « déteste les blancs », estime la droite
Et cela semble poser problème à certains, qui y voient un défaut majeur de l'intelligence artificielle. Pour les plus virulents cette dernière « détesterait » les blancs et « refuserait », donc de les représenter en image. L'information est d'ailleurs titrée comme tel par le site conservateur Fox Business. « Google s'excuse, car Gemini AI refuse de montrer des images et les accomplissements des personnes blanches », peut-on lire. Ce qui est inexact. En effet, plusieurs exemples montrent que l'IA n'exclut pas la représentation des blancs. L'affaire fait même la une du New York Post, autre média conservateur, qui juge Gemini « absurdement woke ».
La polémique prend par ailleurs de l'ampleur, car elle souligne, selon une partie de la droite, les défauts des politiques de diversité en entreprise. Depuis plusieurs mois, une partie de la presse américaine et de personnalités, notamment des chefs d'entreprise, accuse les universités et les organisations d'être victimes de leurs règles d'inclusion désignées par le sigle D.E.I (pour diversité, équité et inclusion) aux Etats-Unis.
Celles-ci sont considérées comme une « idéologie totalitaire », qui défavoriserait certaines communautés (les hommes blancs, principalement) en jugeant les gens d'après leur race. « DEI est un autre mot pour dire racisme », a notamment écrit Elon Musk sur X en janvier 2024.
Grok, la réponse d'Elon Musk à un ChatGPT trop lisse
Ce n'est pas la première fois que des utilisateurs jugent les garde-fous d'une intelligence artificielle trop politiquement corrects. ChatGPT, le chatbot du leader OpenAI récemment valorisé plus de 80 milliards de dollars, est régulièrement pointé du doigt pour ses réponses trop lisses.
C'est d'ailleurs pour cette raison bien précise qu'en novembre 2023 Elon Musk a lancé Grok, une intelligence artificielle « rebelle », qui n'hésite pas à répondre « aux questions piquantes que la plupart des autres IA évitent », peut-on lire sur le site de Xai, l'entreprise dédié à l'IA lancée par le milliardaire. Idem pour le réseau social Gab, refuge de l'extrême-droite américaine, qui met en ligne des chatbots ouvertement négationnistes, rapporte Wired.
La difficulté de corriger les biais racistes et sexistes
Au-delà de la polémique, les problèmes que rencontre Google sont significatifs de la difficulté à borner les intelligences artificielles. Dans un tweet du 21 février, Jack Krawcyk, directeur produit de Gemini chez Google, explique que les incohérences de Gemini sont liés à l'attention particulière que l'entreprise porte aux biais. « En respect à nos principes, nous avons conçu notre modèle de génération d'images, afin qu'il reflète l'ensemble de notre base d'utilisateurs », dit-il.
Comme ces programmes sont entraînés et des images issues du web, ils reproduisent invariablement certains stéréotypes. Si vous demandez à une intelligence artificielle génératrice d'images de créer la photo d'une personne productive, elle représentera la plupart du temps un jeune homme blanc derrière un ordinateur. Un ingénieur ? Un homme blanc, encore une fois. Une aide-ménagère sera plutôt une femme racisée.
Dernière preuve en date de ces biais : une expérimentation de l'agence publicitaire McKinney. Cette dernière a mis au point un quiz baptisé « Êtes-vous plus noir que ChatGPT ? », rapporte Tech Crunch. Ce test permet de se rendre compte à quel point le chatbot d'OpenAI ignore la culture et les références afro-américaines. Tout simplement, car ces références ne sont pas présentes dans les données d'entraînements qui ont servi à alimenter le modèle.
Accepter les biais pour mieux les corriger
Pour lutter contre ces biais, il y a deux options, estime Laurent Daudet, PDG de l'entreprise française LightOn, qui commercialise des modèles de langage aux entreprises. Celle choisie par Google, qui consiste à tenter de les supprimer en amont.
« Mais c'est une course sans fin (les garde-fous des intelligences artificielles étant facilement contournables, ndlr), et l'on s'expose à ce que le programme génère des incohérences ».
Ou alors, estime-t-il, « il faut accepter que les IA soient biaisées, car leurs données d'entraînement le seront toujours, et le prendre en considération selon les cas d'usage. Par exemple, si l'on utilise une IA pour trier des CV, il faudra faire attention à préciser dans les paramètres de ne pas considérer la couleur des candidats. Et quoiqu'il arrive pour ce type d'application il faudra toujours conserver un humain dans la boucle pour contrôler ces biais. ».
Dans son post, Jack Krawcyk fait savoir qu'à l'avenir Gemini continuera de représenter une grande diversité de personnes pour des descriptions universelles, type « un homme promène un chien », mais apportera plus de nuance lorsqu'il s'agira de scènes historiques. Car comme le note le média The Verge, le problème de ces représentations trompeuses, c'est qu'elles gomment d'une certaine manière l'histoire des discriminations raciales.
Ces « itérations » comme les nomme le chef produit montre aussi que Google, comme ses concurrents, n'hésitent à pas à mettre à disposition du plus grand nombre des produits qui sont en réalité des versions bêta.
Sujets les + commentés