IA : le patron de Google reconnaît les erreurs « totalement inacceptables » de Gemini

Par latribune.fr  |   |  659  mots
Deux images de Vikings générées par Gemini, l'intelligence artificielle générative de Google. (Crédits : Capture d'écran de Gemini)
Le PDG de Google, Sundar Pichai, est revenu ce mercredi sur les erreurs « totalement inacceptables » de son application d'intelligence artificielle générative Gemini. Il indique que ses équipes travaillent H24 pour résoudre ces problèmes, sans donner de date quant au retour de la génération d'images de personnes, fonctionnalité suspendue depuis bientôt une semaine.

Le patron de Google fait son mea culpa. Dans une lettre à ses équipes, publiée par le site d'information Semafor ce mercredi 28 février et authentifiée par un porte-parole la firme américaine auprès de l'AFP, Sundar Pichai indique souhaiter « évoquer les dernières difficultés liées à la génération de (contenus) problématiques dans l'application Gemini ».

Pour rappel, celle-ci a fait l'objet d'une controverse ces derniers jours. Sur les réseaux sociaux, de nombreux utilisateurs ont pointé certaines créations inexactes de cette intelligence artificielle (IA) générative notamment en matière de genre et d'origine. Elle a en effet semblé sous-représenter les personnes blanches. Par exemple, une requête sur un soldat allemand de 1943 a donné lieu à des images de militaires asiatiques ou à la peau noire.

« Je sais que certaines de ses réponses étaient biaisées et ont choqué nos utilisateurs. Et, pour être clair, c'est totalement inacceptable et nous nous sommes trompés », a reconnu le patron de Google.

Lire aussiLes nazis et Vikings noirs de Gemini ou comment Google s'est raté dans la gestion des biais de l'IA

Date de retour encore inconnue

Sundar Pichai a également indiqué que les équipes de Google travaillaient « 24 heures sur 24 » pour résoudre ces problèmes mais n'a pas précisé quand la génération d'images de personnes serait à nouveau disponible. Car la firme a suspendu cette fonctionnalité jeudi dernier, suite à ces nombreux retours négatifs.

« Aucune IA n'est parfaite, surtout au stade émergent où se trouve cette industrie, mais nous avons conscience que la barre est haute et nous continuerons à travailler aussi longtemps qu'il le faudra », a ajouté Sundar Pichai.

Cette polémique est en tout cas apparue seulement quelques semaines après le déploiement de Gemini, qui a remplacé son précédent outil d'IA générative baptisé Bard. Google l'a présentée début décembre à la surprise générale. « C'est notre modèle d'IA le plus conséquent, le plus doué et aussi le plus général », avait assuré Eli Collins, un vice-président de Google DeepMind, le laboratoire de recherche en IA du groupe californien. Mais encore à améliorer.

Reste que Google n'est pas le seul acteur de l'IA à rencontrer des difficultés avec son outil. La semaine dernière, ChatGPT a connu des bugs suite à une « optimisation de l'expérience utilisateur ». De nombreux utilisateurs ont ainsi mis en ligne des captures d'écran montrant des réponses erratiques ou incompréhensibles du modèle. Tout est depuis rentré dans l'ordre.

Lire aussiIntelligence artificielle : retour à la normale pour ChatGPT, après plusieurs heures de bug

Des préjugés à cause des préjugés

Depuis fin 2022, l'IA générative suscite un engouement massif et les géants de la tech se sont engagés dans une course au déploiement d'outils pour organisations et particuliers. Mais les modèles d'IA ont longtemps été critiqués pour perpétuer les préjugés raciaux et sexistes dans leurs résultats.

Google a d'ailleurs déclaré la semaine dernière que les générations problématiques de Gemini étaient en fait dues à ses efforts pour tenter d'éliminer ces préjugés. Comme ces programmes sont entraînés et des images issues du web, ils reproduisent invariablement certains stéréotypes. Si vous demandez à une intelligence artificielle génératrice d'images de créer la photo d'une personne productive, elle représentera la plupart du temps un jeune homme blanc derrière un ordinateur. Un ingénieur ? Un homme blanc, encore une fois. Une aide-ménagère sera plutôt une femme racisée.

Face au développement grandissant de ce type d'IA, de nombreux experts et gouvernements ont en tout cas alerté sur certains risques qu'elle comporte, comme la diffusion de fausses photographies plus vraies que nature, mettant en garde contre le danger de manipulation de l'opinion.

(Avec AFP)