IA : le patron de Google reconnaît les erreurs « totalement inacceptables » de Gemini

Le PDG de Google, Sundar Pichai, est revenu ce mercredi sur les erreurs « totalement inacceptables » de son application d'intelligence artificielle générative Gemini. Il indique que ses équipes travaillent H24 pour résoudre ces problèmes, sans donner de date quant au retour de la génération d'images de personnes, fonctionnalité suspendue depuis bientôt une semaine.
Deux images de Vikings générées par Gemini, l'intelligence artificielle générative de Google.
Deux images de Vikings générées par Gemini, l'intelligence artificielle générative de Google. (Crédits : Capture d'écran de Gemini)

Le patron de Google fait son mea culpa. Dans une lettre à ses équipes, publiée par le site d'information Semafor ce mercredi 28 février et authentifiée par un porte-parole la firme américaine auprès de l'AFP, Sundar Pichai indique souhaiter « évoquer les dernières difficultés liées à la génération de (contenus) problématiques dans l'application Gemini ».

Pour rappel, celle-ci a fait l'objet d'une controverse ces derniers jours. Sur les réseaux sociaux, de nombreux utilisateurs ont pointé certaines créations inexactes de cette intelligence artificielle (IA) générative notamment en matière de genre et d'origine. Elle a en effet semblé sous-représenter les personnes blanches. Par exemple, une requête sur un soldat allemand de 1943 a donné lieu à des images de militaires asiatiques ou à la peau noire.

« Je sais que certaines de ses réponses étaient biaisées et ont choqué nos utilisateurs. Et, pour être clair, c'est totalement inacceptable et nous nous sommes trompés », a reconnu le patron de Google.

Lire aussiLes nazis et Vikings noirs de Gemini ou comment Google s'est raté dans la gestion des biais de l'IA

Date de retour encore inconnue

Sundar Pichai a également indiqué que les équipes de Google travaillaient « 24 heures sur 24 » pour résoudre ces problèmes mais n'a pas précisé quand la génération d'images de personnes serait à nouveau disponible. Car la firme a suspendu cette fonctionnalité jeudi dernier, suite à ces nombreux retours négatifs.

« Aucune IA n'est parfaite, surtout au stade émergent où se trouve cette industrie, mais nous avons conscience que la barre est haute et nous continuerons à travailler aussi longtemps qu'il le faudra », a ajouté Sundar Pichai.

Cette polémique est en tout cas apparue seulement quelques semaines après le déploiement de Gemini, qui a remplacé son précédent outil d'IA générative baptisé Bard. Google l'a présentée début décembre à la surprise générale. « C'est notre modèle d'IA le plus conséquent, le plus doué et aussi le plus général », avait assuré Eli Collins, un vice-président de Google DeepMind, le laboratoire de recherche en IA du groupe californien. Mais encore à améliorer.

Reste que Google n'est pas le seul acteur de l'IA à rencontrer des difficultés avec son outil. La semaine dernière, ChatGPT a connu des bugs suite à une « optimisation de l'expérience utilisateur ». De nombreux utilisateurs ont ainsi mis en ligne des captures d'écran montrant des réponses erratiques ou incompréhensibles du modèle. Tout est depuis rentré dans l'ordre.

Lire aussiIntelligence artificielle : retour à la normale pour ChatGPT, après plusieurs heures de bug

Des préjugés à cause des préjugés

Depuis fin 2022, l'IA générative suscite un engouement massif et les géants de la tech se sont engagés dans une course au déploiement d'outils pour organisations et particuliers. Mais les modèles d'IA ont longtemps été critiqués pour perpétuer les préjugés raciaux et sexistes dans leurs résultats.

Google a d'ailleurs déclaré la semaine dernière que les générations problématiques de Gemini étaient en fait dues à ses efforts pour tenter d'éliminer ces préjugés. Comme ces programmes sont entraînés et des images issues du web, ils reproduisent invariablement certains stéréotypes. Si vous demandez à une intelligence artificielle génératrice d'images de créer la photo d'une personne productive, elle représentera la plupart du temps un jeune homme blanc derrière un ordinateur. Un ingénieur ? Un homme blanc, encore une fois. Une aide-ménagère sera plutôt une femme racisée.

Face au développement grandissant de ce type d'IA, de nombreux experts et gouvernements ont en tout cas alerté sur certains risques qu'elle comporte, comme la diffusion de fausses photographies plus vraies que nature, mettant en garde contre le danger de manipulation de l'opinion.

(Avec AFP)

Sujets les + lus

|

Sujets les + commentés

Commentaires 3
à écrit le 29/02/2024 à 8:43
Signaler
La bien pensance et l'idéologie 'woke' fait des ravages partout, même en IA: ça promet pour l'avenir!

à écrit le 28/02/2024 à 22:58
Signaler
Je remarque que certains défenseurs des causes justes (la défense de l'environnement, la lutte contre le racisme, la discrimination sexuelle etc) ne sont pas à la hauteur de leur cause et la desservent. Sans vouloir être vexant, je pense que Google ...

à écrit le 28/02/2024 à 19:27
Signaler
Ensuite nous faisons des découvertes en anthropologie en séries et il y a de fortes chances que les premiers italiens étaient noirs. Ensuite nous sommes dans des erreurs de calculs et non dans une volonté de laver les cerveaux telle que celle des méd...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.