« Les géants de l'intelligence artificielle s'intéressent moins aux biais sexistes et racistes qu'à la course à la performance » (Margaret Mitchell, Hugging Face)

ENTRETIEN. Les géants de l'IA ont encore des progrès à faire en matière d'éthique de l'intelligence artificielle. En témoigne le récent fiasco de Google avec son IA générative Gemini : pour éviter les stéréotypes, le logiciel a fini par proposer des images de nazis noirs. La chercheuse américaine Margaret Mitchell, pionnière sur ce sujet et directrice scientifique de l'éthique chez Hugging Face, dénonce le manque de pouvoir des personnes directement concernées par les biais de ces systèmes (femmes, personnes racisées, LGBT+...), dans les entreprises de la tech.
A gauche, l'image d'une personne productive selon DALL-E, à droite, l'image d'une personne s'occupant d'enfants. Dans les deux cas, le genre de la personne n'a pas été précisé au modèle.
A gauche, l'image d'une personne productive selon DALL-E, à droite, l'image d'une personne s'occupant d'enfants. Dans les deux cas, le genre de la personne n'a pas été précisé au modèle. (Crédits : Image générée par IA avec DALL-E)

En 2021, le nom de Margaret Mitchell fait la une de la presse. Après trois ans chez Google à la tête de l'équipe de recherche en éthique de l'intelligence artificielle, elle est remerciée par son employeur. Officiellement, elle n'aurait pas respecté son code de conduite. Officieusement, la raison est son soutien à Timnit Gebru, autre chercheuse éthicienne, licenciée quelques mois plus tôt, suite à la publication d'un article scientifique sur les biais des systèmes d'intelligence artificielle. Selon Google, cet article ne respectait pas « les critères de publication » de l'entreprise. Pour Margaret Mitchell, sa collègue a été traitée de manière discriminatoire. Au moment de son renvoi, cette dernière était en train de monter un dossier pour le prouver.

Ce limogeage n'a pas empêché l'informaticienne devenue spécialiste de l'éthique, de s'imposer comme l'une des voix critiques les plus écoutées du secteur. La chercheuse, désignée comme l'une des 100 personnalités les plus influentes de l'IA par Time Magazine, œuvre désormais en tant que Chief Ethicist chez l'entreprise franco-américaine Hugging Face. Son combat est le même : se battre pour plus de diversité dans les équipes qui travaillent sur ces technologies, la transparence des données et une meilleure appréhension des problématiques éthiques liées à leur développement. Pour La Tribune, elle revient sur ces questions cruciales alors que Google vient de s'empêtrer dans une gestion maladroite des biais de son IA Gemini.

LA TRIBUNE - Récemment Google a fait l'objet d'une polémique, car son IA Gemini est accusée de ne pas assez représenter les personnes blanches, et de générer des aberrations historiques (des nazis allemands noirs par exemple). Pourtant, leur intention semblait louable...

MARGARET MITCHELL - Le problème, c'est qu'ils ont pensé Gemini comme un modèle « one size fits all » (une taille pour tous). Ils n'ont pas réfléchi aux différents usages possibles. Notamment au fait que des utilisateurs allaient vouloir des représentations historiques. Dans ce cas précis, pondérer la représentation des personnes blanches, n'est pas forcément une bonne idée. Pourtant, il est assez simple techniquement d'analyser les prompts (le court texte tapé pour générer une image) des utilisateurs, d'en déduire un usage, et de préparer des sous-modèles différents en fonction de ces usages.

Lorsque vous voulez élaborer un modèle d'IA de manière éthique, vous essayez de réfléchir aux usages visés, à leur variation selon le contexte, puis aux usages non visés, mais prévisibles. Un seul modèle capable de tout faire ne sera jamais la bonne solution. Chez Hugging Face, nous croyons davantage au développement d'une multitude de modèles spécifiques. Plutôt que de développer des IA générales, comme essaye de le faire une bonne partie de l'industrie, nous voulons développer des intelligences dites « étroites ».

Lire aussiIntelligence artificielle : la pépite franco-américaine Hugging Face lève 235 millions de dollars auprès de Google, Amazon, Intel ou IBM

L'erreur de méthode de Google est-elle récurrente dans le secteur de l'IA ?

Dans ces entreprises, des personnes qualifiées réfléchissent aux questions éthiques. Mais même lorsqu'elles font partie des équipes, ces personnes n'ont pas toujours de pouvoir de décision. Tout dépend des entreprises. Chez OpenAI, j'ai le sentiment que ces personnes ont tout de même un certain pouvoir. Chez Google, c'est moins le cas. Les consœurs et confrères que je connais, ne prennent pas assez part aux décisions. Ils sont moins écoutés. Parmi les dernières vagues de licenciement chez Google, on trouve d'ailleurs des postes clés dédiées à l'éthique.

Or, le problème est que, si aucun expert de l'éthique n'est décisionnaire lors du lancement d'un produit, vous vous retrouvez avec des approches très maladroites, dictées par exemple, par une équipe de communication, qui va se concentrer sur le fait d'éviter à tout prix une polémique pour avoir trop représenté des personnes blanches.

L'origine du problème est-il un manque de diversité au sein des équipes ?

Oui, car souvent les personnes qui s'intéressent aux biais et à l'éthique sont celles qui sont elles-mêmes touchées par ces biais et par la discrimination de manière générale. Donc ce sont des femmes, des personnes noires, latinos, LGBTQ+, non binaires... Autrement dit, les personnes qui sont sous-représentées dans le secteur de la tech.

Des études montrent-elles que des équipes plus diverses mettent au point des modèles « moins biaisés », et moins maladroits dans leur réponse ?

C'est une question intéressante. Je n'en sais rien. Il existe des études montrant que des équipes plus diverses sont liées à des résultats de meilleure qualité. Mais concernant les effets sur les biais, je ne pense pas que ce travail ait été fait. Je ne suis pas sûre qu'il y ait assez d'exemples, mais cela mériterait d'être étudié.

Vous travaillez dans le secteur de l'IA depuis de nombreuses années. Y a-t-il eu une amélioration dans la composition des équipes ?

Ma position n'est pas forcément représentative de l'ensemble du secteur. Chez Hugging Face, j'ai beaucoup de chance. La plupart de mes collègues les plus proches sont des minorités normalement sous représentées dans le secteur. Quand je travaillais chez Microsoft il y a quelques années, je ne croisais aucune autre femme ingénieure dans les couloirs. Quoi qu'il en soit, je peux affirmer que les questions autour de l'éthique de l'IA, qui sont davantage portées par les personnes issues des minorités, sont mieux prises en considération aujourd'hui.

Lors d'une précédente interview, vous mettiez l'accent sur la nécessité d'inclure dans les équipes des personnes d'origines et de genres différents, mais aussi des métiers différents. De ne pas se concentrer sur les ingénieurs... À quels profils pensiez-vous ?

À des éthiciens, des sociologues, des spécialistes des interactions entre homme et machine... Mais aussi à des avocats, des journalistes, qui soient capables d'interroger ces systèmes. C'est pour cela que nous croyons en la nécessité d'avoir des solutions « low code », qui requièrent très peu de connaissances techniques. Sur Hugging Face, vous pouvez accéder aux modèles, les tester, sans savoir coder.

Si vous ne laissez l'accès à ces programmes qu'aux ingénieurs, ils se concentreront sur les aspects qui les intéressent. Et leurs intérêts ne seront sans doute pas les mêmes que ceux des personnes qui étudient les sciences sociales par exemple. C'est en baissant ainsi les barrières techniques que certaines recherches journalistiques sont nées. Le Washington Post a notamment fait tout un travail d'analyse sur la base de données C4, l'un des principaux ensembles de data qui sert à entraîner les modèles de langage. Ils ont représenté ce travail de manière très interactive, à la portée des lecteurs.

Vous travaillez sur l'éthique de l'IA depuis dix ans. Comment a évolué ce champ de recherche, les IA génératives ont-elles changé quelque chose ?

Il y a encore cinq ans, personne ne s'intéressait aux questions de représentativité des données. Personne ne prêtait attention à la relation entre les données qui servent à nourrir les modèles et les résultats de ces modèles. Désormais les données d'entraînement et les biais sont un sujet de conversation.

Mais les biais sexistes et racistes intéressent toujours moins que la course à la performance. Les entreprises de la tech s'intéressent plus à créer des modèles toujours plus grands et de mieux en mieux notés sur des benchmarks arbitraires.

Lire aussiIntelligence artificielle : avec Claude 3, Anthropic affirme détrôner son rival OpenAI

Les débats longtermistes autour de l'avènement potentiel d'une intelligence artificielle générale (AGI) (supérieure à l'Homme en tout point), qui présenterait un risque d'extinction pour l'humanité, ne nous éloignent-il pas de ce sujet bien plus actuel ?

Oui, ce débat autour de l'AGI et des risques à long terme a clairement attiré toute l'attention. Il s'avère que les personnes préoccupées par les risques existentiels que l'IA poserait à l'humanité dans le futur sont des gens qui ont beaucoup d'argent, et une situation privilégiée dans la société. Donc ils ne sont pas tellement affectés par les effets nocifs et actuels de leurs systèmes. Ce n'est pas dans leur radar. Et parce qu'ils ont une position privilégiée, leur avis est mieux pris en considération par les régulateurs, et même par les journalistes. Ils auront sans doute plus de chance d'avoir une tribune dans le New York Times, que des femmes analysant les biais sexistes des bases de données. C'est un problème, bien sûr, parce que les gens n'ont pas assez d'attention à accorder à ce sujet. Donc, si les personnes les plus puissantes du monde affirment qu'il faut se concentrer sur les risques à très long terme, l'opinion publique suivra.

D'un autre côté, je n'ai pas tellement envie d'alimenter cette guerre entre les effets de long terme et de court terme des IA. Car cette querelle nous empêche de réfléchir, et de prendre conscience que les solutions sont souvent les mêmes. La raison pour laquelle je me suis intéressée à l'éthique des IA est un problème à long terme. Mais la solution pour le régler est tout aussi valable pour régler des problèmes actuels. La plupart du temps, la solution se résume d'ailleurs à s'intéresser à la relation entre les données d'entrée et les données de sortie.

C'est-à-dire ? A quel problème futur songiez-vous ?

Je travaillais sur un système dit image-to-text, c'est-à-dire capable de donner une description textuelle à partir d'une photo. L'idée était que cela serve à des personnes mal voyantes. Je travaillais plus précisément sur des séquences d'images. J'ai montré au système une séquence d'images prise depuis un appartement en haut d'un immeuble. Depuis la fenêtre, on pouvait voir qu'il y avait eu une explosion massive. On voyait des nuages violets et roses dans le ciel, et un panache de fumée. Sur certaines images, on voyait les infos diffusées sur une télé. On lisait « 60 personnes blessées, explosion ». Bref, on comprenait qu'il s'agissait d'une situation où, des personnes auraient pu être tuées. Et le système décrivait pourtant la chose ainsi : « C'est magnifique ! C'est très beau, la vue est superbe. »

A ce moment-là je me suis projetée dans le futur. J'ai imaginé ce type de systèmes rattachés à des lanceurs de missiles, et aux conséquences que cela pourrait avoir s'ils associaient les explosions à quelque chose de joli. Pourquoi ? Parce que pour ce système le rose et le violet sont des couleurs de coucher de soleil, et qu'il n'a aucune notion de ce qu'est la douleur, ni la mort. Je me suis dit que quelqu'un devait se pencher sur ce type de conséquences.

Lire aussiIA : le secteur doit trouver un équilibre entre innovation et éthique

La solution dans ce cas est-ce d'apprendre au système que le rose et le violet peuvent être associés à autre chose ?

Cette expérience a révélé à mes yeux la notion de biais dans les données. Le système en question était entraîné sur des photos issues de la plateforme Flickr. Sur Flickr, les gens téléchargent généralement des albums de mariage, de vacances, d'événements heureux... Vous trouverez peu de photos d'enterrement ou de cadavres. On voit surtout des couchers de soleil, des groupes d'amis heureux... Donc pour le système, les choses étaient soit normales, bien ou géniales. Jamais elles ne pouvaient mal se passer. J'ai donc compris qu'il fallait absolument considérer la relation entre les données d'entraînement et le résultat.

Mais est-ce réellement possible de contrôler les données d'entraînement ? Les modèles d'IA génératives actuels comme GPT-4 ou Claude-3, sont entraînés sur des millions de données textuelles et des images...

Oui, c'est possible ! Cela ne vous choque pas de constater que des entreprises avancent qu'il est possible de contrôler une intelligence artificielle générale, tout en arguant qu'il est trop compliqué d'analyser avec précision leurs données d'entraînement ? Le problème, c'est qu'une grande partie de cette industrie s'intéresse plus à l'architecture des modèles qu'aux données.

Au sein d'Hugging Face, nous essayons au contraire d'avoir cette culture de la donnée. Nous mettons en avant la sous-discipline dite de « mesure des données », en expliquant comment facilement extraire des statistiques, notamment celles qui reflètent certains stéréotypes par exemple. Et il est même possible de le faire automatiquement. Nous proposons une documentation sur les ensembles de données et nous essayons d'indiquer toutes les sources autant que possible pour que les gens sachent vraiment ce qu'ils obtiennent.

Sujets les + lus

|

Sujets les + commentés

Commentaires 2
à écrit le 06/03/2024 à 11:25
Signaler
Il faut être complètement stupide pour confier son intelligence à une machine !;-)

à écrit le 05/03/2024 à 17:07
Signaler
Deep learning et non intelligence artificielle. La machine apprend il est donc normal qu'elle puisse faire n'importe quoi, c'est qu'une machine, c'est pour dire comme ceux qui la financent mises gros sur ce concept marchand au potentiel infini, ils p...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.