L’IA génère de nouvelles formes d’inégalités entre les femmes et les hommes

OPINION. La réglementation européenne doit évoluer pour tenir compte des discriminations que peuvent reproduire les outils d’intelligence artificielle. Par Anaëlle Martin, Université de Strasbourg
(Crédits : DR)

L'Union européenne (UE) est fondée sur les valeurs de respect de la dignité humaine, de non-discrimination et d'égalité entre les femmes et les hommes. Si le droit communautaire tend à prohiber les discriminations contre les individus, ou groupes d'individus, fondées sur une caractéristique particulière telle que le sexe, les pratiques de certains systèmes d'intelligence artificielle (IA) ont mis en lumière de nouvelles formes d'inégalité entre les femmes et les hommes, plus difficiles à appréhender.

Dans la mesure où la question des biais de l'IA renouvelle les termes dans lesquels le principe d'égalité doit être formulé (1), il est donc urgent, pour l'UE, de se doter de nouveaux outils pour lutter contre ces nouvelles formes de discrimination (2).

Les biais de l'IA

Les groupes vulnérables englobent notamment les femmes et les groupes ethniques, le sexe/genre et la race/l'origine ethnique étant des caractéristiques protégées par le droit de l'UE. Au regard de ces deux variables sensibles, les femmes noires sont particulièrement exposées aux erreurs et biais de l'IA, comme l'ont montré les mauvaises performances des systèmes de reconnaissance faciale.

En effet, les algorithmes d'apprentissage machine, de plus en plus utilisés dans la prise de décisions, se basent sur des données souvent lacunaires ou biaisées. Des problèmes peuvent survenir au cours du processus de collecte de données ou de développement des modèles, lesquels peuvent entraîner des préjudices.

Par exemple, en médecine, la construction d'un modèle permettant de détecter un risque implique d'entraîner ledit modèle sur les dossiers de patients. Or, il se peut que le taux de faux négatifs (patients malades mais non diagnostiqués comme tels), donc non detectés par l'IA, soit supérieur chez les femmes que chez les hommes. Si le modèle n'a pas été en mesure d'apprendre efficacement le risque chez les femmes, c'est en raison d'un manque d'exemples. Il faut en conséquence rechercher des données supplémentaires sur les femmes et réentraîner l'algorithme.

Les biais peuvent aussi avoir pour origine l'évaluation humaine, comme en matière de recrutement : un algorithme prédisant l'aptitude des candidats en évaluant les CV se fonde sur des notes antérieurement attribuées par des humains qui peuvent avoir des comportements discriminatoires.

Une réglementation insuffisante

En Europe, l'interdiction des discriminations - directes (sexe, origine, etc.) et indirectes (pratique prétendument neutre qui conduit, en pratique, à traiter différemment les personnes possédant une caractéristique protégée) - trouve sa source dans les droits nationaux et supranationaux (Conseil de l'Europe et UE).

Comme la plupart des biais générés par l'IA n'impliquent pas une intention discriminatoire mais sont involontaires ou accidentels, il est plus aisé de mobiliser le concept de discrimination indirecte. Pour autant, malgré sa souplesse, cette dernière notion présente des limites en matière de décisions algorithmiques.

En effet, ladite interdiction repose sur un standard général qui s'avère difficile à mettre en œuvre en pratique car il faut pouvoir démontrer qu'une règle, neutre en apparence, affecte de façon disproportionnée un groupe protégé.

Une présomption de discrimination peut être établie grâce à des preuves statistiques. Pour autant, en matière d'IA, la principale difficulté réside dans le fait que les discriminations sont difficiles à identifier dans la mesure où les motifs des décisions défavorables (par exemple, un crédit refusé à une femme) n'apparaissent pas au grand jour. En l'absence de transparence, la preuve statistique n'est donc pas aisée à établir.

Débiaiser les algorithmes

En avril 2019, le groupe d'experts constitué par la Commission européenne affirmait, dans ses « lignes directrices en matière d'éthique pour une IA digne de confiance », que le principe d'égalité devait aller « au-delà de la non-discrimination » qui tolère le fait d'établir des distinctions entre des situations différentes sur la base de justifications objectives.

Dans sa proposition de règlement sur l'IA (AI Act), formulée deux ans plus tard, la Commission a prévu un ensemble d'exigences pour une IA digne de confiance parmi lesquelles la non-discrimination et l'égalité entre les femmes. Elle a également rappelé que « les systèmes d'IA peuvent perpétuer des schémas historiques de discrimination » à l'égard des femmes.

Dans un contexte d'IA, l'égalité implique donc que le fonctionnement du système ne produise pas de résultats fondés sur des biais injustes, ce qui requiert un respect approprié des groupes vulnérables, tels que les femmes.

Pour cela, il existe des méthodes pour débiaiser les algorithmes. Il est possible, par exemple, d'introduire une forme de discrimination positive via la parité statistique : après avoir évalué l'effet disproportionné en estimant le rapport de deux probabilités (probabilité d'une décision favorable pour une femme sur probabilité d'une décision favorable pour un homme).

Aux États-Unis, les logiciels anticipent le risque juridique en intégrant ces méthodes de fair learning. Loin d'être un problème technique, la question du débiaisement requiert une réflexion axiologique et un débat démocratique. Définir des métriques d'équité pour lutter contre les discriminations algorithmiques implique en effet de soulever la question de la discrimination positive, dont on sait qu'elle est plus controversée en Europe qu'aux États-Unis (entorse au principe d'égalité formelle).

____

Par Anaëlle Martin, Docteur en droit public, Université de Strasbourg

Cette contribution s'appuie sur l'intervention d'Anaëlle Martin lors de la « 2ᵉ semaine mondiale de la francophonie scientifique » organisée par l'Agence universitaire de la Francophonie (AUF), fin octobre 2022, au Caire (Égypte).

Sujets les + lus

|

Sujets les + commentés

Commentaires 15
à écrit le 12/12/2022 à 9:18
Signaler
Bah, Manon Aubry ne peut pas se targuer de la moindre autorité morale. La gauche et l’extrême-gauche ont été pris tant de fois la main dans le pot de confiture… Ceux qui ont fait les malins sur le féminisme se sont tous fait arrêter. C’est peut-être ...

à écrit le 11/12/2022 à 10:41
Signaler
C'est vrai ! La France est une très grande puissance, tellement qu'elle pourrait le devenir encore plus ! Pour cela il faudrait appuyer sur l'accélérateur au lieu d'avoir le pied sur le frein. Et revenir à une boite de vitesse manuelle au lieu de l'a...

à écrit le 10/12/2022 à 12:37
Signaler
Parce qu’elle offre aux minorités humaines privilégiées (les mieux dotés en QI, les bien-portants, les héritiers, les hommes ?...et plus généralement les riches, puisque, dans un système de marché, l’accès en est conditionné par le prix) des opportun...

à écrit le 10/12/2022 à 12:34
Signaler
Pourquoi essayer de récupérer des déchets ?! Il y a tant de magasins qui offrent des prix attractifs... et puis vous risquez d'attraper le tétanos.

à écrit le 10/12/2022 à 12:20
Signaler
Bref ! Toujours à vouloir des lois et règlements "contre nature", par manque d'intelligence, pour en confectionner une... artificielle ! ;-)

le 10/12/2022 à 12:53
Signaler
L'IA dite 'intelligence' est très étroite et liée à l'apprentissage par big data. Tellement intelligente qu'elle ignore les domaines pour lesquels on ne l'a pas 'entraînée" (battre tout humain aux échecs et ignorer ce qu'est un jeu, voire un jeu de d...

à écrit le 10/12/2022 à 12:19
Signaler
Toujours à vouloir des lois et règlements "contre nature", par manque d'intelligence, pour en confectionner une... artificielle ! ;-)

à écrit le 10/12/2022 à 12:09
Signaler
Les médias de masse sont ce qu'ils sont. Ils pourraient effectivement être différents mais alors ce ne serait pas pareils. Quant à l'énergie qui pourrait être économisée, cela n'est pas évident car nombreux ont des capteurs solaires dans leur rédacti...

à écrit le 10/12/2022 à 12:07
Signaler
Madame comme vous j'ai étais cadre dans la fonction publique. J'arrivais au bureau à 09h30', m'arrêtais 2 heures le midi le temps déjeuner paisiblement au restaurant. Mon après-midi s'arrêtait à 17h. En plus de mes 7 semaines de congés payés cadre, m...

à écrit le 10/12/2022 à 11:47
Signaler
L'IA avec la reconnaissance facile sont les formes ultimes du contrôle total des populations. L'instrument idéal des dictatures.

à écrit le 10/12/2022 à 10:06
Signaler
Madame, pourquoi ne penser qu'à l'allaitement au sein ?! Dans certains pays (Asie) les parents donnent du lait de soja ou d'amandes à leur bébé. Et ils n'en sortent pas moins bien. Mieux peut-être qu'en on constate le nombre de jeunes délinquants che...

le 10/12/2022 à 12:50
Signaler
"le problème avec les jus végétaux pour les enfants, c'est qu'ils ne couvrent pas tous les besoins nutritionnels nécessaires à leur bon développement." (le nom 'lait' est trompeur, juste voulant dire 'liquide blanc', en consommer en croyant que ça re...

à écrit le 10/12/2022 à 10:06
Signaler
Madame, pourquoi ne penser qu'à l'allaitement au sein ?! Dans certains pays (Asie) les parents donnent du lait de soja ou d'amandes à leur bébé. Et ils n'en sortent pas moins bien. Mieux peut-être qu'en on constate le nombre de jeunes délinquants che...

à écrit le 10/12/2022 à 10:06
Signaler
Madame, pourquoi ne penser qu'à l'allaitement au sein ?! Dans certains pays (Asie) les parents donnent du lait de soja ou d'amandes à leur bébé. Et ils n'en sortent pas moins bien. Mieux peut-être qu'en on constate le nombre de jeunes délinquants che...

à écrit le 10/12/2022 à 10:06
Signaler
Madame, pourquoi ne penser qu'à l'allaitement au sein ?! Dans certains pays (Asie) les parents donnent du lait de soja ou d'amandes à leur bébé. Et ils n'en sortent pas moins bien. Mieux peut-être qu'en on constate le nombre de jeunes délinquants che...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.