Quelles pistes pour lutter efficacement contre les biais des algorithmes ?

 |   |  1531  mots
L'une des propositions phares du rapport est la notion d'équité active. Autrement dit : en finir avec l'approche universaliste de la France qui consiste vouloir effacer les différences, pour adopter une approche davantage anglo-saxonne, ou les données sensibles font aussi l'objet de statistiques.
L'une des propositions phares du rapport est la notion "d'équité active". Autrement dit : en finir avec l'approche universaliste de la France qui consiste vouloir effacer les différences, pour adopter une approche davantage anglo-saxonne, ou les données sensibles font aussi l'objet de statistiques. (Crédits : Pixabay)
Lois, tests en amont, contrôles à posteriori : les idées fusent pour lutter contre les biais des algorithmes. Alors que les Etats-Unis et l'Union européenne se penchent sur de nouvelles législations, l'Institut Montaigne préconise au contraire, dans un rapport, une approche préventive et sectorielle, et l'ouverture -sous conditions- des données sensibles aujourd'hui protégées. Explications.

Les algorithmes sont de plus en plus impliqués dans des décisions qui affectent nos vies. Le parcours post-Bac, l'octroi d'un prêt immobilier, les conditions d'une assurance, ou même, aux Etats-Unis, envoyer quelqu'un en prison ou pas. Derrière ces décisions qui peuvent bouleverser un destin agit la main invisible des algorithmes, ces épouvantails qui ne sont en réalité que des programmes informatiques nourris à partir de données choisies par des humains.

Et de la même manière que les décisions humaines peuvent être influencées par des biais conscients ou inconscients (en fonction du genre, de l'âge, de l'originale sociale ou de l'ethnie...), les mêmes risques s'appliquent, logiquement, à l'intelligence artificielle. Car comme l'explique la mathématicienne Cathy O'Neil, "un algorithme n'est en réalité qu'une opinion intégrée aux programmes". Plusieurs études ces dernières années en ont établi la preuve : aux États-Unis, les Afro-américains sont plus discriminés que les Blancs sur les plateformes de location d'appartements en ligne, et ils vont davantage en prison que les Blancs pour le même délit lorsque la justice s'appuie sur un logiciel de prédiction des récidives. Toujours aux États-Unis, les femmes sont également moins sollicitées que les hommes par les algorithmes qui suggèrent des emplois pour les métiers scientifiques et techniques.

Lire aussi : Les biais de l'intelligence artificielle en question

Le "RGPD de l'IA" de l'Europe, une fausse bonne idée ?

Cette prise de conscience que la technologie n'est pas neutre entraîne un défi inédit : il faut maîtriser les biais des algorithmes pour qu'ils puissent être socialement acceptés.

"Le numérique et l'intelligence artificielle ne pourront pas se développer en France s'ils sont porteurs de discriminations massives. Une telle automatisation à grande échelle de décisions inéquitables serait inacceptable pour la société", alerte l'Institut Montaigne, un cercle de réflexion à tendance libérale, dans un rapport publié ce mardi 10 mars sur les biais des algorithmes.

Pour sortir de l'ornière, la machine à idées tourne à plein. L'option législative est le premier réflexe. Aux États-Unis, un projet de loi, le "Algorithmic Accountability Act of 2019", est en discussions depuis près d'un an. Il vise à forcer l'État et les entreprises de plus de 50 millions de dollars de chiffre d'affaires, sous le contrôle de la Federal Trade Commission (FTC), à soumettre leurs algorithmes à une batterie de contrôles pour déceler d'éventuels biais dans les recommandations. De son côté, l'Union européenne a annoncé en avril 2019 une phase de consultation qui devrait déboucher sur la création d'une directive pour une intelligence artificielle éthique, comme un "RGPD de l'IA". L'objectif : imposer sept principes pour une IA "digne de confiance", parmi lesquels figurent la traçabilité des systèmes d'IA, la diversité, la non-discrimination et l'équité des jeux de données utilisés, et un principe de responsabilisation, c'est-à-dire soumettre les IA à l'obligation de rendre des comptes.

Mais pour l'Institut Montaigne, il est "prématuré à ce stade" et "inadapté" de lancer une directive sur l'IA et l'éthique des algorithmes. "Compte tenu du faible recul dont nous disposons, une loi spécifique aux biais risquerait de bloquer toute innovation sans résoudre le problème de fond", écrit le rapport. D'autant plus que la diversité des usages d'algorithmes (dans la banque, l'assurance, l'automobile, la santé, le recrutement, l'éducation, la justice ou encore la police) nécessite de tenir compte des spécificités sectorielles. "La définition d'un biais et de ce qu'est l'équité sera immanquablement différente selon que l'on discute d'un algorithme de conduite autonome, de mise au point d'un protocole de chimiothérapie ou de ciblage publicitaire", argumente l'institut. Par ailleurs, les algorithmes n'évoluent pas dans un far-west législatif. "La loi Informatique et Libertés, la loi pour une République numérique de 2016 et le RGPD fournissent déjà un cadre légal, certes incomplet mais existant" rappelle Marie-Laure Denis, la présidente de la Cnil.

Lire aussi : "L'IA peut menacer le contrat social" Michèle Sebag, CNRS

Faire passer aux algorithmes des "essais cliniques" comme ceux des médicaments

Si tout le monde s'accorde sur la nécessité d'aboutir à une intelligence artificielle explicable, ce vœu pieu se heurte à la réalité. "Bien que désirable, l'explicabilité des algorithmes est techniquement difficile à obtenir tant elle est contraire au principe même de l'apprentissage machine, ce qui créerait un problème de performance des IA", souligne le rapport. Qui poursuit : "Qui cherche à savoir comment fonctionne un avion ? Nous sommes bien plus rassurés par le fait de savoir qu'il a passé les tests de sécurité".  Pour Marie-Laure Denis, l'enjeu est plutôt de garantir le fonctionnement équitable de l'algorithme. "Le code de Parcours Sup est ouvert et c'est très bien, mais personne n'y comprend rien. Il faut plutôt savoir expliquer quelles données ont été utilisées et garantir l'absence de biais", ajoute-t-elle.

Pour cela, l'Institut Montaigne préconise de faire subir aux algorithmes l'équivalent des essais cliniques pour les médicaments. L'idée est de les tester pour s'assurer à la fois qu'ils remplissent bien leur mission initiale, et aussi qu'ils ne sont pas soumis à des biais. Un peu comme les essais cliniques vérifient que le médicament est efficace et qu'il n'entraîne pas d'effets secondaires indésirables. Les tests seraient réalisés autant que possible par les entités -publiques ou privées- qui déploient les algorithmes. Ces entreprises ou administrations devraient au préalable définir, en fonction des secteurs d'activités, ce qu'elles considèrent comme équitable.

"Certains biais sont volontaires, acceptables et sont le fruit de stratégies commerciales [comme l'exigence de parité dans le recrutement, Ndlr], d'autres non. C'est donc in fine à l'entreprise ou à l'administration de se positionner sur ce qu'elle considère comme la bonne définition d'un algorithme équitable, et d'en porter ensuite le risque juridique et réputationnel", milite le rapport.

L'approche de l'Institut Montaigne préconise donc la prévention et la sensibilisation plutôt que la régulation et la sanction. C'est pourquoi le rapport insiste sur la nécessité d'assurer la diversité des équipes qui conçoivent et diffusent les algorithmes, en intégrant, en plus des experts techniques, des personnes de genre, d'âge, de compétences, d'origine sociale et culturelle différents. La formation des techniciens et ingénieurs et la sensibilisation du grand public aux risques de biais dans les algorithmes paraissent aussi crucial.

"En France, la plupart des développeurs ont été formés aux mathématiques appliquées, aux statistiques et à l'informatique, sans formation spécialisée en sciences sociales. On leur apprend à comprendre les défis techniques de la conception et de l'optimisation des algorithmes et non les défis sociétaux", regrette le rapport.

Lire aussi : AVC ou crise de panique ? Le danger des biais dans la santé

En finir avec le tabou des données sensibles ?

Enfin, comment tester les présence de biais dans les algorithmes si les statistiques ethniques ne sont pas disponibles, et si les données relatives aux 25 critères reconnus de discrimination sont, d'après le rapport, "extrêmement difficiles à collecter" ? L'une des propositions phares du rapport est donc la notion "d'équité active". Autrement dit : en finir avec l'approche universaliste de la France qui consiste vouloir effacer les différences, pour adopter une approche davantage anglo-saxonne ou allemande.

"Nous recommandons d'abandonner l'approche d'équité par ignorance et d'adopter une stratégie d'équité active. Il s'agit d'accepter de mesurer les discriminations, de tester la présence de biais, grâce à la collecte d'information sur les 25 critères protégés. C'est l'indépendance du résultat par rapport à des variables protégées qui garantit un algorithme équitable", affirme le rapport, tout en insistant sur la nécessité d'un encadrement "strict" sur l'usage de ces données (collecte sur un échantillon restreint et finalité de test uniquement). Cette proposition rencontre un franc succès auprès des acteurs de l'IA. En partie parce que le fait d'interdire ou de limiter l'exploitation de données sensibles n'empêche pas les algorithmes de discriminer. Un algorithme publicitaire, par exemple, peut deviner avec une très faible marge d'erreur si telle personne est blanche, noire, homosexuelle, à fort pouvoir d'achat ou handicapée, en exploitant une multitude d'autres données comme les pages web visitées.

Changer cette culture de la donnée permettrait également de mettre à disposition des entreprises, ou d'une autorité indépendante dans les cas très sensibles, des bases de données de test publiques, qui leur serviraient à évaluer les biais de leur méthodologie. Une approche qui a fait ses preuves aux États-Unis grâce au travail du National Institute of Standards and Technology (NIST), qui met à disposition des bases de données pour évaluer les technologies de biométrie afin de vérifier leur performance et de détecter des biais.

Lire aussi : Comment fonctionne le Health Data Hub, la plateforme des données de santé françaises ?

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 11/03/2020 à 22:08 :
Les essais cliniques ne servent à rien car c’est sur un temps défini et sur un système sachant les combinaisons de systèmes sont infinies.

Voilà ce que je propose moi pour lutter contre les injustices provoquées par ces modes de paramètres numériques intégrées :

Laisser une deuxième voie parallèle humaine de «  contrôle «  celui «  D’une correction humaine des paramètres suite aux vécus et aux constatations des injustices avec indemnisations des victimes , pour mettre tout à plat chaque fois qu’il y a une incohérence , cette solution est juste et équitable.( et ceci sans parcours juridique, un système de régulation automatisé et sans frais supplémentaires pour les victimes ou lésés)
a écrit le 11/03/2020 à 14:40 :
Ridicule, à croire que l'on ne sait plus ce qu'est un algorithme (ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations), en gros, transformer des grandeurs d'entrée en d'autres grandeurs de sortie, avec un ensemble bien défini d'instructions de transformation. Soit un outil mathématique comme il en existe tant d'autres. On disait autrefois qu'un bon outil ne fait pas forcement un bon artisan. Alors, de quoi s'agit-il, de lutter contre le biais des algorithmes ou de mettre en cabane ceux qui s'en servent à mauvais escient? On a de plus en plus tendance, dans ce monde "élastique" à faire retomber les responsabilités sur les outils ! D'ailleurs, si l'on parle tellement d'intelligence artificielle, c'est un peu aussi pour cela, "déplacer" les responsabilités. Si un jour une machine perturbée par un bug tue quelques dizaines de personnes , qui sera condamnable, la machine ou…le programmeur?
a écrit le 11/03/2020 à 8:46 :
Sans contrôle des outils de production on ne peut rien faire or comme tout a été privatisé sans réflexion dans le seul nom de la cupidité de ses propriétaires le problème est facile à voir.

Mais bon vu qu'ils ont aussi la mainmise sur l'Etat de là à dire qu'il ne nous reste plus qu'à prier...
a écrit le 11/03/2020 à 8:29 :
La première action consisterait à remettre le code à sa place. Un logiciel, si briallant soit-il, ne peut-être utilisé qu'à des fins de conseil et jamais comme un décideur. Il ne faut pas s'étonner que la peur des machines soit au premier plan de nos préoccupations.
A force d'évoluer l'homme est devenu fainéant. Voilà le résultat.

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :