Les biais de l'intelligence artificielle en question

La fameuse « boîte noire » de l'intelligence artificielle, c'est-à-dire le manque de transparence dans le processus de décision d'un algorithme, pose un vrai problème pour l'adoption massive de cette technologie.
François Manens
(Crédits : iStock)

L'intelligence artificielle prend de plus en plus de place dans les décisions stratégiques des entreprises. Ses champs d'applications vont de l'identification des chantiers prioritaires pour les entreprises du BTP, à l'évaluation du risque de défaut au moment d'émettre un prêt pour les banques, en passant par l'identification des meilleurs prospects dans le recrutement. Les logiciels permettent d'économiser de précieuses heures, voire jours, en plus de rendre les choix plus pertinents... dans la majorité des cas. Car l'intelligence artificielle n'échappe pas aux biais. En 2016, des journalistes de l'ONG ProPublica avaient révélé qu'un logiciel d'évaluation des risques de récidive, Compas, très utilisé dans les tribunaux américains, se trompait deux fois plus pour les condamnés noirs que pour les blancs. Le problème est que les biais des algorithmes sont difficilement repérables.

Si le logiciel repose sur l'apprentissage machine, alors on ne sait pas retracer, étape par étape, les décisions qui ont mené à la recommandation finale. C'est le phénomène de la boîte noire : on connaît la problématique et sa solution, mais pas ce qu'il se passe entre les deux. Bien sûr, les développeurs savent ce qu'est censé faire le programme, mais ils ne peuvent que deviner l'arbre de décision qui a mené au résultat. Dès lors, difficile de faire confiance aux intelligences artificielles pour des décisions critiques, à moins de pouvoir les auditer et tracer leurs choix. En France, le projet TransAlgo, mené par l'Inria, a été lancé en 2018 pour répondre à cette demande, avec deux axes de recherche. D'un côté, des méthodes d'« auditabilité » des algorithmes, et de l'autre, une nouvelle génération d'algorithmes, construits pour être transparents. La notion de transparence, au sens de l'Inria, induit que l'on a accès au code de l'algorithme, que l'on connaît la provenance des données et que l'on peut retracer ces calculs.

Comprendre et identifier

En attendant le fruit de ces recherches, les acteurs de l'IA contournent le problème de la boîte noire. « Il faut être transparent avec les clients, distinguer ce qui est traçable et quand on ne sait pas le faire », préconise Michel Morvan, fondateur de Cosmo Tech et expert en IA auprès de l'OCDE. RTE utilise un logiciel développé par la startup pour évaluer à moyen terme ses prises de décision dans la maintenance et le renouvellement d'équipements nucléaires. Logiquement, le gestionnaire d'électricité veut pouvoir comprendre les décisions. Cosmo Tech s'est donc passé autant que possible de l'apprentissage automatique dans son algorithme d'intelligence artificielle, et propose d'identifier les décisions sujettes à la boîte noire.

Lire aussi : Comment Montréal est devenu un « hub » mondial de l'intelligence artificielle

Des précautions essentielles, car, à l'heure actuelle, la responsabilité des développeurs n'est pas écartée en cas de défaut de l'IA. « C'est pour ça que personne ne veut être le propriétaire d'un logiciel de conduite autonome. Mais quand je construis un logiciel d'intelligence artificielle avec mes clients, ils doivent me donner leur confiance », avance Daniel Covacich, chief data officer de la startup Braincities Lab. Si l'on ne peut pas retracer les décisions qui mènent à un accident, les développeurs pourraient être désignés coupables.

François Manens

Sujets les + lus

|

Sujets les + commentés

Commentaires 6
à écrit le 24/08/2019 à 13:45
Signaler
on sait depuis le livre de halbert white ' artificial neural networks', blackwell, 1992, que les ANN sont des boites noires ( y a les demonstrations topologiques dans le livre) non lineaires, dont on ne sait ce qui se passe a l'interieur ( sauf en re...

à écrit le 05/08/2019 à 16:10
Signaler
Lorsqu'un pays est incapable d'avoir un cahier des charges autour des item de l'algorithme, disons que la question simplement élémentaire de la démocratie ne se pose pas, ce qui aussi permet d'avoir une idée des passerelles politiques du monde de dem...

le 24/08/2019 à 13:54
Signaler
l'algorithme, on le connait, j'ai mis la reference a lire dans mon autre post vous empilez des neurones, vous faites une pass forward, calcul d'erreur et retropropagation de l'erreur dans les couches anterieures - backwardpass-( majoritairement via...

à écrit le 01/08/2019 à 8:52
Signaler
Les boites noires pour les noirs et blanches pour les blancs..., j'ignorais qu'il y avait un racisme stupide possible de l'I.A. ! Tout algorithme doit suivre une procédure déontologique de qualification avant d'être adopté, sinon c'est le chaos...

à écrit le 31/07/2019 à 18:19
Signaler
J'ai lu l'article sur pressreader et bof, je n'ai qu'une seule certitude, la betise naturelle aura toujours le dessus, et heureusement

à écrit le 31/07/2019 à 14:19
Signaler
multi-langages , directement : il vaut mieux parler de pseudo-intelligence : PI, symbole Π majuscule ( à ne pas confondre avec π pi minuscule, constante d’Archimède)

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.