Les biais de l'intelligence artificielle en question

 |   |  559  mots
(Crédits : iStock)
La fameuse « boîte noire » de l'intelligence artificielle, c'est-à-dire le manque de transparence dans le processus de décision d'un algorithme, pose un vrai problème pour l'adoption massive de cette technologie.

L'intelligence artificielle prend de plus en plus de place dans les décisions stratégiques des entreprises. Ses champs d'applications vont de l'identification des chantiers prioritaires pour les entreprises du BTP, à l'évaluation du risque de défaut au moment d'émettre un prêt pour les banques, en passant par l'identification des meilleurs prospects dans le recrutement. Les logiciels permettent d'économiser de précieuses heures, voire jours, en plus de rendre les choix plus pertinents... dans la majorité des cas. Car l'intelligence artificielle n'échappe pas aux biais. En 2016, des journalistes de l'ONG ProPublica avaient révélé qu'un logiciel d'évaluation des risques de récidive, Compas, très utilisé dans les tribunaux américains, se trompait deux fois plus pour les condamnés noirs que pour les blancs. Le problème est que les biais des algorithmes sont difficilement repérables.

Si le logiciel repose sur l'apprentissage machine, alors on ne sait pas retracer, étape par étape, les décisions qui ont mené à la recommandation finale. C'est le phénomène de la boîte noire : on connaît la problématique et sa solution, mais pas ce qu'il se passe entre les deux. Bien sûr, les...

Article réservé aux abonnés

Achetez l'article
Pour
0.49TTC
J'achète
Abonnez-vous
Accéder
Déjà inscrit ou abonné ? Connectez-vous
Se connecter

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 24/08/2019 à 13:45 :
on sait depuis le livre de halbert white ' artificial neural networks', blackwell, 1992, que les ANN sont des boites noires ( y a les demonstrations topologiques dans le livre) non lineaires, dont on ne sait ce qui se passe a l'interieur ( sauf en reseau monocouche - perceptron- ou la on a qques outils)
alors des reseaux alexnet avec 10 millions de parametres, avec des couches empilees, du sliding convolutif parametrable, etc, c'est pêine perdue
bon, il sera possible eventuellement de dire quels poids ont joue un role en derniere couche ( en general logistique) mais sans pouvoir dire a quoi ca correspond, ce qui ne sera d'une grande aide pour personne
concernant les credits, ca existe depuis longtemps, ca s'appelle scoring, et y a une verion lineaire de la banque de france ' fonction Z' ( l'avantage etant de voir ou ca tirait, c'est a dire que le ratio dette/fonds propre d'une entreprise joue sur son taux de defaut ce qu'un comptable sait sans logiciel ;-)
idem pour les recrutements, etc
a écrit le 05/08/2019 à 16:10 :
Lorsqu'un pays est incapable d'avoir un cahier des charges autour des item de l'algorithme, disons que la question simplement élémentaire de la démocratie ne se pose pas, ce qui aussi permet d'avoir une idée des passerelles politiques du monde de demain, car n'avoir aucun débat, aucune loi permet donc le laisser faire économique, la ou j'y vois aussi le pantouflage qui permet de ne pas faire de sujet sur une question fondamentale normalement pour un état, la protection de ces citoyens !!!

mais pour le moment, si l'on parle de la France, le fait d'avoir délégué sa sécurité information a microsoft, permet aussi d'avoir une idée des tenants et aboutissants !!!!

Du coup, la question fera réponse quand il ne sera plus possible de rien faire, car malin j'imagine que des solutions "économiques" autrement dit, le fait de payer vous permettra d'avoir l'info, car l'état plus que de ne rien comprendre, a tellement d'intérêts communs, que j'imagine qu'ils doivent avoir aussi l'accès eux, mais pour le citoyen, disons que nous attendrons sans doute d'y voir ces abus, comme d'hab !
Réponse de le 24/08/2019 à 13:54 :
l'algorithme, on le connait, j'ai mis la reference a lire dans mon autre post
vous empilez des neurones, vous faites une pass forward, calcul d'erreur et retropropagation de l'erreur dans les couches anterieures - backwardpass-( majoritairement via gradient, parfois avec l'aide de hessian)
y a des heuristiques pour eviter le gradient vanishing, les oscillations, vous pouvez avoir des taux d'apprentissage variable, ou autre
y a des versions genetiques ou ant
voila vous avez l'algorithme, c'est le reste que vous n'avez pas
ca c'est pour les ann
autrement vous pouvez vous amuser avec des vecturs supports , de la dimension de vapnik, et de la minimisation de risque empirique
facile, voila l'algorithme; vous prenez vos donnees, vous parametrez grossiermeent l'erreur que vous etes d'accord d'avoir dans vos marges, vous calculez les lagragiens, et c'est parti; y a une version non lineaire avec un kernel trick
la encore vous avez l'algorithme, c'est pas pour ca que vous allez savoir pourquoi et comment il determine le nombre de vecteurs supports, et quelle est la signification de chacun d'entre eux!
et la liste est longue d'algorithmes!
a écrit le 01/08/2019 à 8:52 :
Les boites noires pour les noirs et blanches pour les blancs..., j'ignorais qu'il y avait un racisme stupide possible de l'I.A. !
Tout algorithme doit suivre une procédure déontologique de qualification avant d'être adopté, sinon c'est le chaos...
a écrit le 31/07/2019 à 18:19 :
J'ai lu l'article sur pressreader et bof, je n'ai qu'une seule certitude, la betise naturelle aura toujours le dessus, et heureusement
a écrit le 31/07/2019 à 14:19 :
multi-langages , directement :
il vaut mieux parler de pseudo-intelligence : PI, symbole Π majuscule ( à ne pas confondre avec π pi minuscule, constante d’Archimède)

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :