Comment IBM "ouvre la boîte noire" de l'intelligence artificielle

 |   |  813  mots
La nouvelle solution logicielle destinée aux entreprises s'appuie sur une technologie maison. Elle est capable de détecter automatiquement les biais des algorithmes afin d'en diminuer l'influence, et d'expliquer en temps réel, dans des termes faciles à comprendre comment l'IA prend les décisions.
La nouvelle solution logicielle destinée aux entreprises s'appuie sur une technologie maison. Elle est capable de détecter automatiquement les biais des algorithmes afin d'en diminuer l'influence, et d'expliquer en temps réel, dans des termes "faciles à comprendre" comment l'IA prend les décisions. (Crédits : © Tobias Schwarz / Reuters)
Le groupe américain pionnier dans l'intelligence artificielle lance la première solution logicielle ouverte capable de détecter les biais des algorithmes et d'expliquer en temps réel les décisions de l'IA. Destinée aux entreprises, cette sous-couche logicielle s'intègre avec IBM Cloud mais aussi avec les solutions concurrentes et open source.

Pour que l'intelligence artificielle ne fasse plus peur et qu'on accepte qu'elle prenne des décisions à notre place sur la base de modèles prédictifs et auto-apprenants, il faut que les hommes soient capables de la comprendre et la maîtriser. C'est aujourd'hui le plus grand frein à son déploiement, à la fois au sein des entreprises, mais aussi dans la société tout entière. Car l'IA, comme le big data d'ailleurs, fonctionne comme une boîte noire : conçus dans l'opacité, les algorithmes aboutissent à des décisions que leurs concepteurs n'expliquent pas, ou dans un langage inaccessible au grand public. Le scandale autour de Parcours Sup', dont l'algorithme fonctionne avec des données mais sans IA, montre bien que la confiance et la transparence sont le plus grand défi de l'ère de la donnée-reine.

Une solution qui explique en temps réel le processus de décision

L'entreprise américaine IBM, pionnière de l'intelligence artificielle avec son programme Watson, a décidé de s'attaquer au problème en commercialisant, à partir du 19 septembre, une nouvelle solution logicielle capable "d'ouvrir la boîte noire" de l'IA. Cette sous-couche destinée aux entreprises s'appuie sur une technologie maison. Elle est capable de détecter automatiquement les biais des algorithmes afin d'en diminuer l'influence, et d'expliquer en temps réel, dans des termes "faciles à comprendre" comment l'IA prend les décisions, ce qui permet à l'utilisateur d'en "garder la maîtrise", explique Jean-Philippe Desbiolles, vice-président Cognitive Solutions chez IBM France :

"L'utilisateur pourra comprendre en temps réel comment le modèle d'IA a abouti à une décision. Il pourra accéder, dans des termes clairs, aux éléments de recommandation utilisés par l'IA, et comprendre sur quels faits et données ils sont basés. C'est comme un audit en temps réel de l'IA, une traçabilité qui permet de donner du sens aux décisions sur des éléments dignes de confiance et à valeur ajoutée, la décision pouvant être refusée si le processus est jugé insatisfaisant."

Ces nouvelles capacités de confiance et de transparence fonctionnent avec des modèles construits à partir d'une grande variété de "framework" (systèmes) de machine learning tels que IBM Watson, AzureML, AWS SageMaker, Tensorflow et SparkML, soit la plupart des cadres d'IA populaires utilisés par les entreprises. Le service peut aussi être programmé pour "surveiller les facteurs de décision uniques de tout flux de travail de l'entreprise, ce qui permet de l'adapter à l'utilisation spécifique de chaque organisation".

Les biais des algorithmes détectés et atténués

L'autre particularité du logiciel, c'est-à-dire sa capacité à déceler et à expliquer les biais des décisions algorithmiques en temps réel et pour toutes les organisations, est une première mondiale, d'après IBM.

"Les biais sont inhérents à l'IA dans la mesure où elle est programmée par des hommes et des femmes. Notre système permet de détecter le biais au moment même où il apparaît. Par exemple, lorsqu'il suggère une décision sur les bases des jeux de données qu'il a à disposition, par exemple refuser une police d'assurance à une personne de 22 ans, il va aussi informer l'assureur que cette police a été approuvée à 91% pour les clients entre 31 ans et 55 ans, mais seulement à 52% pour les 18-24 ans. Cette information devient enfin visible, en temps réel, ce qui permet au client de la prendre en compte", ajoute Jean-Philippe Desbiolles, qui travaille sur l'IA pour IBM depuis une dizaine d'années.

Le logiciel recommande aussi des données à ajouter au modèle pour atténuer tout biais qu'il a détecté. IBM indique aussi mettre à disposition de la communauté open source la boîte à outils AI Fairness 360, une bibliothèque d'algorithmes, de codes et de tutoriels inédits, destinés à fournir des outils aux universitaires, aux chercheurs et aux spécialistes des données, pour intégrer des solutions de détection des biais dans les futurs modèles d'IA.

35% des décideurs ont un niveau de confiance "acceptable" dans l'IA

IBM espère que sa solution va lui permettre de développer son activité IA et populariser Watson, tout en faisant progresser l'ensemble de l'industrie sur la question de la transparence des algorithmes et de la lutte contre les biais. L'enjeu business est fort pour le géant américain, qui a mené une étude auprès de 5.000 décideurs en 2018 sur la confiance qu'ils accordent dans l'IA.

Verdict : "Si 94% des sondés sont convaincus que l'IA est un sujet de compétitivité stratégique majeur et un atout pour se différencier de la concurrence, à peine 35% ont un niveau de confiance élevé, donc acceptable, dans leur propre organisation pour tout ce qui touche à l'analytics ou à l'IA", décrit Jean-Philippe Desbiolles. Il reste du pain sur la planche.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 20/09/2018 à 11:16 :
à la sncf ils utilisent block chain et automatisation pour leur compta. Leur trucs n'est pas au point, mais no soucis, ça paye des fausses factures en masse, en double, triple, quadruple,... paye des factures non conforme à la loi, quasi personne dans cette boite n'a de compétence en compta, pas de sécurité de partition des tache (commande/paiement) avec risque de détournement, et j'en passe en anomalies graves.

Et bein malgré tout ça, comme c'est pas cher à faire, et bein ils le font.

Ne vous attendez à rien de l'IA, si à la sncf ils ont fait ce choix, toutes les autres boites feront ce choix et nous n'aurons plus d'emploi ou 4/5 emplois par méga sté à se répartir sur les 12 millards d'habitant de la planète.
a écrit le 20/09/2018 à 8:37 :
En parlant d'IBM :

Depuis mars 2018, une affaire de discrimination sur l’âge plane au-dessus du géant américain IBM. Avec l’entrée en lice de la célèbre avocate Shannon Liss-Riordan à la tête d'une action collective, elle prend une nouvelle ampleur.
Shannon Liss-Riordan, une des plus influentes avocates américaines, s’est saisie d’une action collective contre le géant IBM, accusée de discriminer ses employés selon leur âge, a rapporté Bloomberg le 17 septembre 2018.
Ce ne sera pas la première fois que la juriste s’attaque à un groupe d’une telle taille, puisqu’elle a déjà gagné des procès contre Uber, Lyft, Google ou Amazon. Sa firme Lichten & Liss-Riordan s’est taillée un nom comme défenseure du droit des employés laissées pour compte par les nouvelles entreprises de la tech.La célèbre avocate représentera trois anciens employés d’IBM, qui accusent leur ancien employeur de les avoir discriminés sur leur âge lors de leur licenciement. Le chronomètre de cette bombe à retardement s’est déclenché le 22 mars 2018, lorsque le site d’investigation ProPublica a publié, en partenariat avec Mother Jones, une longue enquête à charge contre IBM. Avec de nombreuses preuves à l’appui, documents internes comme témoignages, les journalistes ont exposé les nombreux cas de discrimination sur l’âge dans les licenciements d’IBM.Selon leurs chiffres, sur les cinq dernières années, 20 000 employés américains de plus de 40 ans ont été licencié par le géant de l’informatique, ce qui représente plus de 60 % des licenciements américains du groupe sur la période. La chute de ce premier domino a conduit dès début avril à l’ouverture d’une enquête de la part de la commission américaine de l’égalité aux opportunités d’emploi (EEOC) : IBM n’aurait pas respecté certaines lois et dispositions qui protègent les employés seniors. La commission a soutenu les premières dépositions de plainte des anciens employés, et d’autres se sont déclarées tout au long de l’été.
Réponse de le 20/09/2018 à 9:57 :
La discrimination par l'age est utilisé aussi chez nous pour réduire le montant des retraites. On comprend donc pourquoi les états ferment les yeux...
a écrit le 19/09/2018 à 16:57 :
Comme il fallait s'en douter et étant donén quen ous sommes dans une économie et société financiarisée on demande que déjà la simple recherche d'une innovation fasse du pognon au lieu d'attendre qu’elle soit aboutie.

Du coup nous ne pouvons que craindre qu'au lieu de chercher à créer réellement une intelligence artificielle on exploite à l'infini et selon la marge bénéficiaire de l'actionnaire une innovation non aboutie.

La finance est l’ennemie de l'humanité.
Réponse de le 19/09/2018 à 18:41 :
Sans la finance internationale, la seconde guerre mondiale n'aurait pas eu lieu. Les guerres et les armes modernes sont financées par le crédit fait aux états. Le principe de l'endettement des états est à l'origine de la sur-exploitation de notre planète. Sans la finance et sa spéculation outrancière, nous n'aurions pas dégradé notre environnement aussi vite, et nous aurions eu le temps de trouver des solutions. C'est la finance qui accélère notre extermination.
a écrit le 19/09/2018 à 11:32 :
le 11 août dernier, le Wall Street Journal a fait un article sur IBM qui avait promis d'améliorer le traitement du cancer avec l'IA. après des milliards investis, cela ne donne pas grand chose.
l'IA et autres trucs technologiques, vaste fumisterie ?

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :