IA : ne dites pas « apprentissage profond », dites  : « apprentissage statistique »

Le deep learning ou "apprentissage profond" éclipse, par son côté glamour, bien d'autres domaines de l'intelligence artificielle. A tort. Charles Cuvelliez, Secure (centre de recherche en cybersécurité), Université libre de Bruxelles et Hugues Bersini, Institut de Recherches Interdisciplinaires et de Développements en Intelligence Artificielle, Université libre de Bruxelles.
Charles Cuvelliez et Hugues Bersini.
Charles Cuvelliez et Hugues Bersini. (Crédits : DR)

L'Intelligence artificielle (IA) n'est pas infaillible. L'accident qu'a causé une voiture autonome d'Uber va-t-il nous amener à prendre le temps de comprendre ses forces et ses faiblesses ? C'est la seule manière de résister à la vague béate (ou paniquante) du tout est désormais possible

Le deep learning ou apprentissage profond éclipse, par son côté « glamour », bien d'autres domaines de l'intelligence artificielle. Son autre nom (apprentissage statistique) fait moins rêver. Il est, en plus, une resucée des premiers réseaux neuronaux des années 1950 qui fonctionnent bien mieux avec la puissance de calcul d'aujourd'hui et le volume invraisemblable de données sur le Web. On a pourtant l'impression que la messe est dite : l'IA, cela se ramènerait au seul deep learning et il n'y aurait plus qu'à attendre qu'elle prenne le pouvoir. Pourtant, votre GPS ne fonctionne pas avec le deep learning et le logiciel Watson d'IBM, quand il bat tout le monde à Jeopardy, le jeu TV américain, ne le doit qu'aux immenses bases de données qu'il a pu fouiller à la vitesse de l'éclair : aucun apprentissage là-dedans.

Les données, le talon d'Achille

L'Intelligence artificielle a souvent besoin de données en masse pour l'alimenter et l'entraîner. Bien sûr, en présence des mauvaises données, au départ, l'IA, comme nous, humains, donnera comme nous, humains. Mais même avec des données correctes, on risque le biais de la « Sur-Généralisation », qui calque l'avenir sur le passé et les situations nouvelles sur celles du passé. On n'enverrait alors les policiers que dans les quartiers de nos villes connus pour leur insécurité, on déclarerait alors coupables des innocents qui ressemblent aux criminels qui les ont précédés.

Or l'IA se compromet aujourd'hui, avec ce même risque, dans des prédictions économiques afin d'optimiser des politiques sociales ou dans des modèles financiers macroéconomiques. Le biais le plus fréquent reste la manière dont sont collectées les données. Il suffit qu'elles ne soient pas réparties dans tous les groupes représentatifs pour que l'application d'IA qui s'est entraînée dessus produise des biais qui nous feraient rire (on se souvient des bévues de Cortana qui s'abreuvait un peu trop d'un certain type de discours sur les réseaux sociaux)... s'ils sont bien évidents. Mais ils ne le sont pas toujours et ce biais, couplé avec une culture du secret légitime (protection intellectuelle oblige) autour de l'IA, peut aboutir à des résultats à côté de la plaque qu'on croit justes. Ces biais restent indécelables car les détecter exige une maîtrise de la science des données hors du commun. Avec une IA aux commandes et ce biais, c'est accepter que le futur sera à l'image du passé. L'IA n'est alors pas la panacée pour le changement et les réformes. Autant le savoir. Et puis, obtenir massivement des données pour l'IA, ce n'est pas toujours possible : songeons aux expérimentations de nouvelles thérapies forcément limitées en volume.

Reset à chaque changement d'objectif

Si on fixe un nouvel objectif à une application d'IA qui faisait bien son job, c'est recommencer à zéro, avec une phase d'apprentissage, des données à collecter, etc. On est loin des capacités des humains à transposer à d'autres contextes les données et l'apprentissage acquis. C'est un domaine où l'IA doit progresser. Dans le « one shot learning », on construit un modèle idéalisé dans un environnement virtuel de la tâche à effectuer. On la confronte ensuite à des cas réels. Il semblerait que la combinaison du modèle virtuel, idéal et schématisé, avec moins de cas pratiques remplace les volumes immenses de données de l'approche classique. Dans la même optique, le « transfer learning » vise à transférer dans le monde réel, à un robot par exemple, tout un apprentissage réalisé dans une simulation d'un univers virtuel. C'est aussi via le 'transfer learning' qu'on peut, de manière spectaculaire, déduire de vos préférences en musique vos goûts de lecture sans que vous n'en ayez jamais parlé à l'assistant virtuel qui s'y essaiera. Alphago est de cet acabit : il peut jouer à trois jeux différents. Il a appris, en un jour seulement, à jouer aux échecs après avoir fait sensation au jeu de Go.

L'apprentissage par renforcement permet à l'IA de se passer de données en pratiquant par essai-erreur (avec récompense ou pénalité). Les programmes de jeu (Go, échecs) par IA l'ont popularisé mais on l'imagine désormais dans d'autres tâches où le principe de la récompense peut s'extrapoler : gérer un portefeuille en bourse avec les gains (récompense) ou pertes (pénalité) qui s'ensuivent, l'achat effectif (récompense) ou non (pénalité) de la part d'un internaute pour un outil de recommandation mû par l'IA, la diminution de la consommation d'essence pour un logiciel d'aide à la conduite...

Une technique appelée « Generative Adversarial Networks (GANs) » semble avoir les faveurs de la communauté des chercheurs : deux applications d'IA s'y battent l'une contre l'autre, l'une essayant de faire du mieux possible sa tâche (et récompensée pour ça) et l'autre qui essaie de la tromper (et récompensée si la première se trompe). Un exemple : l'une essaie de discerner des images de vrais chats par rapport à des images de synthèse, l'autre en produit de plus vraies que nature pour la tromper. Les deux progresseront à toute allure sans aide extérieure.

Nous vivons plus une bifurcation importante en IA que sa révolution. La puissance de nos ordinateurs leur permet, par essais et erreurs, d'explorer des espaces de solution de taille presque infinie. Et l'innombrable quantité de données que nous leur abandonnons sur le web permet aux ordinateurs de recourir à des stratégies d'imitation statistique pour faire mieux que nous dans des tâches toujours plus nombreuses (comme la traduction automatique qui se sert de toutes les traductions numérisées disponibles ou la labélisation automatique des images).

Opacité

C'est l'opacité sur les critères de décision de l'IA qui reste son plus grand talon d'Achille. La majorité des logiciels de décision par deep learning attaquent frontalement le principe philosophique selon lequel n'est responsable qu'un agent capable de rendre compte de la raison de ses actes. C'est devenu impossible. Ces logiciels agissent et décident sans avoir la moindre idée du pourquoi mais leur décision n'en est pas moins validée statistiquement. S'il n'est pas nécessaire de comprendre pourquoi Alphago (le logiciel de champion de go) gagne, c'est un obstacle sociétal majeur ailleurs. Cela ferme à l'IA des pans entiers de l'industrie qui ont des contraintes réglementaires fortes (sûreté nucléaire, transport...). C'est le problème de la qualification des équipements et processus de sûreté : comment prouver que l'IA fera bien ce qu'elle doit faire. Idem pour accepter qu'un système automatisé de diagnostic de cancer nous informe froidement qu'il ne nous reste que quelques jours à vivre.

La qualification des données et la qualification des processus de décision, ce sont les enjeux d'une IA qui ne fait plus peur et ne nous envahira plus sans notre consentement.

Pour en savoir plus :

What AI can and can't do (yet) for your business, Michael Chui, James Manyika, and Mehdi Miremadi, McKinsey Quarterly, janvier 2017

Sujets les + lus

|

Sujets les + commentés

Commentaires 3
à écrit le 29/03/2018 à 16:49
Signaler
Pourquoi mettre en cause l'IA dans l'accident UBER ? (On sait que même un pilote humain n'aurait pas pu éviter cet accident(si il était plus rapide qu'une machine pour prendre ses décisions et agir)). L'IA n'est pas en cause dans l'accident UBER. ...

à écrit le 23/03/2018 à 17:51
Signaler
360 degré de statistiques = IA Optimum si «  les bases des statistiques «  Sont «  justes » à 100% Donc IA efficace Question : De combien de % l’homme est «  cohérent » pour avoir des bases justes à 100% ?

à écrit le 23/03/2018 à 15:02
Signaler
J'aime bien votre point de vue qui est différent de l'angélisme traditionnel que l'on trouve dans les articles de journaux, avec des gens qui n'y connaissent rien. Perceptron de Rosenblatt, c'est pas vendeur… deep Learning, c'est vendeur ! Il y a 2...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.