Bruno Maisonnier : "Qualifier d'intelligence le 'couple' deep learning et réseaux de neurones, est une usurpation"

 |   |  577  mots
(Crédits : DR)
[SERIE] Le père du robot Nao, Bruno Maisonnier, nous donne les clefs pour comprendre l'intelligence artificielle (IA) d'après-demain.

LA TRIBUNE - La robotique et l'IA ont-ils beaucoup de points communs ?

BRUNO MAISONNIER - Oui, il y a des connexions et c'est pour cela que je travaille maintenant sur les IA. Ce sont deux univers qui se répondent. Quand on parle aujourd'hui de robotique, on attend un certain niveau de compréhension de la machine. L'IA est aujourd'hui indispensable à la robotique, mais pas l'inverse : la robotique n'est pas indispensable à l'IA.

C'est ce que vous avez essayé de faire avec Nao et Pepper quand vous étiez chez Aldebaran Robotics [SoftBank Robotics aujourd'hui, Ndlr] ?

Les robots que nous avons créés étaient géniaux, mais totalement frustrants. Ils étaient incapables d'interagir et de comprendre leur environnement. Nous avions une vision différente et singulière de la robotique et on a implémenté celle-ci à l'aide d'actions purement préprogrammées. Cela donnait l'illusion d'interactions. On a fait le maximum avec les technologies à notre disposition lors des débuts d'Aldebaran, mais c'était plus du bricolage.

C'est là que j'ai pris conscience qu'il y avait une rupture à faire et qu'il fallait changer de paradigme.

La première chose que fait un humain face à un robot est de lui faire « coucou » avec la main pour interagir avec lui. Dans 90 % des cas, le robot ne répond pas correctement : soit il ne se rend pas compte qu'une personne essaye d'interagir avec lui, soit il lui parle en regardant à côté... À partir de là, le dialogue est déjà cassé et les interactions deviennent factices.

Actuellement, on arrive à programmer les robots pour faire comme si. Mais cela ne répond pas aux besoins réels de la robotique de demain.

Pour vous, il faut aller plus loin que le deep learning [apprentissage profond, Ndlr] encensé par les Gafam et les BATX. Pourquoi ?

Qualifier d'intelligence le « couple » deep learning et réseaux de neurones, qui est l'IA mainstream, est une usurpation totale. Des femmes et des hommes vont manuellement annoter des données, les transmettre à l'algorithme de deep learning pour produire une boîte noire, qui si vous lui communiquez les mêmes données, vous donnera les mêmes réponses. Avec d'autres données, cela ne fonctionne plus et il faut reprendre la phase d'apprentissage. Il y a zéro intelligence dans cette technologie et c'est pour cela qu'il faut aller plus loin. Ce que l'on veut, c'est de la « vraie intelligence ». Notre cerveau a besoin de peu d'exemples pour comprendre et traiter des concepts. On voit tout de suite que le deep learning, qui a besoin de dizaines de millions d'exemples, ne fonctionne pas comme le cerveau. Ce qui m'intéresse, c'est de se rapprocher du fonctionnement du cerveau, infiniment plus puissant et plus économe en ressources.

Comment rattraper les Gafam et les BATX dans cette course à l'IA ?

Le système actuel de deep learning est puissant pour un grand nombre d'applications. Pour le moment, les Gafam et autres BATX sont loin devant. Si nous décidons de rattraper notre retard, ce sera difficile : ils ont bien plus de moyens que nous. Stratégiquement, le gouvernement devrait axer ses efforts pour mettre en avant nos compétences et dépasser la génération du deep learning. Avec l'appui de bonnes équipes de recherche et de moyens raisonnables, vous pouvez créer la technologie de la génération d'après, et c'est avec elle que l'on va trouver de nouveaux business, qui nous sont pour le moment inaccessibles.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 01/04/2018 à 19:17 :
ca nous change des discours angeliques des gens qui n'y comprennent rien, ou des alamristes qui comprennent encore moins...... on oublie effectivement de preciser que l'optimisation est ' statistique' ( que ce soit sur l'entropy ou L2, ou toute autre forme possible, pour peu qu'on remodifie les derivees pour les retropropagations), que le modele est defini par l'homme ( nombre de layers, structures, etc) que le mode d'apprentissage est donne par l'homme aussi ( et que la majorite des datascientists qui utilisent theano et tensoflow savent a peine ce qu'est un gradient, comment on peut modifier ca), qu'on peut optimiser un cout avec autre chose que de la backpropagation, avec des algo genetiques ou du recuit simule, ou autres, etc etc etc........
cherry on the cake les modeles une fois calcules ( en modeles deep avec cuda en 160 millions de poids synaptiques, ils restent figes)
ok, c'est bien pour le visuel, pour le reste on discute, le probleme c'est de discuter avec des gens qui n'ont aucune formation theorique et vous arguent ' lecun a dit ca, alors c'est vrai' ( oubliant le contexte ou sont pronocnes les mots)
a écrit le 01/04/2018 à 9:53 :
L’humain est très complexe ( encore plus complexe que ce qui est écrit dans les manuels scientifiques)et le cerveau est un récepteur - capteur ( interne et externe et connecté sur plus de 6 systèmes au moins si ce n’est pas plus)
Peut être que l’énergie quantique permettra des progrès dans l’IA
Réponse de le 03/04/2018 à 15:58 :
Pour l'instant le cerveau humain est quantique " oui, non, peut être" l'ordi quantique reste une chimère !

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :