Facebook développe des puces spécialisées en IA pour créer les Siri et Alexa du futur

Par François Manens  |   |  446  mots
Facebook se lance avec Intel dans le développement de puces en silicium spécialisées en IA. Aujourd'hui, les deux entreprises travaillent conjointement sur le Nervana du fondeur, un processeur neuronal spécialisé dans les micro-architectures pour l'IA. (Crédits : Intel)
Yann Le Cun, le chef scientifique français de la division intelligence artificielle de Facebook, s'est exprimé sur le développement des futurs puces en silicium spécialisées. En partenariat avec Intel, le géant californien s'investit dans leur conception, et espère qu'elles permettront de créer des assistants vocaux type Siri, Alexa et Google Assistant plus autonomes et performants. Décryptage.

Après Amazon et Google, c'est au tour de Facebook de se lancer dans le développement de puces électroniques spécifiques à des usages de machine learning. Cette nouvelle génération de microprocesseurs permettrait d'améliorer les intelligences artificielles (IA). Avec une telle technologie, Facebook prépare déjà un assistant vocal doué de "sens commun" et capable d'une véritable discussion. Mais selon les propres mots de la figure du deep learning Yann Le Cun, cette innovation n'est "pas pour demain".

Les trois défis à relever par les puces spécialisées en IA

Visage de l'intelligence artificielle (IA) chez Facebook, Yann Le Cun a accordé deux interviews à Bloomberg et au Financial Times pour préciser sa vision du futur de cette technologie. Pour le chercheur français, entraîner plus rapidement les intelligences artificielles, diminuer l'énergie demandée par les algorithmes, et permettre le développement de nouvelles architectures de réseaux neuronaux sont les principaux enjeux autour du développement des nouvelles puces en silicium.

Aujourd'hui, les chercheurs utilisent les GPU (Graphic Process Unit) pour faire tourner la majorité des algorithmes de machine learning. Pensées pour le traitement d'images, notamment dans les jeux vidéo, les GPU excellent dans les calculs en parallèle, mais ne sont spécifiquement pensées pour les IA. Ainsi, elles consomment par exemple de l'énergie en réalisant des calculs qui ne sont pas nécessaire au bon déroulement du machine learning.

L'entreprise de Marc Zuckerberg avait recruté l'an dernier une équipe pour travailler sur de nouvelles puces et annoncé, à l'occasion du CES 2019, son partenariat avec Intel. Les deux entreprises travaillent aujourd'hui sur les Nervana Neural Processor du constructeur, un matériel spécialisé dans les micro-architectures pour l'IA.

Rendre les assistants vocaux comme Siri et Alexa plus interactifs

Pour Facebook, la prochaine vague de matériel permettrait le fonctionnement de nouvelles architectures de réseaux neuronaux, capables de doter d'autonomie un assistant comme Siri. Au lieu de servir de simple boîte à réponse comme à l'heure actuelle, il pourrait suggérer certains contenus, et vraiment interagir dans une discussion. Autre axe de développement, ces nouvelles puces pourraient permettre de mieux modérer ses réseaux sociaux, et notamment les vidéos en direct. Avec ces nouveaux processeurs, la capacité de calcul des algorithmes deviendrait plus importante et plus réactive, notamment face aux milliards de photos et vidéos en circulation sur ses plateformes.

Au Financial Times, Yann Le Cun précise que ces recherches s'inscriraient dans une démarche Open Source dès les premiers résultats, pour permettre à d'autres entreprises de se pencher également sur son amélioration.