Le "hardware", la partie immergée de l'IA-ceberg

 |   |  917  mots
(Crédits : Pixabay)
Le hardware est d'une importance cruciale pour les applications liées à l'intelligence artificielle. Raison pour laquelle les grands noms de la high-tech (Apple, Google, Intel...) cherchent à développer leur propre puce spécialisée dans l'IA, un secteur désormais incontournable dont l'exploitation sur le long terme pourrait s'avérer fructueux pour ces sociétés. Par Alexis Houssou, CEO et fondateur de Hardware club, un fonds d'investissement spécialisé dans le hardware.

Il y a quelques semaines, Elon Musk dévoilait avec fierté la toute dernière création de Tesla : une puce baptisée FSD. Selon lui, celle-ci devrait permettre aux véhicules de la marque d'accéder à l'autonomie complète d'ici quelques mois, affirmation aussitôt mise en doute par son ancien fournisseur, Nvidia, qui en a profité pour vanter son propre système intégré consacré à la conduite autonome. S'il est difficile de trancher cette polémique, elle aura au moins eu un mérite : mettre en lumière l'importance cruciale du hardware pour les applications de l'intelligence artificielle (IA). En réalité, en cherchant à développer sa propre puce spécialisée dans l'IA, Tesla ne fait que rejoindre la plupart des grands noms de la technologie. Depuis l'iPhone 8, Apple intègre à ses puces ce qu'il appelle un « Neural Engine ». Google a, de son côté, spécifiquement conçu une puce baptisée Tensor Processing Unit (TPU) pour sa plateforme de machine learning TensorFlow.

Amazon a procédé à plusieurs acquisitions en ce sens pour renforcer les capacités de son enceinte connectée Echo, tandis que Facebook a également fait part de ses intentions en la matière. De leur côté, les spécialistes du semi-conducteur ne sont pas en reste, à l'image d'Intel, qui a procédé à d'importantes acquisitions ces dernières années (Nervana, Mobileye) ou de Samsung, qui vient d'annoncer un colossal plan d'investissement de plus de 100 milliards de dollars sur dix ans. Pourtant, ces grandes manoeuvres passent quelque peu inaperçues, tant ce sont les perspectives d'application qui monopolisent toute l'attention en matière d'IA. Dans l'effervescence actuelle, il n'est question que de détection de signaux faibles ou de corrélations insoupçonnées, d'aide à la décision et d'automatisation, de prédiction et de personnalisation. Pour les startups, l'IA est même pratiquement devenue un passage obligé. La quasi-totalité d'entre elles la mettent au menu de leur business plan et de leur feuille de route technologique, bien que, pour les trois quarts, cela ne reflète aucune réalité.

Aller plus loin

Chacun promet monts et merveilles, et le caractère un peu mystérieux du terme ne fait qu'amplifier la confusion. Cependant, s'il est d'ores et déjà possible de tirer des bénéfices significatifs de l'IA, ceux-ci sont encore bien modestes au regard de son potentiel. Ce sont, comme on dit en anglais, les « low-hanging fruits », les fruits les plus facilement accessibles. Mais les plus nombreux, et les plus juteux, se trouvent plus loin. Pour les atteindre, il faudra d'autres échelles que les systèmes actuels. Et c'est là tout l'enjeu de la course moins médiatisée, mais non moins acharnée, à l'innovation matérielle. Les principes sous-jacents des systèmes informatiques ordinaires, y compris les plus puissants, ont été définis à une autre époque et pour d'autres contextes d'utilisation : machines isolées et peu nombreuses, volumes de données restreints, technologies de production limitées, faibles contraintes énergétiques et de sécurité...

Ces architectures généralistes ne peuvent pas tout à fait répondre aux exigences de l'IA, qui requiert des systèmes de pointe à tous les niveaux : pour bâtir les modèles, pour les éduquer et les opérer, que ce soit à distance, dans le cloud, ou de façon embarquée, et pour prendre les décisions au plus près de la donnée, avec une latence minimale (edge computing). À chacune de ces situations correspond une équation où interviennent, dans des proportions variables, la puissance de traitement, la précision des calculs, la consommation d'énergie, l'enveloppe thermique, les volumes de données, la sécurité et le coût. En outre, ces exigences, et donc les solutions, peuvent varier en fonction du domaine d'application, qu'il s'agisse de conduite autonome, de robotique industrielle, d'objets connectés ou d'applications digitales.

Pénurie de compétences et investisseurs frileux

Dès lors, on comprend que tous les grands noms de la technologie se penchent sur le sujet. Disposer de son propre matériel n'est pas seulement une question d'indépendance vis-à-vis de ses fournisseurs, c'est aussi un avantage stratégique. Cela permet d'optimiser son système en l'intégrant de bout en bout (full stack), mais aussi de le fermer, de manière à y conserver toutes ses précieuses données. Dans l'ombre des grands, de nombreuses startups travaillent elles aussi à créer les briques matérielles qui, demain, seront indispensables aux applications d'IA avancées. C'est, par exemple, le cas du Français LightOn, qui développe des processeurs utilisant la lumière, ou encore de la licorne britannique Graphcore, dont l'Intelligence Processing Unit (IPU) est exclusivement conçu pour le machine learning.

Pour ces nouveaux acteurs, l'environnement n'est pas simple, car ils sont confrontés à une pénurie de compétences et à des investisseurs parfois frileux face à une activité réputée très capitalistique et à la rentabilité incertaine. Mais ces deep tech ont pour elles un atout majeur : la disruption. À l'inverse des grandes entreprises, elles ne sont pas tenues de s'inscrire dans une feuille de route stratégique ou de s'accorder à un existant. Elles peuvent partir d'une feuille blanche, explorer de nouvelles voies, associer des compétences issues de la recherche académique et inventer de nouveaux paradigmes. Et si elles bénéficient aujourd'hui de moins d'exposition que toutes les startups qui affirment utiliser l'IA, ce sont bien elles qui en préparent le futur.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 17/06/2019 à 19:14 :
Du coup si ils sont «  capables d’extraire des fichiers «  sont ils capables d’injecter des «  fichiers » comme ils veulent ?

En fait les smartphones sont des «  passoires » ?

Si Apple ne répare pas cette brèche : ça va être la chute libre pour Apple , androïde, Samsung....

Et tous les objets connectés à distance qui peuvent être piratés aussi...
a écrit le 17/06/2019 à 19:02 :
Dernières nouveautés :


L’entreprise israélienne Cellebrite vient de présenter une nouvelle version de son appareil d’analyse UFED. Elle serait capable d’extraire les données de n’importe quel terminal iOS, de la version 7 à la version 12.3.

Bonne nouvelle pour les enquêteurs de police. Le fournisseur israélien Cellebrite vient d’annoncer une nouvelle version de son appareil de déverrouillage et d’extraction de données de smartphone, « Universal Forensic Extraction Device ». Baptisée « UFED Premium », cette nouvelle mouture serait capable de siphonner les données de tous les terminaux iOS, de la version 7 à la version 12.3, la dernière actuellement disponible. D’après le site web, le produit serait ainsi capable d’effectuer « une extraction complète du système de fichiers » pour les terminaux mobile d’Apple.


a écrit le 16/06/2019 à 18:52 :
Il faut dire ce qui est, un algorithme mal optimisé ne l'est que par rapport aux limitations du hardware. Pour l'IA c'est pareil , ce qu'on ne programme pas aujourd'hui car ça mettrait 30 minutes à s'exécuter, on le fera demain car ça prendra que quelques secondes
a écrit le 16/06/2019 à 11:20 :
Bonjour,

Est ce que dans ces puces new générations IA , un bouclier de protection ( piratage a distance impossible )et une suivie espion cachée sont ils «  intégré » lors de conception architecturale ?

Je comprends que les investisseurs soient frileux «  car il n’y a passez d’utilisation en masse et de recul »

Cordialement,
a écrit le 16/06/2019 à 11:08 :
C'est une évidence. Les premiers hardware exécutaient des opérations logiques booléennes. Les puces graphiques ont permis l'affichage rapide en haute définition et l'exécution rapide des transformations graphiques. Tout cela nécessite le développement préalable de langages spécialisés pour décrire les objets et les opérations. IA, sait-on vraiment de quoi on parle? Il y aura autant de puces que d'applications dites intelligentes et commercialisables.

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :