Course à l'IA : pourquoi Nvidia sera gagnant quoi qu'il arrive

Le géant des puces informatiques Nvidia s'approche désormais du trillion de dollars de valorisation boursière, après la publication de ses derniers résultats financiers. La raison ? Son carnet de commandes déborde, alimenté par la ruée de l'industrie de la tech vers l'intelligence artificielle. Le constructeur fournit toutes les entreprises en course (Microsoft, Google, Amazon...) pour s'accaparer le marché émergent de l'IA générative. Et quel que soit le vainqueur de cette course, Nvidia a déjà gagné, grâce à ses puces essentielles au secteur.
François Manens
Avec ses GPUs, NVidia émerge se présente déjà comme un vainqueur de l'engouement pour l'IA.
Avec ses GPUs, NVidia émerge se présente déjà comme un vainqueur de l'engouement pour l'IA. (Crédits : Reuters)

Depuis le début d'année, MicrosoftGoogle ou encore Amazon se tirent la bourre pour s'accaparer le business florissant de l'intelligence artificielle générative. Mais, alors que les projecteurs sont tournés vers la course effrénée aux logiciels, une entreprise a déjà gagné : le constructeur américain de puces informatiques Nvidia. La raison ? Les besoins de ses GPUs - des processeurs, dont il est le spécialiste - sont là, afin de développer et de faire tourner les IA. La demande est telle que certains analystes s'inquiètent de la capacité de l'entreprise à y répondre.

Lire aussiChatGPT au secours de l'industrie des puces

Résultat, le cours de l'entreprise a bondi de 173% depuis le début d'année ! Après la publication de ses résultats trimestriels annoncés mercredi soir, le prix de l'action dans les échanges d'après clôture a bondi de 28%, à 391 dollars, alimenté par les perspectives de vente. Il a ainsi largement dépassé son pic historique (329,85 dollars), réalisé en novembre 2021, en plein boom du marché des cryptomonnaies. Le groupe a gagné 200 milliards de dollars de valorisation, à 960 milliards de dollars au total, et il se rapproche plus que jamais du quintette en tête de Wall Street (Apple, Microsoft, Aramco, Google, Amazon).

ChatGPT, symbole de la domination de Nvidia

Fin novembre 2022, quand OpenAI sort ChatGPT, le logiciel rencontre immédiatement un immense succès. Nvidia est aux premières loges. Le modèle d'intelligence artificielle a été fabriqué grâce à une machine surpuissante fabriquée sur-mesure, largement financée par Microsoft et parée de nombreuses GPUs du constructeur. Et lors de la dernière présentation des résultats financiers de Microsoft, l'entreprise a même eu le droit à sa mention comme partenaire privilégié. En réponse, Jensen Huang, l'emblématique PDG et fondateur de Nvidia n'y est pas allé par quatre chemins : pour lui, ChatGPT est à l'IA ce que l'iPhone a été au smartphone. Une révolution, qui fait passer la technologie dans une nouvelle ère, attendue par le dirigeant.

Mais ces liens avec Microsoft n'empêchent pas Nvidia de travailler avec l'ensemble du marché, des hyperscalers (Google, Amazon) aux plus petits acteurs.

« Nous sommes agnostiques, et donc hébergés par tout le monde », rappelle à La Tribune Serge Palaric, Vice Président EMEA de Nvidia sur ces sujets.

L'entreprise prévoit ainsi de réaliser 11 milliards de dollars de chiffre d'affaires au prochain trimestre (contre 7,19 milliards de dollars ce trimestre). Cette projection dépasse de plus de 50% celle des estimations d'analystes. Elle parie notamment sur une explosion de la vente de processeurs pour datacenters. Jensen Huang a même dû préciser qu'il allait « augmenter de façon significative l'offre de puces pour datacenters afin de répondre à la demande bondissante ». Certains analystes sont toutefois sceptiques. Ils estiment que l'entreprise pourrait être victime de son succès, et ne pas être en capacité de suivre la demande massive de processeurs.

Pour autant, le placement de Nvidia sur le marché de l'IA ne se limite pas au rôle de fournisseur de composant. Loin de là. Son expertise s'étend à tout l'écosystème pour mettre en lien les composants, et même aux briques logicielles. Courant mars, à l'occasion de la GTC, sa grande messe annuelle, le constructeur a présenté une nouvelle offre. Celle-ci prend la forme d'une boîte à outils pour construire toutes sortes d'IA. On y trouve par exemple NeMo, qui offre le matériau de base aux clients - par exemple, dans le secteur bancaire - pour assembler leur propre LLM (la catégorie d'IA de GPT-4)... qui seront entraînés sur des processeurs de la marque.

Le GPU, un quasi monopole sur l'IA

Le succès de Nvidia part de ses GPUs (Graphics Processing Units), des puces spécialisées à l'origine dans les calculs nécessaires à imagerie, qui ont grandement participé à l'amélioration graphique des jeux vidéo. Mais avec la popularisation de l'IA dans les années 2010, l'industrie a rapidement réalisé que ce type de processeur excellait aussi dans les calculs nécessaires au fonctionnement des modèles de machine learning. Le mouvement s'est propagé du secteur de l'informatique vers le cloud et ses puissants serveurs installés dans des datacenters, donnant ainsi une autre dimension à Nvidia. Au point qu'en 2022, l'activité datacenter est devenue la principale source de revenus de l'entreprise, devant son business historique, le gaming (jeux vidéo) avec des taux de croissance annuels de plus de 100% sur le segment.

Grâce à ce positionnement, l'entreprise a lancé dès 2022 la gamme de produits nécessaires pour accompagner la ruée vers l'IA, baptisée Hopper. On y trouve la GPU H100 (environ 35.000 dollars la pièce sur son prix catalogue). Selon Nvidia, elle multiplierait par neuf la vitesse d'entraînement et jusqu'à 30 fois la vitesse d'inférence [le fonctionnement des IA une fois entraînées, ndlr] des IA par rapport à la génération précédente, datée de 2020. Ce produit affichait ni plus ni moins l'ambition d'être un fondement de la généralisation des applications d'IA... Quelques mois avant la sortie de ChatGPT.

Résultat, Nvidia dispose aujourd'hui d'une position dominante sur le marché. Et pour cause, pour équiper les datacenters en processeurs d'IA, les options restent réduites. L'entreprise se partage l'écrasante majorité du marché avec Advanced Micro Devices (AMD) et Intel. Si ces deux derniers ont leurs propres atouts, ils ont également pris beaucoup de retard dans le développement de leurs alternatives aux GPUs. D'après les dernières estimations de l'IDC, sur l'année 2021, Nvidia détenait plus de 91,4% du marché des GPU d'entreprise, contre 8,5% pour AMD.

En plus de son avance côté architecture, l'entreprise se distingue par son interface de programmation spécifique aux GPU, nommée Cuda. Depuis plus de 15 ans, tout un écosystème de librairies de code s'est construit autour de l'outil. En outre, il est enseigné dans de nombreuses universités. Le hic ? Cuda n'est compatible qu'avec les produits Nvidia. Autrement dit, pour profiter d'années de développements sur les GPUs, il faut utiliser le matériel Nvidia.

La concurrence en embuscade

Cependant, Intel semble enfin avoir une offre capable de concurrencer celle de Nvidia après des années passées à tâtonner. De son côté, AMD se relève de plusieurs années où sa survie était en jeu. Ses GPU Instinct équipent même désormais le plus puissant superordinateur au monde, Frontier. En outre, l'entreprise noue des partenariats avec les géants de l'IA. Selon les informations de Bloomberg, AMD travaillerait notamment avec Microsoft, bien qu'il soit un des plus gros clients de Nvidia. L'objectif, améliorer les performances de ses GPUs sur les tâches spécifiques à l'IA et créer un accélérateur sur mesure, nommé Athena. Mais comme le précise, Ars Technica, l'implication du constructeur dans le projet a été démentie par Microsoft.

Plus généralement, Nvidia paraît en position pour garder la main sur les processeurs nécessaires à l'entraînement des IA, très gourmands en puissance et en énergie. La course à la performance que mènent les géants de la tech, avec des modèles toujours plus gros et polyvalents (texte, son, image...), tend vers la création de machines toujours plus massives et sophistiquées. Mais sur le marché de l'inférence, qui consiste à faire tourner les IA déjà entraînés avec les données fournies par le client, le constructeur a plus de concurrence, déjà en place à l'instar des TPU de Google, ou à venir à l'image de la nouvelle génération de puces d'Amazon.

« Nous ne sommes qu'au départ d'un tournant technologique, et il y a de la place pour tout le monde », rassure Serge Palaric lorsque nous le questionnons sur le sujet.

Un constat avec lequel le marché semble s'accorder : le cours d'AMD a bondi de presque 10% après la publication des résultats de Nvidia. Pour maintenir sa place de leader, l'entreprise travaille désormais sur deux axes : l'augmentation de la performance et surtout, la réduction de la consommation d'énergie des processeurs. En ligne de mire : accompagner le marché du logiciel dans sa croissance. « La tech parle de l'IA générative que depuis quelques mois. Je suis persuadé que nous allons découvrir des applications que nous ne soupçonnons même pas, et il faudra les soutenir », conclut le dirigeant.

François Manens

Sujets les + lus

|

Sujets les + commentés

Commentaires 2
à écrit le 31/10/2023 à 7:46
Signaler
Really very happy to say, your post is very interesting article <a href="https://unogeeks.com/oracle-fusion-hcm-online-training > Oracle Fusion HCM Training </a>

à écrit le 25/05/2023 à 20:27
Signaler
Parce que ce sont les meilleurs d'abord et avant tout, un avantage décisif pour les états unis, encore un.

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.