ChatGPT au secours de l’industrie des puces

La ruée des entreprises vers l’intelligence artificielle générative, motivée notamment par l'apparition d’outils comme ChatGPT, vient redynamiser la demande sur le marché des semi-conducteurs malmené par le ralentissement économique. Et potentiellement rebattre les cartes en ouvrant la porte à de nouveaux entrants ?
Nvidia est le leader sur le marché des puces de nouvelle génération, nécessaires à l'intelligence artificielle générative.
Nvidia est le leader sur le marché des puces de nouvelle génération, nécessaires à l'intelligence artificielle générative. (Crédits : Reuters)

Sur un marché des semi-conducteurs en difficulté après les années fastes de la pandémie, la folie ChatGPT tombe aujourd'hui à point nommé pour insuffler un vent de dynamisme bienvenu. Le chatbot d'OpenAI, capable de fournir des réponses riches et articulées à des questions complexes, a en effet constitué pour nombre d'acteurs économiques une première expérience de l'intelligence artificielle générative, susceptible de créer des contenus similaires à ceux que pourrait concevoir un humain.

Lire aussiChatGPT : comment mesurer la temporalité de l'opportunité

Or, ces outils, pour fonctionner correctement, requièrent d'importantes capacités de calcul ainsi que des microprocesseurs de pointe spécialisés dans l'intelligence artificielle. Cela pourrait générer des dizaines de milliards de dollars de ventes supplémentaires pour les fabricants de puces, selon certaines estimations.

La folie ChatGPT

Suite au tsunami médiatique provoqué par ChatGPT, les géants des nouvelles technologies se précipitent les uns après les autres pour tâcher de mettre en place des applications autour de l'intelligence artificielle générative. Microsoft a réitéré son investissement dans OpenAI, cette fois-ci à hauteur de plusieurs milliards de dollars, et intégré le chatbot à ses applications business ainsi qu'à son engin de recherche Bing. Google et Baidu développent de leur côté chacun un produit rival de ChatGPT, respectivement baptisés Bard et Ernie Bot.

Cette semaine, Salesforce a également annoncé l'intégration de ChatGPT à son outil Salesforce Einstein, afin de répondre aux demandes des clients ou encore d'écrire du contenu marketing. Le géant des CRM (ou logiciel de gestion) a également annoncé le lancement d'un fonds de 250 millions de dollars pour investir dans les jeunes pousses de l'intelligence artificielle générative. Une conférence entièrement dédiée à celle-ci, organisée par la jeune pousse Jasper, qui s'appuie sur cette technologie pour rédiger des contenus marketing, a rassemblé un millier de personnes mi-février à San Francisco.

« Le buzz autour de ChatGPT a été excellent pour l'industrie de l'intelligence artificielle, notamment parce qu'il a permis de démontrer, d'une manière facile à comprendre, comment l'intelligence artificielle peut-être utilisée dans le monde réel », note Nigel Toon, directeur général de Graphcore, un fabricant de semi-conducteurs britannique. « Il a ainsi permis une réelle accélération dans l'usage de l'intelligence artificielle à des fins commerciales, par de jeunes pousses centrées sur cette technologie, mais aussi des entreprises institutionnelles qui explorent la façon dont l'intelligence artificielle peut les aider. »

Et contrairement à d'autres concepts encore nébuleux comme le métavers, l'intelligence artificielle générative est déjà utilisée par des dizaines de millions de personnes n'ayant pas de compétences techniques particulières. Des individus recourent à ChatGPT pour rédiger des lignes de code, écrire leur lettre de motivation ou des contenus SEO. Nombre de graphistes se font d'ores et déjà la main sur des outils comme Dall-E et Midjourney.

Et pour quelques milliards de dollars de plus

Cependant, pour fonctionner, l'intelligence artificielle générative a besoin de puces spécialisées, ce qui ouvre de nouvelles perspectives aux fabricants confrontés à un ralentissement de la demande depuis l'an passé. « Les processeurs d'intelligence artificielle nécessaires pour faire tourner ces algorithmes possèdent une architecture bien spécifique par rapport à ceux qui étaient jusqu'ici utilisés pour les réseaux de neurones », note Mike Demler, analyste indépendant spécialisé dans l'industrie des semi-conducteurs.

Un récent rapport du courtier américain Bernstein estime ainsi que les processeurs nécessaires pour faire tourner les algorithmes d'intelligence artificielle générative pourraient représenter un marché de plusieurs milliards de dollars pour les fabricants. Un analyste de Bank of America estime de son côté que cette évolution pourrait apporter vingt milliards de dollars supplémentaires au marché des puces spécialisées dans l'intelligence artificielle d'ici 2027. Du pain bénit pour un secteur actuellement en plein marasme.

Lire aussiSemi-conducteurs : la Chine attaque le protectionnisme des Etats-Unis à l'OMC

Nigel Toon explique que l'intelligence artificielle générative s'appuie notamment sur un nouveau type d'algorithmes, les Graph Neural Networks. Sa société s'est spécialisée dans la fabrication d'intelligence processing units (unités de traitement intelligentes), des processeurs spécialement conçus pour ce type d'applications, efficaces et économes en énergie. La société vend notamment ses processeurs à de jeunes pousses cherchant à développer des modèles d'intelligence artificielle générative à bas coût.

Un marché dominé par Nvidia

Graphcore fait partie des jeunes pousses qui misent sur cette nouvelle donne pour gagner des parts sur un marché aujourd'hui largement dominé par quelques géants, en tête desquels Nvidia. Ce spécialiste des unités de traitement graphiques (ou graphic processing units, GPUs, par opposition aux central processing unit ou CPUs, les microprocesseurs traditionnels), utilisées pour l'intelligence artificielle, détient actuellement une part de marché de 88% sur celles-ci, selon Jon Peddie Research, un cabinet de recherche en informatique. Pour cette raison, nombre d'analystes s'accordent pour dire qu'il est le mieux placé pour bénéficier de cette nouvelle tendance.

Ses puces sont, entre autres, vendues aux géants du cloud dont les centres de données permettent de louer la puissance informatique nécessaire pour entraîner des algorithmes d'intelligence artificielle. Elles sont actuellement soumises à une très forte demande. Pour entraîner ChatGPT, pas moins de 10 000 GPUs de NVidia ont été nécessaires, utilisées sur plusieurs semaines. « Il est aujourd'hui pratiquement impossible d'obtenir rapidement plus de 16 GPUs mises en réseau dans le cloud public, à moins de payer un prix astronomique » précise Dylan Patel, analyste chez SemiAnalysis, un cabinet spécialisé dans la recherche sur les puces.

Nvidia conçoit de nouveaux modèles de puces telles que la H100, spécialement mise au point par Nvidia pour répondre à la demande croissante des entreprises autour de l'intelligence artificielle, en particulier générative. « H100 est 3,5 fois plus efficace que sa prédécesseure, la Nvidia A100 Tensor Core GPU. Pour effectuer des calculs sur de grands modèles de langage, essentiels pour l'IA conversationnelle et l'IA régénérative comme ChatGPT, H100 est 300 fois plus efficace énergétiquement qu'une CPU », note Dave Salvator, directeur de l'innovation chez Nvidia.

Lire aussiSTMicroelectronics : les résultats dépassent les attentes, propulsés par la demande de puces

La société a récemment annoncé le lancement d'un nouveau service d'informatique sur le cloud, en partenariat avec Oracle, Microsoft Azure et Google Cloud, pour permettre aux entreprises de développer des chatbots et autres fonctionnalités autour de l'intelligence artificielle générative en s'appuyant sur les ressources de Nvidia. La valeur de son action a plus que doublé depuis le lancement de ChatGPT à l'automne dernier.

Mais son rival Intel se tient également à l'affût. Fin février, son dirigeant Pat Gelsinger a ainsi annoncé que son entreprise disposait d'une large gamme de puces pour répondre aux besoins en matière d'intelligence artificielle générative, parmi lesquelles des puces spécialisées dans le calcul et les centres de données particulièrement adaptées aux algorithmes d'intelligence artificielle.

Sapeon, une jeune pousse coréenne avec des bureaux en Californie, lève également des fonds pour accroître son offre sur ce nouveau marché, notamment à travers une puce de 7 nanomètres développée pour l'intelligence artificielle générative, qui sera mise sur le marché dans le courant de l'année.

Un point de rupture

« Nous nous situons incontestablement à un point de rupture, avec le passage d'un usage passif de l'intelligence artificielle (par exemple, demander à Google quel temps il doit faire aujourd'hui) à un usage de celle-ci pour produire des contenus originaux. Avec, en plus des acteurs institutionnels, des dizaines de jeunes pousses très en pointe sur l'intelligence artificielle qui se lancent », résume Mike Demler, pour qui cette tendance s'inscrit toutefois dans une montée en puissance progressive de l'intelligence artificielle au cours des dernières années, et n'est donc pas due uniquement à ChatGPT.

En outre, la ruée vers l'intelligence artificielle générative, si elle va sans doute bénéficier en premier lieu à Nvidia, offre aussi une chance aux nouveaux entrants de se tailler des parts de marché importantes :

« Nvidia domine aujourd'hui largement le marché des puces utilisées pour entraîner les algorithmes dans les centres de données, sur lequel il existe une forte barrière à l'entrée. Cette barrière sera cependant moins élevée pour les applications destinées directement aux utilisateurs, où l'on compte déjà des centaines d'entreprises qui proposent des accélérateurs d'IA ou des systèmes sur puces. »

Cristiano Amon, dirigeant de Qualcomm, a ainsi récemment affirmé que la révolution de l'intelligence artificielle générative allait aussi nécessiter de faire passer celle-ci des centres de données vers l'appareil final.

Les heures fastes du Chips Act

Un bonheur n'arrivant jamais seul, les fabricants de puces peuvent également compter sur les 52,7 milliards débloqués par le Chips Act, signé l'été dernier par Joe Biden, et dont le processus d'application pour toucher des subventions vient d'ouvrir.

« Notre objectif, avec cette initiative, est de faire des États-Unis d'Amérique le seul pays au monde où chaque entreprise capable de produire des puces à la pointe de la technologie possédera une présence importante en matière de R&D et de production sur son sol », a récemment affirmé Gina Raimondo, la secrétaire américaine au Commerce, lors d'un discours donné à l'université de Georgetown.

Lire aussiSemi-conducteurs: Biden signe le giga plan de subventions (52 milliards) aux industriels américains

L'Arizona, l'Ohio et le Texas pourraient ainsi tous devenir des centres d'envergure mondiale autour des semi-conducteurs, plusieurs géants du secteur, dont Intel, TSMC et Samsung s'étant engagés à y déployer des capacités de production. Le Chips Act a en effet d'ores et déjà dopé les investissements dans l'industrie des semi-conducteurs américaine : au total, 40 projets totalisant près de 200 milliards de dollars d'investissement ont déjà été annoncés par des entreprises américaines et étrangères, selon the Semiconductor Industry Association, un lobby.

Sujets les + lus

|

Sujets les + commentés

Commentaire 1
à écrit le 10/03/2023 à 12:14
Signaler
On n'a vraiment pas besoin de ChatGPT : on a déjà assez de problèmes comme ça avec les vaches.

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.