Amazon et Anthropic, un mariage ouvert pour conquérir le marché de l'intelligence artificielle

Confrontés à la domination émergente du duo Microsoft-OpenAI sur le marché de l'IA générative, Amazon et Anthropic ont répliqué en forgeant une alliance financière. Mais plutôt que de combattre le feu par le feu en reproduisant le modèle de leurs concurrents, ils ont opté pour une approche plus ouverte, qui commence à porter ses fruits. Analyse.
François Manens
Sur la scène du AWS Summit Paris 2024, le directeur général France et Europe du sud d'AWS Julien Groues (à gauche) accueillait le cofondateur et CTO d'Anthropic Tom Brown (à droite).
Sur la scène du AWS Summit Paris 2024, le directeur général France et Europe du sud d'AWS Julien Groues (à gauche) accueillait le cofondateur et CTO d'Anthropic Tom Brown (à droite). (Crédits : AWS)

En septembre, Amazon annonçait l'investissement, en deux temps, de quatre milliards de dollars dans Anthropic. Forcément, cette association a rapidement attiré les comparaisons avec le duo Microsoft-OpenAI, qui mène la vague de l'intelligence artificielle générative. Un géant du cloud - respectivement Amazon Web Services (AWS) et Microsoft Azure - mobilise sa puissance financière presque sans égal pour soutenir les efforts d'un spécialiste du développement de grands modèles de langage -respectivement Anthropic et OpenAI. Le premier s'offre l'accès à des modèles d'IA parmi les meilleurs du marché sur sa plateforme, tandis que le second reçoit des ressources indispensables pour entraîner ses modèles d'IA.

Mais la comparaison s'arrête là. Alors que OpenAI et Microsoft mènent une relation étroite et quasi exclusive depuis 2019, au point d'attirer la loupe des régulateurs, Anthropic et AWS s'ouvrent chacun aux autres. Certes, leur partenariat s'accompagne de certains engagements, mais semble dépourvu de clauses d'exclusivité. Pour preuve, Anthropic compte le troisième géant du cloud, Google, parmi ses investisseurs, à hauteur de plus de deux milliards de dollars. Il fournit ainsi sa famille de modèles de pointe, Claude 3, à la fois chez AWS et chez son concurrent Google Cloud. À l'inverse, les modèles d'OpenAI sont présents exclusivement chez Azure.

En un an, Amazon s'est remis en position de pointe

En parallèle, AWS s'ouvre aussi aux concurrents d'Anthropic. Mercredi, Julien Groues, directeur général de AWS France et Europe du Sud, accueillait sur la scène du Palais des Congrès de Paris deux figures de l'IA générative, coup sur coup. Le matin, le cofondateur de Mistral AI, Arthur Mensch, venait annoncer l'arrivée de son meilleur modèle d'IA, Mistral Large, sur la plateforme d'Amazon dédiée à l'IA générative, nommée Bedrock. L'après-midi, c'était au tour de Tom Brown, cofondateur et CTO de Anthropic, de présenter son modèle Claude 3 pour fêter l'arrivée de Bedrock en France.

Lire aussi« Nos modèles d'IA vont faire un autre bond de performance dans l'année » (Tom Brown, cofondateur d'Anthropic)

Deux très bonnes nouvelles pour AWS, à la symbolique forte pour l'entreprise. Lorsque la vague de l'IA générative s'est déclenchée fin 2022 avec le lancement de ChatGPT, le groupe était le seul des trois géants du cloud à ne pas être directement associé à un modèle d'IA de pointe. Certes, le numéro un du marché a réagi rapidement avec le lancement de Bedrock dès avril 2023, afin de fournir à ses clients une bibliothèque de modèles la plus large possible, grâce à des partenariats avec Meta, Stability AI, AI21, LightOn ou encore Anthropic (qui n'avait que Claude 2 à l'époque). Mais il lui manquait un produit d'appel, un des meilleurs modèles du monde à l'instar de GPT-4 d'OpenAI et de Gemini de Google.

Un an plus tard, ce retard au départ semble déjà rattrapé. AWS propose sur Bedrock deux des quatre modèles les plus performants au monde, Mistral Large et Claude 3, ce dernier revendiquant même le titre de numéro un. C'est autant que ses concurrents, tandis que son pari sur l'ouverture à un grand nombre de modèles (également adopté par Google) porte ses fruits. « Les clients nous demandent trois choses : du choix, un haut niveau de confidentialité, et des coûts raisonnables. Ils ne recherchent pas forcément le modèle le plus performant dans l'absolu », explique Julien Groues.

« Afin de répondre à ces exigences, les clients doivent pouvoir trouver sur Bedrock le modèle le mieux adapté à chaque cas d'usage qui se présente à eux. Ils ont certes besoin du modèle le plus efficace, mais son utilisation doit aussi se plier à une contrainte de prix pour dégager une rentabilité suffisante », détaille le dirigeant.

Anthropic n'est pas le porte-étendard de AWS

L'investissement dans Anthropic joue donc bel et bien un rôle dans la montée en puissance d'AWS sur l'IA générative. Au point de devenir un porte-étendard des ambitions d'Amazon ? « Non, ce n'est pas le but. Nous ne sommes même pas au conseil d'administration de l'entreprise. Je pense que c'est représentatif de la relation qu'on a avec eux », balaie Julien Groues. Une situation qui tranche avec celle de Microsoft, qui vient d'entrer au conseil d'administration d'OpenAI au bout d'un feuilleton chaotique à la tête de la startup.

Cette distanciation est de bonne augure pour Anthropic, car ses cinq co-fondateurs avaient justement quitté leurs positions de cadres chez OpenAI en raison de l'influence de Microsoft sur la stratégie de l'entreprise. Nul doute qu'ils ne voudraient pas reproduire le même schéma au sein de leur société. Même si en contrepartie, AWS ne les met pas particulièrement en avant. « Amazon doit être l'entreprise la plus obsédée par la satisfaction de sa clientèle au monde. Ils veulent le meilleur pour leur clients, et donc une grande liberté de choix entre les modèles, et c'est très bien comme cela », affirme à La Tribune Tom Brown CTO et cofondateur d'Anthropic. Et tant pis si le succès financier de la startup serait par ricochet celui du géant du cloud.

Sur la question du partage de valeur entre les deux entreprises, AWS renvoie du côté de Anthropic, qui botte en touche. Chacun garde sa cuisine interne secrète pour l'instant à l'instar des concurrents. Mais, interrogé sur le sujet, Tom Brown précise tout de même que le modèle de diffusion actuel de Claude 3 serait suffisant pour atteindre à terme les ambitions économiques de l'entreprise. Un signe qu'elle se satisfait pour l'instant de l'accord commercial, qui lui offre accès à un vivier colossal de clients.

Relancer la machine

Le retour en force d'AWS dans l'IA arrive à point. Un rapport du cabinet Synergy Research, cité par les Échos, estime que Microsoft a grignoté presque 2 points de part de marché du cloud en 2023, à 24%, tandis qu'Amazon a vu la sienne baisser de 33 à 31%. L'IA générative joue désormais un rôle essentiel sur ce juteux marché, et le retard à l'allumage de AWS a failli lui coûter cher. L'an dernier, la croissance du chiffre d'affaires d'AWS a ralenti de 16 points, à 13%. Certes, l'entreprise dégage 90 milliards de dollars de revenus pour 24 milliards de dollars de profit opérationnel, mais elle se devait de repartir de l'avant.

« L'IA générative est effectivement un nouveau canal de revenus très intéressant pour nous, et nous n'en sommes qu'au début. Je suis convaincu que toutes les entreprises vont être à base d'IA. Aujourd'hui, nous constatons que 65% des entreprises en France pensent que l'IA va modifier leur modèle économique. A terme, je pense que ce chiffre montera à 100% », élabore Julien Groues.

Plus discrètement, le partenariat avec Anthropic nourrit aussi les travaux d'Amazon sur les processeurs, puisque la startup mène notamment des essais avec les puces Inferentia (dédiée au fonctionnement des IA) et Trainium (dédiée à l'entraînement des IA). « Tout le monde sous-estime à quel point l'architecture Trainium va être compétitive. Annapurna Labs, l'équipe d'Amazon qui construit les puces [issue d'un rachat en 2011, ndlr], fait de l'excellent travail », promeut Tom Brown. Au point d'imaginer un jour entraîner un grand modèle avec Trainium ? « Oui, c'est définitivement une possibilité », répond-il sans hésitation. « Le but n'est pas de faire les puces les plus puissantes du marché, mais celles qui sont les plus efficaces en termes de coûts » tempère de son côté Julien Groues. Sans même imaginer pouvoir remplacer l'incontournable Nvidia, la route reste longue. Mais AWS est de nouveau sur les bons rails.

François Manens

Sujets les + lus

|

Sujets les + commentés

Commentaires 5
à écrit le 06/04/2024 à 10:35
Signaler
Amazon va mieux analyser le comportement des acheteurs et vendre plus.

à écrit le 06/04/2024 à 8:46
Signaler
Amazon qui s'attaque à l'IA c'est la certitude qu'aucune intelligence n'en ressortira.

le 06/04/2024 à 13:48
Signaler
En sortira une intelligence artificielle !

le 06/04/2024 à 14:12
Signaler
La différence entre Amazon et vous c'est qu'Amazon y croit et a les moyens.

le 06/04/2024 à 19:31
Signaler
Ah mais ils sortiront quelque chose ça j'en suis persuadé mais jamais une véritable intelligence, ensuite tout dépend de l'ambition que l'on a pour ce mot bien entendu.

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.