![Aujourd'hui, de nombreuses entreprises peinent à déployer les IA à l'échelle industrielle. Ce, en raison notamment de leurs coûts encore très élevés.](https://static.latribune.fr/full_width/2372377/ia-intelligence-artificielle.jpg)
« GPT-Next ». Voilà comment OpenAI a nommé son prochain modèle de langage, attendu depuis plus d'un an. La coqueluche de l'IA organisait des démonstrations de ses dernières innovations aux quatre coins du monde, dont Paris. L'objectif : donner un avant-goût de ses prochains outils, du générateur de vidéo Sora, au clonage de voix en 15 secondes, en passant par les capacités de reconnaissance d'image en temps réel de son assistant vocal.
OpenAI prépare le terrain pour la deuxième vague de l'IA générative, qui devrait se déclencher dans la deuxième partie de l'année, et dont il compte être le fer de lance, même si la concurrence sera plus féroce qu'à la sortie de ChatGPT. En jeu : le futur d'un secteur qui mise sur d'importants progrès réguliers pour répondre à ses promesses.
Un an de statu quo technologique
En mars 2023, OpenAI sortait GPT-4 une nouvelle version de son modèle d'intelligence artificielle le plus puissant. Ce dernier marquait un véritable bond technologique par rapport à son prédécesseur. Notamment par sa capacité à lire et générer des images. Le problème ? Un an plus tard, aucun modèle ne fait véritablement mieux. Soit une éternité à l'échelle de l'IA générative, technologie décrite comme une révolution de l'ordre d'Internet par les plus optimistes.
Or, si GPT- 4 a fait émerger de premiers cas d'usages de l'IA générative, ses limitations sont rapidement apparues. Les entreprises peinent à le déployer à l'échelle industrielle, à cause de raisons diverses : un coup l'IA n'est pas assez performante, tantôt elle coûte trop cher. Le plus souvent, la gestion des hallucinations [les situations où l'IA présente comme vérité des faits inventés, ndlr] s'avère trop laborieuse pour que l'IA générative offre un retour sur investissement évident, malgré les nombreux chiffres de gains de productivité avancés par les géants de la tech.
Certes, GPT-4 a reçu quelques améliorations marginales tout au long de l'année, dont un lifting sous le nom « GPT-4 Turbo ». Mais l'étape d'après, le nouveau bond technologique, tarde à arriver. L'incapacité du numéro un de la course à l'IA à sortir son prochain modèle a permis à la concurrence de refaire son retard. Les modèles de Google, Meta, Anthropic, Mistral ou encore Cohere se sont rapprochés ou ont égalé les performances de GPT-4. Sauf qu'aucun ne l'a dépassé. De quoi faire surgir de premières inquiétudes : et si la courbe de puissance des IA n'était pas exponentielle, comme anticipée par le marché ? Et si les performances rencontraient déjà un plafond ?
GPT-Next à la rescousse
Dans ce contexte, la communication d'OpenAI autour de GPT-Next vient à point nommé. Sam Altman, l'emblématique cofondateur et dirigeant d'OpenAI évoquait à intervalles réguliers le développement d'un GPT-5 depuis novembre 2023, mais il était resté avare en détails. Désormais, la coqueluche de l'IA promet officiellement un nouveau « saut technologique » entre GPT-4 et son prochain modèle, et surtout, elle s'engage à le sortir « plus tard dans l'année ».
De son côté, le directeur technique de Microsoft Kevin Scott a comparé le superordinateur [construit par Microsoft] sur lequel GPT-Next est entraîné à une « baleine ». Ceci, alors que GPT-3 avait été entraîné sur « un requin » et GPT-4 sur « une orque ». Derrière cette comparaison d'ordre de grandeur entre animaux marins se trouve un message : GPT-Next a besoin de beaucoup plus de puissance que son prédécesseur car il sera vraisemblablement bien plus gros et plus performant. De quoi ouvrir de nouvelles perspectives de cas d'usage ?
En revanche, contrairement à 2023, OpenAI n'est plus dans une situation de quasi-monopole. Meta a prévu de sortir la plus puissante version de son modèle Llama 3 dès cet été, et Anthropic promet aussi un bond technologique avant la fin d'année pour son modèle Claude.
Quant à Google, il parvient désormais à aligner un concurrent à chaque modèle d'OpenAI, et nul doute qu'il travaille à la prochaine version de son modèle Gemini. Autrement dit, la course à la performance n'a jamais été aussi ouverte, et pour la première fois, le rôle de fer de lance d'OpenAI est remis en jeu. La deuxième vague de l'IA générative devrait être bien plus condensée que la première.
En attendant la présentation de la prochaine génération de modèles, OpenAI et Google se sont concentrés sur l'optimisation de la génération actuelle. Annoncés la semaine dernière, les modèles GPT-4o et Gemini Flash coûtent beaucoup moins cher et génèrent leurs résultats beaucoup plus rapidement que la version d'origine de GPT-4 et Gemini. De bonne augure pour le futur des usages industriels, où le coût d'utilisation reste une des principales barrières à l'adoption.
Tout un écosystème embarqué dans la course à la performance
Bien que la course à la performance ne soit qu'un des nombreux enjeux de la révolution de l'IA générative, elle pèse lourd dans les perspectives du secteur. La santé financière exceptionnelle de Nvidia, qui déjoue à chaque trimestre des prévisions pourtant très favorables, en est le meilleur exemple.
Les géants de la tech, les startups de pointe et certains États continuent de se doter de volumes colossaux de processeurs Nvidia - aujourd'hui indispensables à l'entraînement des IA - car ils pensent pouvoir faire toujours mieux avec toujours plus. Autre exemple : plus tôt dans la semaine, Scale AI, une startup essentielle dans l'étiquetage des données d'entraînement des IA, a de nouveau levé un milliard de dollars pour une valorisation proche de 14 milliards de dollars.
Si l'investissement continue à couler à flot, c'est aussi parce que les développeurs d'IA ne comptent pas s'arrêter à cette seconde étape. OpenAI, Google ou encore Anthropic l'affirment clairement, ils visent le développement d'une AGI [artificial general intelligence, ndlr], une IA capable de reproduire voire dépasser les capacités du cerveau humain. Un idéal que même les plus optimistes ne voient pas la concrétisation avant cinq à dix ans.
Mais avant d'y arriver, de nombreux ajustements restent à faire : les IA doivent être plus puissantes, mais aussi plus précises et plus fiables. La première vague de fonctionnalités d'IA générative souffre de trop nombreuses insuffisances, et chaque mois s'accompagne de son lot de ratés.
Dernier exemple en date : la nouvelle IA de Google, qui répond aux recherches des internautes par un paragraphe, propose de mettre de la colle dans les pizzas pour empêcher le fromage de couler. Autrement dit, si la première vague de l'IA générative a fait miroiter un futur brillant, ce sera aux prochaines vagues de le concrétiser. Et ce, dès la deuxième moitié de 2024.
Sujets les + commentés