Depuis sa présentation au grand public fin novembre 2022, l'outil d'intelligence artificielle (IA) ChatGPT ne cesse d'intriguer. Ce robot de discussion peut rédiger des emails, écrire des poèmes, répondre à des questions précises ou encore traduire en code informatique des commandes écrites en langage naturel (par exemple, en français). Les plus enthousiastes y voient une révolution de l'informatique, quand les plus pessimistes n'y voient qu'une avancée utile uniquement pour des cas d'études précis.
Jusqu'ici, ChatGPT n'était accessible que gratuitement, avec un usage limité. Mais ce mardi, OpenAI, le créateur de l'outil, a annoncé le lancement prochain d'une offre pour les professionnels. Très attendue, cette annonce a presque éclipsé une nouvelle encore plus importante : l'ouverture à toutes les entreprises des autres IA de langage naturel d'OpenAI -le générateur de texte GPT-3, le générateur d'image DALL-E 2 et le générateur de code Codex-, intégrés dans le cloud de Microsoft Azure. Pour rappel, ChatGPT n'est qu'un sous-modèle de GPT-3, optimisé pour la discussion. Le succès de l'un pourrait donc se répercuter sur l'autre.
Microsoft récupère sa mise
En 2019, Microsoft a investi 1 milliard de dollars dans OpenAI -qui n'était alors qu'une organisation à but non lucratif- pour s'arroger une licence exclusive sur ses technologies. En échange, le géant de l'informatique a notamment construit des superordinateurs sur mesures pour entraîner les gigantesques modèles d'intelligence artificielle d'OpenAI. Grâce à cet accord, Microsoft propose quatre ans plus tard toute l'offre de modèles d'OpenAI directement implémentée dans son cloud Azure.
Deux options se présentent donc aux entreprises qui voudraient utiliser les outils de la startup : passer directement par les services d'OpenAI, ou alors se diriger vers le cloud de Microsoft qui propose une offre clé en main. Le géant de la tech apporte sa gigantesque infrastructure capable d'encaisser de nombreuses requêtes, et une couche de garanties réglementaires déjà déployée pour ses autres services, là où l'offre initiale d'OpenAI se contente du minimum.
« GPT-3 tourne exclusivement sur Azure », affiche fièrement Microsoft. Grâce à sa licence, le géant de la tech est également le seul à pouvoir intégrer la technologie d'OpenAI directement dans ses produits, comme dans son moteur de recherche Bing. Les autres entreprises ne peuvent quant à elle que mobiliser les IA par le biais de l'API d'OpenAI.
Quelques dizaines d'euros pour un petit projet
OpenAI et Microsoft fonctionnent sur un modèle « pay-as-you-go », c'est-à-dire avec un paiement dès que le contenu est généré. Plus précisément, la facturation se fait au millier de « tokens » (jeton). Sur son site, OpenAI compare les tokens à des morceaux de mots, et explique que 1.000 tokens équivalent à 750 mots en moyenne, du moins pour l'alphabet latin. Dans les cas d'usage présentés à titre d'exemple par Microsoft, les utilisateurs paient quelques dizaines de dollars pour arriver au bout de petits projets d'une semaine.
L'offre est assez claire pour DALL-E (image) et Codex (code informatique), mais se complique pour GPT-3 (texte). En effet, OpenAI propose quatre sous-modèles de GPT-3 différents, plus ou moins puissants, avec une facture allant croissant. Par exemple, il faut débourser 0,0004 dollars pour 1.000 tokens afin d'exploiter le modèle Ada, et 0,02 dollars pour 1.000 tokens pour employer le modèle Davinci. Pour 50 fois le prix d'Ada, Davinci fournira un résultat plus fin, mais la tâche sera effectuée en plus de temps. Cette gradation de l'offre permet d'adapter la puissance de calcul mobilisée par rapport aux contraintes de temps et de précision du client. Autrement dit, elle permet de ne pas avoir à louer une pelleteuse pour creuser un trou qui pourrait être fait plus rapidement avec une bêche.
L'entreprise propose également à ses clients de faire du « fine-tuning » des modèles. Ce procédé consiste à entraîner le modèle sur des données fournies par le clients -par exemple, un fichier qui associe des labels avec des produits-, afin qu'il soit plus performant pour les besoins spécifiques de l'entreprise. OpenAI facture la phase d'entraînement, en plus de faire payer quatre à cinq fois plus cher l'utilisation des modèles personnalisés.
L'entreprise présente sur son site des dizaines d'exemples de tâches qui peuvent être effectuées par GPT-3 : correction de fautes, recherche d'éléments dans des jeux de données, traduction de langage naturel en langage informatique ou encore en commande pour des API très utilisées. Plusieurs entreprises utilisent l'outil depuis 2021, mais son intégration finalisée à l'offre d'Azure devrait encore étendre sa popularité.
ChatGPT bientôt disponible
Quid de ChatGPT ? Nul doute que Microsoft l'intégrera à terme à son offre, mais il ne sera disponible dans un premier temps que sur OpenAI. La version professionnelle de ChatGPT, pour laquelle il faut s'inscrire en file d'attente, inclura une garantie de disponibilité -l'API actuelle tombe en panne lorsque les requêtes sont trop nombreuses-, une garantie de rapidité -OpenAI réduit le débit lorsque les utilisateurs font trop de requêtes en même temps-, et un volume de message envoyé plus important.
Cette phase de test pourrait durer longtemps : les deux entreprises manipulent leur nouvel outil avec précaution, comme ils l'avaient déjà fait avec GPT-3, qui aura pris près de quatre ans entre sa présentation et son arrivée définitive sur le cloud de Microsoft. « Puisque cette technologie est nouvelle, nous voulons aussi nous assurer que les déploiements sont effectués de façon responsable. Quand vous vous enregistrez, vous disposerez d'une limite de dépense initiale, un quota, que nous augmenterons au fur et à mesure que vous construirez un historique de votre utilisation », prévient encore Microsoft au sujet de GPT-3.
Un autre problème sémantique se pose aux deux entreprises. OpenAI et Microsoft répètent inlassablement que si les outils d'IA peuvent économiser du temps, il faut toujours une personne humaine compétente en bout de chaîne pour vérifier ce qui est produit. Or, ChatGPT se présente comme un assistant, avec une capacité de réponse proche de l'humain, et les utilisateurs pourraient être tentés de prendre ses réponses pour argent comptant. Pourtant, OpenAI prévient que ChatGPT peut produire des consignes dangereuses et du contenu partisan, qu'il ne doit pas être utilisé pour fournir des conseils, ou encore que ses connaissances des événements après l'année 2021 sont très limitées (puisqu'il a été nourri de données datées d'avant cette date). Ses usages seront donc à surveiller.
Sujets les + commentés