GPT-4, l'arme fatale d'OpenAI pour enterrer la concurrence ?

ANALYSE. OpenAI a présenté GPT-4, une nouvelle intelligence artificielle capable de comprendre à la fois les textes et les images, et de répondre à une extrême variété de consignes. Partenaire privilégiée de Microsoft, la startup frappe un grand coup dans la course à la performance qui traverse le secteur de la tech depuis la sortie de ChatGPT en novembre 2022. Seule ombre au tableau : GPT-4 ne fait que légèrement gommer le problème de fiabilité lié aux intelligences artificielles génératives. Or, ce défaut pourrait freiner l'adoption généralisée de la technologie par les entreprises.
François Manens
OpenAI lance GPT-4, son nouveau modèle de langage.
OpenAI lance GPT-4, son nouveau modèle de langage. (Crédits : Reuters)

Après ChatGPT, OpenAI frappe à nouveau très fort dans la course à la performance. Mardi soir, la startup star de l'intelligence artificielle a présenté GPT-4, son modèle de langage le plus puissant à ce jour, capable de répondre par écrit à une extrême variété de questions et de consignes, avec des cas d'usage dans la modération de contenu, les négociations commerciales, ou encore le développement informatique.

En plus d'être plus performant et de faire moins d'erreurs que ses prédécesseurs GPT-3 (2020) et GPT-3.5 (2021), GPT-4 peut désormais lire les images. Par exemple, il peut résumer un article de recherche en prenant en compte aussi bien le texte que les schémas explicatifs qui y sont attachés. De quoi ouvrir tout un nouveau champ d'utilisations pour l'intelligence artificielle.

Lire aussiComment OpenAI essaie de convertir le phénomène ChatGPT en machine à cash

Toujours plus de performance

« GPT-4 a toujours des défauts et des limites, mais il est plus créatif que ses prédécesseurs, il hallucine [donne de fausses informations, ndlr] beaucoup moins, et est moins biaisé », promeut Sam Altman, le directeur général de la startup. Pour évaluer la puissance de son nouveau modèle, OpenAI lui a fait passer plusieurs examens académiques, dont celui du barreau (pour devenir avocat), afin de comparer ses résultats avec ceux de GPT-3.5. L'entreprise avance ainsi que GPT-4 affiche un « niveau humain » avec plus de 90% de réponses correctes dans une majorité d'épreuves, là où son ancêtre passait juste au-dessus de la barre éliminatoire de certains examens. « Dans une conversation banale, la différence entre GPT-3,5 et GPT-4 peut être subtile. Le saut qualitatif apparaît surtout quand la complexité des tâches dépasse un certain seuil : GPT-4 sera alors plus fiable, plus créatif et il pourra mieux prendre en compte les nuances des instructions », développe l'entreprise dans son billet de blog.

OpenAI a aussi travaillé sur la « maniabilité » du modèle. Les utilisateurs pourront définir le style d'écriture et le ton par défaut que GPT (et ChatGPT lors d'une mise à jour future) adoptera. L'objectif : encadrer dès le départ les usages de l'outil, afin de prévenir en avance d'éventuels débordements prévisibles. Depuis la sortie de ChatGPT en novembre 2022, des communautés entières d'internautes se sont attelées à le faire dériver pour le faire mentir ou lui faire révéler des détails sur son fonctionnement. Les nouvelles options de paramétrages devraient adresser en partie ce problème. Par exemple, un client qui souhaiterait se servir de GPT-4 pour alimenter une application éducative pourra indiquer au modèle de ne jamais donner de réponse à l'étudiant, et de simplement le relancer avec des questions, dans le but de le diriger vers la résolution du problème tout en le faisant réfléchir.

Le modèle, très attendu, est d'ores et déjà accessible par le biais de l'API d'OpenAI (il faut tout de même passer par une liste d'attente). L'entreprise facture ensuite ses clients en fonction de la longueur du texte envoyé à l'IA et de celle de la réponse de GPT-4, à un prix plus élevé que ses anciens modèles. Autrement dit, les utilisateurs devront piocher dans la variété de l'offre d'OpenAI en fonction des usages pour limiter leurs coûts.

La « killer-feature » de GPT-4 attendra

La compréhension des images, qui est la vraie nouveauté de GPT-4 et son principal avantage face à la concurrence, n'est pas pleinement opérationnelle. OpenAI indique qu'elle n'est encore qu'en « début d'alpha », c'est-à-dire dans les premiers pas de sa phase de validation. La startup travaille avec un partenaire unique, afin de faire remonter et corriger les plus gros défauts du modèle avant son ouverture à un public plus large. Le premier testeur de la fonctionnalité est be my eyes, une startup qui met en lien les personnes aveugles ou déficientes visuelles avec des aidants volontaires au travers d'une app vidéo. Dans ce cadre, GPT-4 alimente un nouvel assistant virtuel, qui décrit les images et répond aux questions des utilisateurs sur la situation qui se trouve devant leurs yeux. A terme, l'assistant doit leur permettre de se passer de l'aide humaine pour certaines tâches et d'ainsi les faire gagner en autonomie.

Au-delà de ce cas particulier, OpenAI laisse entrevoir quelques autres cas d'usages de la nouvelle fonctionnalité : expliquer la signification d'un graphique, démontrer pourquoi un « meme » [une blague imagée, ndlr] est drôle ou encore relever l'incohérence dans une photo. C'est tout un nouveau champ d'utilisations -et donc de clients- qui s'ouvre à la startup. Mais elle préfère prendre des précautions avant de récolter les fruits de son innovation. « GPT-4 et ces futurs successeurs ont le potentiel d'influencer la société de façon significative, à la fois de façon bénéfique et de façon nuisible », concède-t-elle.

Le problème de la fiabilité persiste

Et pour cause, comme le rappelle lui-même OpenAI : en l'état, GPT-4, bien que plus performant que jamais, n'est toujours pas entièrement fiable. Il peut donner des conseils nocifs, écrire du code buggué ou donner des informations inexactes. En conséquence, l'entreprise conseille à ses clients de prendre avec précaution la production du modèle, et de ne pas hésiter à mettre en place des protocoles de vérification si besoin.

Comme ses prédécesseurs, GPT-4 est entraîné sur des volumes de données colossaux récupérés sur internet avec des filtres très poreux. Ce corpus de données intègre donc des idéologies diverses, des affirmations fausses ou encore des méthodes de raisonnement incorrectes. Bien qu'une autre couche d'entraînement, cette fois assisté par du travail humain (très peu rémunéré), soit appliquée, certaines déformations restent. Autre problème : GPT-4 a des connaissances limitées à avant septembre 2021.

Cependant, OpenAI explique qu'il a ajouté des nouvelles étapes dans son entraînements, afin d'éviter certaines dérives. L'entreprise a travaillé avec des experts du risque (IA, cybersécurité, biologique, juridique) pour intégrer le plus de paramètres possibles. Mais ces précautions seront-elles suffisantes pour convaincre les entreprises d'utiliser GPT-4 ?

Lire aussiCourse à l'IA : « Les entreprises ne peuvent pas se permettre de sacrifier l'éthique »

François Manens

Sujets les + lus

|

Sujets les + commentés

Commentaire 1
à écrit le 15/03/2023 à 1:24
Signaler
Le point négatif est la suppression de pas mal de poste dans différent secteurs et le positif est de pouvoir remplacer notre staff politique par un seul logiciel, il fera sans doute moins de bêtises

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.