
Il suffit de quelques mots de l'utilisateur pour que ChatGPT écrive un poème ou que Midjourney crée une image originale. La nouvelle vague d'intelligences artificielles, dites génératives, a offert au grand public une capacité de production de contenu inédite non seulement par son étendue, mais aussi, et surtout, par son accessibilité. Plus besoin d'apprendre un langage informatique pour contrôler ces nouveaux outils : les IA génératives se commandent en langage naturel, par exemple dans la langue maternelle de l'utilisateur. Ce dernier n'a qu'à écrire un « prompt », c'est-à-dire une consigne d'une ou plusieurs phrases, pour que l'IA génère le contenu désiré. Une véritable révolution.
Le prompt, cadre essentiel des IA génératives
Mais le prompt n'a pas uniquement bouleversé l'accès aux IA : il s'avère également essentiel à la création d'usages industriels. « Le prompt permet de guider le modèle et de mettre en place des garde-fous », résume Philippe Limantour, CTO de Microsoft France. Sans prompt bien travaillé, les IA comme GPT-4 (OpenAI) ou LaMDA (Google), qualifiés de « généralistes », hallucinent trop souvent. Concrètement, elles mentent ou font des erreurs, entre 20% et 40% du temps (selon les sources) ce qui pose un problème critique pour les usages professionnels.
Cette tendance à l'hallucination a une explication connue : les modèles sont entraînés sur des milliards de phrases, piochées un peu partout sur le web, afin d'affiner leur compréhension du langage. Mais les développeurs ne vérifient pas la qualité de ces données, qui peuvent par exemple comprendre des théories du complot ou des résultats mathématiques faux. Résultat : GPT-4 et consorts excellent dans la compréhension du langage et dans la construction de phrases, mais ils répondent (trop) souvent à côté de la plaque.
« Pour un usage industriel, il faut transformer le modèle généraliste en modèle spécialiste. Il faut l'entraîner sur des tâches précises, dans un cadre restreint, et le nourrir d'une expertise validée par l'entreprise », conseille Stéphane Roder, président et co-fondateur du cabinet de conseil AI Builders, spécialisé en intelligence artificielle. Or, tout ce processus peut désormais passer par le prompt. Par exemple, un assureur peut nourrir l'IA avec sa police d'assurance par le biais du prompt, puis ensuite lui demander de l'utiliser comme unique source fiable. L'IA pourra ainsi extraire à la demande des téléconseillers les passages de la police applicables au cas du client.
« Avant le prompt, on devait faire du réapprentissage, ce qui était long et coûteux », rappelle Philippe Limantour. Ce procédé, connu sous le terme fine-tuning, demandait auparavant de fournir au modèle des dizaines de milliers d'exemples. Or, la création de ces exemples, en plus d'être coûteuse, exige du travail humain de labellisation, répétitif et le plus souvent très mal payé pour les travailleurs. « Grâce au prompt, c'est fini ! Nous n'avons besoin de donner l'expertise qu'une seule fois. On remarque aussi qu'avec une dizaine d'exemples, on obtient des résultats meilleurs qu'avant avec des milliers », ajoute Stéphane Roder.
« Ingénieur en prompt », métier du futur ?
Preuve de l'importance du prompt, sur la côte ouest américaine, des entreprises commencent à créer des postes de « prompt engineers » (ou « ingénieurs en prompt »). Leur rôle ? Trouver les prompts idéals pour que l'IA générative réponde au mieux à la demande des utilisateurs. Concrètement, ils testent des multitudes de formulations à la recherche des commandes les plus efficaces, et ils tentent de pousser les IA dans leurs limites. L'enjeu est important, puisque l'entreprise qui maîtrisera le mieux l'utilisation des IA génératives et les risques qui y sont liés pourrait grandement gagner en productivité, et aboutir à un avantage concurrentiel conséquent.
Le problème, c'est que les IA génératives n'ont pas véritablement de mode d'emploi. Les prompt engineers -qui n'ont pas forcément de compétence en informatique- se dirigent donc à la baguette de sourcier. Ils construisent leur savoir sur l'expérience, puisque les modèles n'indiquent pas clairement comment l'ajout ou la modification d'un mot influence leur production. En conséquence, des « experts » autoproclamés à la recherche de reconnaissance inondent les réseaux sociaux de listes de prompts à « absolument utiliser », tandis que d'autres sont allés jusqu'à créer des marketplaces (Krea, Prompthero...) dédiés à la vente de prompts. Mais ce mode de d'apprentissage par l'expérience fait douter le monde académique, qui questionne la légitimité du prompt engineering comme discipline technique à part entière, comme le souligne le Washington Post. Une opinion qui n'est pas partagée par Microsoft qui emploie le terme depuis plus d'un an.
Pour l'instant, l'engouement pour ces nouveaux dresseurs d'IA n'a pas traversé l'Atlantique. Mais la tendance intrigue les entreprises françaises. « Depuis quelques jours, je reçois des appels de clients paniqués, qui nous demandent s'ils doivent recruter des prompts engineers. Pour l'instant, je réponds que non, ce sont nos data scientists qui ont cette casquette », relève Stéphane Roder. Mais l'expert s'attend à l'apparition de ce nouveau métier à court terme.
Sujets les + commentés