L'intelligence artificielle générative, un big bang pour les entreprises ?

A l'occasion de son événement éditorial Tech For Future, La Tribune accueillait le CTO de Microsoft France Philippe Limantour et la chercheuse en IA et directrice de l'institut Prairie Isabelle Ryl pour une table ronde sur les enjeux de la nouvelle vague d'intelligence artificielle. Les deux experts ont débattu de la révolution technologique en cours qui pourrait bouleverser le monde de l'entreprise.
François Manens
« Aujourd'hui ChatGPT est un modèle complètement fermé, ce qui pose la question de comment lui faire confiance. »
« Aujourd'hui ChatGPT est un modèle complètement fermé, ce qui pose la question de comment lui faire confiance. » (Crédits : Reuters)

Depuis le lancement de ChatGPT fin novembre 2022, plus une semaine ne se passe sans que l'intelligence artificielle dite « générative » ne fasse les gros titres. Microsoft, Google, Meta, Nvidia ou encore le français LightOn sont désormais engagés dans une course à la performance et à l'intégration dans les usages des entreprises. Au point que l'écosystème entier de la tech essaie de se positionner sur la nouvelle vague technologique, que Bill Gates compare à l'arrivée d'Internet.

Lire aussi« Non, il ne faut pas interdire ChatGPT » (Jean-Noël Barrot, ministre de la Transition numérique)

Le passage au concret pour l'intelligence artificielle générative

Le succès foudroyant de ChatGPT, qui a réuni plus de 100 millions d'utilisateurs moins de deux mois après son lancement, laissait entendre qu'il s'agissait d'une innovation de rupture. Pourtant, certains experts arguent qu'il ne s'agit que d'une étape de plus sur la voie d'une nouvelle branche de l'IA lancée en 2017 avec les modèles dits « transformers  ».

« La qualité et la taille des modèles de langue a augmenté avec la dernière vague, mais c'est surtout le travail sur l'interface et le dialogue qui a déclenché la popularité. Mettre dans les mains des gens une interface qui rend le modèle aussi accessible, c'est un coup de communication extraordinaire  », explique à La Tribune, Isabelle Ryl, chercheuse à l'Inria et directrice de l'institut Prairie, lors de l'événement Tech For Future. Autrement dit, ChatGPT a permis le passage de la technologie du monde de la recherche et des spécialistes de l'IA à celui du grand public.

Microsoft, grâce à son partenariat avec OpenAI, s'est engouffré dans cet effet de nouveauté, et se retrouve en tête de file de l'intégration des IA génératives dans les produits d'entreprises. L'éditeur de logiciel a déjà déployé un assistant dopé à l'IA dans l'interface de développement de GitHub et dans la suite Microsoft 365 (Excel, PowerPoint, Word...), et il prévoit très prochainement de l'intégrer à son outil de cybersécurité. Derrière, ses concurrents restent en embuscade : Google a annoncé des nouvelles fonctionnalités d'IA dans sa suite de bureautique, Meta a présenté sa technologie baptisée Llama, et d'autres comme Nvidia ont aussi dégainé leurs propres modèles de langage.

Des gains de productivités aux effets inconnus

D'après Microsoft, les IA génératives vont engendrer un gain inédit de productivité, et « révolutionner » ni plus ni moins le travail. Ses intelligences artificielles qualifiées de « copilotes » peuvent par exemple réunir et analyser des informations, créer des rapports, ou encore écrire du code informatique. Elles réalisent en quelques secondes des tâches qui prendraient jusqu'à plusieurs dizaines de minutes à faire manuellement.

L'entreprise affirme donc que l'IA va permettre d'écourter les tâches répétitives, à plus faible valeur ajoutée, pour permettre aux employés de se consacrer sur les tâches créatives. Mais cette promesse de gain de temps et d'intérêt dans le travail fait poindre le spectre de la destruction d'emplois. D'ailleurs, Microsoft présente son IA comme une solution à la pénurie de talents du secteur de la cybersécurité, preuve qu'elle le voit comme une forme de remplacement de la main-d'œuvre.

Certains envisagent une transformation des emplois : les IA génératives pourraient drastiquement réduire la barrière à l'entrée de certaines carrières, et faire apparaître de nouveaux métiers -comme celui émergent d'ingénieur en prompt. « Au final, c'est aux entreprises et à la société de se demander ce qu'on va faire de ce gain de productivité. Pour ma part, je suis optimiste et je pense que nous allons assister à une évolution des emplois comme il y a pu avoir avec l'arrivée de l'informatique ou d'Internet », explique à La Tribune Philippe Limantour, CTO de Microsoft France.

Lire aussiPour ou contre : faut-il freiner le développement de l'intelligence artificielle ? (Colin de la Higuera face à Paul Midy)

Comment gérer les défauts des intelligences artificielles génératives ?

Pour les entreprises, la question de l'emploi s'accompagne d'un autre casse-tête : celui de la fiabilité des IA génératives. Parfois, elles « hallucinent » et mentent ou inventent des réponses.« Il faut garder à l'esprit que ce sont des modèles statistiques, et qu'il est donc normal qu'ils ne fonctionnent pas à 100%. En conséquence, il faut faire attention à ce que les personnes qui l'utilisent aient pleinement conscience du pourcentage d'erreurs, et cela passe par une éducation à ces outils dès le plus jeune âge, qui fait le plus souvent défaut aujourd'hui  », met en garde Isabelle Ryl.

Pour pallier ce risque, Microsoft mise en bout de chaîne sur la notion de « copilote » : ses IA proposent, suggèrent, mais c'est l'utilisateur qui valide leur contribution. Autrement dit, ce dernier à la responsabilité de contrôler les débordements de la technologie. Cette posture agace certains spécialistes de l'éthique, mais elle a permis à l'entreprise de se projeter très rapidement sur le marché.

Mais surtout, Microsoft, à l'instar de ses concurrents, n'intègre pas le modèle de langage (GPT-4) sous sa forme brute : il s'assure de créer un cadre pour permettre des usages industriels. Autrement dit, il s'assure que les aspects juridiques, réglementaires et de cybersécurité soient respectés. . « GPT-4 est un moteur exceptionnel, mais il faut apporter le reste des pièces pour en faire une voiture fonctionnelle. C'est ici que nous intervenons », image Philippe Limantour.

Un manque de transparence trop dérangeant ?

Le problème, c'est que si l'entreprise américaine affirme effectuer le nécessaire pour cadrer la technologie, les utilisateurs n'ont d'autre choix que de s'en remettre à sa parole. « Pour contrôler les usages, il faudrait connaître ce qui se cache dans le ventre de la bête. Aujourd'hui ChatGPT est un modèle complètement fermé, ce qui pose la question de comment lui faire confiance », relève Isabelle Ryl. Concrètement, les outils d'intelligence artificielle créent du contenu, sans que l'utilisateur puisse retracer leur raisonnement.

L'ouverture du code des modèles n'est même pas considérée comme suffisante par les spécialistes de l'éthique. Une véritable transparence intègrerait aussi l'ouverture des données sur lesquelles l'outil est entraîné, et la liste des paramètres d'optimisation de l'IA. Mais vu les volumes en jeu -on parle de dizaines de milliards de paramètres et de milliers de milliards de données-, ce serait une tâche complexe.

Les experts de l'éthique espèrent tout de même que les outils juridiques et normatifs européens -comme le RGPD et l'IA Act en discussion au niveau de l'Union européenne- permettront d'ouvrir le capot de la technologie et d'éviter les usages néfastes. Mais comme souvent dans la tech, la réglementation paraît pour l'instant dépassée par l'évolution de la technologie : c'est pourquoi des figures de la tech ont appelé à un moratoire sur l'IA, le temps de mettre en place des garde-fous. Pour la même raison, l'autorité des données italienne a menacé ChatGPT d'une lourde amende, ce qui a mené au blocage du service dans le pays par OpenAI. Désormais, les regards sont tournés vers les autres pays européens, à commencer par la France et l'Allemagne, qui auront à charge de trouver le difficile équilibre entre compétitivité et encadrement de la technologie.

François Manens

Sujets les + lus

|

Sujets les + commentés

Commentaires 2
à écrit le 08/04/2023 à 10:37
Signaler
on va faire de la semantique; generatif, a la base c'est pas parce qu'il y a un generateur et un discriminateur, generatif ca veut dire que ca cree des densites de probabilites; tout est dit une fois ce constat fait

à écrit le 08/04/2023 à 10:19
Signaler
Quand l'IA remplacera le salariat, qui achètera la production ? C'est la disparition des entreprises ! ;-)

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.