Contre le « ChatGPT bashing »

OPINION. En plein polémique sur les craintes du monde de la recherche sur le manque de garde-fous autour de cette nouvelle technologie, pour l'instant maîtrisée uniquement par une poignée de géants de la tech, Gontran Peubez (Partner Data & IA, Onepoint) fait une analyse des Large Language Models (LLM).
(Crédits : DADO RUVIC)

Gaspard Koenig a écrit que « sur le plan épistémologique ChatGPT constituait une indéniable régression dans la production de la connaissance ». ChatGPT, dont il n'est plus nécessaire de présenter les fonctionnalités synthétise et restitue selon une syntaxe statistique une information issue de millions de pages Internet « apprises » à l'aide de Machine Learning spécifique, appelé Modèle de Langue.

Restituer de l'information et non produire de la connaissance. La meilleure preuve en est l'argument avancé par d'autres de ses détracteurs : sa propension à reproduire des biais et même à articuler sans sourciller de sérieuses inepties. Yan Le Cun, dans une conférence de presse de Meta sur Zoom a ainsi déclaré que « ChatGPT n'avait rien de révolutionnaire » et « en termes de techniques sous-jacentes, n'est pas particulièrement innovant ». Au contraire, c'est bien l'application sous forme conversationnelle, qui constitue une révolution. Chaque citoyen ou presque a depuis plusieurs années conscience que l'intelligence artificielle est partout, pour le meilleur et pour le pire, de son smartphone aux bulles informationnelles, mais elle est restée silencieuse, non tangible. Avec ChatGPT, un anthropomorphisme fait irruption de manière convaincante, après les débuts difficiles et parfois moqués de Siri ou des enceintes connectées.

Passer à côté d'une (r)évolution majeure

La véritable innovation est non seulement d'avoir introduit une intelligence artificielle générative (ie qui génère plutôt qu'elle analyse) dans un robot conversationnel, mais surtout d'avoir utilisé avec succès le Reinforcement Learning from Human Feedback (RLHF) qui donne cette apparence si humaine et si plausible à ChatGPT. Qui répond, des choses sensées - avec toutes les imperfections évoquées ci-dessus - le truchement poussant la sophistication à lui donner une cadence d'écriture simulant le rythme de rédaction d'un humain.

Voir une cohorte innombrable de détracteurs de ChatGPT s'emparer à peu de frais de cette application pour la railler, la dénigrer m'inquiète, car on risque de passer à côté d'une (r)évolution majeure, emportant avec eux une opinion qui, toujours avide d'aboyer avec la meute, tourne son attention dans la mauvaise direction.

ChatGPT est comme une « petite main » à qui l'on demanderait une première ébauche, ou une synthèse d'un sujet. Dans de nombreuses organisations, il s'agirait d'une tâche dévolue aux stagiaires fraîchement émoulus dont le temps vaut suffisamment peu pour les envoyer piocher de l'information dans la jungle d'Internet. Il n'est pas rare que le résultat soit informe et très fréquent que la syntaxe et l'orthographe de la rédaction rendent la lecture incompréhensible.

Je le confesse : c'est exactement ainsi que j'utilise, plusieurs fois par jour même, ChatGPT - en attendant les offres concurrentes. Lorsqu'il s'agit de produire de l'intelligence ou du raisonnement, pensez-vous que ChatGPT puisse être d'un quelconque secours ? La réponse est clairement non.

Cependant, ChatGPT agace, car il fait peur en prenant l'apparence inoffensive d'un compagnon quotidien qui prétend être omniscient (et non chercheur ni producteur de connaissances). Il agace, et sans doute en premier lieu les professions touchées. Elles sont innombrables et je ne peux m'empêcher de voir une nouvelle interprétation d'un jeu théâtral désormais bien partitionné, sur le modèle de la tragédie des taxis irrités par Uber ou des hôteliers ulcérés par Airbnb.

Une gifle anthropologique forte

ChatGPT, lui, touche non pas des professions de services « logistiques », mais des professions de services intellectuels, les knowledge workers, employés du secteur tertiaire qui manipulent de la connaissance (en langage naturel ou informatique) dont il convient de noter qu'ils n'en produisent cependant aucune. Balayer d'un revers de main l'avancée incontestable que constitue sur le plan scientifique la maîtrise de ces modèles de langues combinés au renforcement avec supervision humaine (RLHF sus-cité) et sur le plan anthropologique leur mise à portée du plus grand nombre, me semble de nature à sous-estimer les véritables enjeux derrière la bataille engagée entre des géants américains et chinois. Et à rassurer le vieux continent, la France en particulier en leur fredonnant une antienne lénifiante à base de « ça ne change rien puisque ça existe depuis longtemps » et de « de toute façon ça raconte n'importe quoi ».

Le risque est que notre niveau de vigilance se trouve abaissé et notre attention se détourne des conséquences de cette avancée qui constitue une gifle anthropologique plus forte que l'avènement d'Internet. Or la vitesse d'adoption de ChatGPT - plusieurs centaines de millions d'utilisateurs en deux mois - force à se préoccuper des impacts de la généralisation d'une telle technologie. Ses émules, attendus à très court terme, poussent à voir de tels agents conversationnels comme autant de nouveaux chemins d'accès au savoir ouvrant des perspectives infinies davantage que comme un système unique et définitif.

À cet égard, GPT-4, nouvelle version du robot conversationnel, laisse entrevoir le rythme de progression de ces intelligences artificielles, puisqu'il a suffi de quelques mois à OpenAI pour intégrer une fenêtre d'interaction multimodale, pouvant traiter du texte long (l'équivalent d'un roman de 100 pages), mais également des images. J'identifie au moins deux enjeux au-delà de la dimension scientifique - dont nous sommes nombreux à penser qu'elle est tout à fait à la portée des laboratoires européens à condition de leur en donner les moyens.

En premier lieu, le fonctionnement de ces modèles reposant sur leur capacité à ingurgiter des milliards de pages de connaissance déjà produite, la question se pose de la nature, de la qualité, de l'exhaustivité, de la justesse et de la cohérence de ces informations. De ce point de vue les Large Language Models encapsulent un état de la connaissance du monde dont leurs concepteurs ont bien voulu les nourrir : tout y passe indistinctement, biais divers et variés, négations de certaines thèses, promotion d'autres, traduction de la langue d'origine surreprésentée, etc. Il est inutile de préciser que les visions du monde enchâssées dans les modèles chinois ou américains seront extrêmement différentes.

Qu'en serait-il d'un modèle européen ?

À l'heure d'une recrudescence de conflits ou d'initiatives terroristes, qu'en serait-il de modèles entraînés par la Russie ou par l'État islamique ? Nous ne pouvons laisser filer ce combat et il y a fort à parier que ces outils seront facteurs d'hégémonie culturelle ; ils peuvent constituer une chance pour l'Europe.

En embuscade derrière la culture, il y a souvent l'économie. Sur ce plan, l'hypothèse d'une adoption massive à moyen terme de ces intelligences artificielles génératives est vraisemblable. Pour donner un ordre de grandeur, les tests effectués au sein des équipes que j'anime amène à une réduction de temps d'un facteur 100 pour le développement de code « en ligne droite » (c'est-à-dire dans les parties les moins spécifiques d'un programme) et permettent de fournir un premier corpus d'idées pour ne jamais démarrer de la page blanche. Le gain de productivité avec l'intelligence générative ne sera pas de quelques points : à l'image de la force musculaire multipliée en moyenne par 700 par la motorisation dans le monde occidental. Cette force de travail aura un coût : c'est exactement le sens des investissements colossaux des GAFAM dans ces technologies et le prix d'accès à ces technologies sera en relation avec les gains de productivité, exorbitant pour certaines entreprises, prohibitif pour d'autres.

Pouvons-nous accepter que les entreprises européennes se résignent à payer leur tribut aux géants technologiques venus d'ailleurs ou se condamnent à mettre la clé sous la porte ? Contrairement à d'autres pans économiques où l'Europe était pénalisée par défaut (par exemple les industries énergivores ou manufacturières avides de main-d'œuvre bon marché), notre continent dispose des deux ingrédients fondamentaux à l'intelligence artificielle générative : un fonds documentaire des plus riches et des ingénieurs et chercheurs de tout premier plan. Aussi, l'heure n'est pas à disserter sur le bien-fondé ou la performance de la technologie, mais davantage d'en appeler à la structuration d'une filière industrielle qui réunit dans une même initiative notre potentiel académique et culturel. Au même titre que les filières qui ont su faire de la France et de l'Europe des champions de la scène mondiale leur permettant de maîtriser leur destin.

Sujets les + lus

|

Sujets les + commentés

Commentaire 0

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

Il n'y a actuellement aucun commentaire concernant cet article.
Soyez le premier à donner votre avis !

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.