Les fleuves vérifient-ils leurs sources  ?

HOMO NUMERICUS. Les IA génératives, à l'instar de Chat-GPT, font déjà partie de notre quotidien. Du fait qu'elles ont réponse à tout, la tentation est grande de prendre pour argent comptant les résultats produits par ces machines, quitte à ne plus se préoccuper de savoir comment ils ont été produits et à partir de quelles sources. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.
Sans la capacité de comprendre comment des instructions de la machine sont produites, sans la capacité d'identifier l'origine des informations traitées, se profile le risque de manipulation et d'enfermement.
Sans la capacité de comprendre comment des instructions de la machine sont produites, sans la capacité d'identifier l'origine des informations traitées, se profile le risque de manipulation et d'enfermement. (Crédits : Reuters)

Dans son petit ouvrage « Aphorismes sous la lune et autres pensées sauvages », l'écrivain-voyageur Sylvain Tesson se débarrasse du superflu en allant à l'essentiel. Philosophie toute japonaise qui permet au lecteur de se délecter de questions et de réflexions sur le temps qui passe ou la nature qui nous entoure mais que nous ne regardons plus avec la même acuité : « Un jour les sentiers se vengeront d'avoir été battus » ou encore « Mettez une fleur dans un pot, elle s'évade par le haut »... Bref, une lecture légère, printanière, pour qui veut s'amuser du monde qui nous entoure. Au titre de cette peinture sans pinceau figure cet aphorisme qu'un Pierre Desproges n'aurait pas renié : « Les fleuves vérifient-ils leurs sources ? »

Sans le savoir, cette amusante question met en exergue l'interrogation la plus criante qui entoure ces IA dites « génératives », en particulier Chat-GPT. Dans ce fleuve bouillonnant - pour ne pas dire en furie à en croire Elon Musk et quelques centaines d'experts qui réclament une « pause » d'au moins six mois[1] - de ces systèmes d'intelligences artificielles qui bouleversent nos vies, les sources à l'origine de la production de contenus ne sont pas ou presque jamais mentionnées. Là réside le maillon le plus sensible de ces logiciels d'intelligence artificielle qui, c'est une évidence, remplaceront les humains sur un grand nombres de fonctions.

D'où tenez-vous cette information ?

En attendant que nous puissions un jour - souhaitons-le le plus lointain possible - voir ces logiciels prendre des initiatives en parfaite autonomie, il n'empêche que le débit de ce « fleuve IA » gonfle à vue d'œil, dopé en cela par les puissances de calcul des machines et la multiplication de données en tous genres (l'ère du « big data » est révolue : il faut désormais parler de « huge data »). Sans la capacité de comprendre comment des instructions de la machine sont produites, sans la capacité d'identifier l'origine des informations traitées, se profile le risque de manipulation et d'enfermement.

Faire une confiance aveugle à ces logiciels au motif qu'ils en savent beaucoup plus que les humains du fait de leurs milliards de données ingurgitées (GPT-3.5 utilise 175 milliards de données, soit l'équivalent d'Internet en 2021) et que leurs résultats ne semblent pas si absurdes, cohérents, voire parfois créatifs, c'est prendre pour argent comptant cette technologie et partant assumer le risque de niveler par le bas une société aveuglée par les strasses d'une machine qui a réponse à tout, dusse-t-elle aspirer et reformuler des contre-vérités prises sur le Web. Dit autrement, sans possibilité d'identifier ses sources, la connaissance s'assèche.

Régression de la production de la connaissance

Sur le plan éthique, le fait de faire passer au second plan, voire d'ignorer les sources qui sont à l'origine de la connaissance est une faute lourde. Un scientifique dirait qu'il y a là un biais épistémologique qui rend le raisonnement fallacieux. On objectera que l'encyclopédie en ligne Wikipedia est parfois peu regardante avec ses sources. Certes, mais au moins ces dernières sont-elles citées et de ce fait chacun est à même de vérifier la provenance des informations mentionnées. Dans le cas de Chat-GPT, rien de tout cela. Prête à l'emploi, l'information est emballée dans un paquet cadeau attrayant qui incite peu à vérifier, et encore moins à remettre en cause les propos de la machine sauf à se livrer à un fastidieux et presque impossible « fact checking » pour déconstruire le texte livré.

Nouvelle hygiène numérique citoyenne

Du plus profond de la production intellectuelle humaine, la notion de sources et de références est à la base de la transmission du savoir : textes sacrés (y compris en faisant référence à des témoignages oraux, voire apocryphes), philosophiques (Platon se réfère à Socrate), scientifiques (certaines thèses et/ou articles publiés intègrent parfois  des volumes de notes de bas de page plus importants que le corps du texte proprement dit)...

Depuis le développement d'internet, les enseignants eux-mêmes ont intégré le fait d'apprendre à leurs élèves à se servir correctement de ces nouvelles sources d'information en sachant identifier les « bons » sites de tous les autres qui charrient des données non fiables. Savoir distinguer le bon grain de l'ivraie devra plus que jamais faire partie d'une sorte de nouvelle hygiène numérique citoyenne.

Avec l'avènement de l'ère Chat-GPT et sa propension à faire disparaitre les sources de la connaissance, la tentation est grande d'accepter de déléguer son libre arbitre à des leaders technologiques non élus. Aussi, et rien que pour réfléchir à la façon d'endiguer ce risque, cette proposition d'un moratoire sur l'IA est la bienvenue, ne serait-ce que pour que la recherche et les firmes en charge du développement d'outils comme Chat-GPT s'accordent sur des normes de conception et d'usage de ces IA désormais à la portée du plus grand nombre.

La pause s'impose

Bien sûr ces logiciels d'intelligence artificielle ont et auront pour conséquence d'augmenter nos capacités, notamment cérébrales, du fait que leur usage quotidien nous donnera la possibilité d'être plus performants mais à l'inverse, ils pourront aussi nous rendre imperméables à l'effort, à l'apprentissage et partant, imperceptiblement diffuser des contre-vérités. L'un des risques sera alors de voir s'émousser notre sens critique et la capacité de la société à progresser par et grâce à la connaissance car on se sera habitué à suivre ces technologies sans se poser de questions. A minima pour que les pouvoirs publics et les régulateurs définissent les normes et les règles de gouvernance de cette IA, nous avons besoin de cette pause pour que cette technologie reste une promesse et non une menace.

 ______

[1] Pause Giant AI Experiments: An Open Letter - Future of Life Institute

Sujets les + lus

|

Sujets les + commentés

Commentaires 3
à écrit le 12/04/2023 à 13:50
Signaler
Depuis l'avènement d'internet beaucoup ont cru à l'ère de l'information pour tous, mais nous le savons déjà tous qu'il s'agit en fait de l'ère de la désinformation. Rien n'est contrôlé, tout est transformer pour créer de l'attrait quitte à mentir. ...

à écrit le 12/04/2023 à 13:49
Signaler
Depuis l'avènement d'internet beaucoup ont cru à l'ère de l'information pour tous, mais nous le savons déjà tous qu'il s'agit en fait de l'ère de la désinformation. Rien n'est contrôlé, tout est transformer pour créer de l'attrait quitte à mentir. ...

à écrit le 12/04/2023 à 11:08
Signaler
Dans ces IA génératives les sources à l'origine de la production de contenus ne sont pas ou presque jamais mentionnées? L'interrogation que pose l'article me semble en effet très pertinente. La transparence des sources sera un défi essentiel po...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.