Reconnaître le faux

HOMO NUMERICUS. Mensonges et vérités sont au cœur des enjeux de l'intelligence artificielle. Il nous faut apprendre à distinguer le faux du vrai. Par Philippe Boyer, directeur relations institutionnelles et innovation à Covivio.
Philippe Boyer
(Crédits : DR)

J'avoue avoir hésité sur le titre de cette chronique tant Umberto Eco avait vu juste. Nul intérêt à lutter contre son gai savoir et l'intelligence limpide de ce grand intellectuel Italien, auteur de plusieurs best-sellers mondiaux à l'instar du « Nom de la rose » ou du « Pendule de Foucault ».

Dans un bref essai d'une soixantaine de pages paru il y a à peine deux années, « Reconnaître le faux », on découvre son propos à l'occasion d'un festival culturel qui s'était tenu à Milan en 2011. Faisant un large détour par l'art et ses faussaires, sans oublier la philosophie et la morale puisqu'il fut aussi question d'éthique et de vérité, ce petit texte s'applique à déconstruire les notions de mensonge, de faux et de falsification.

Disparu en 2016, autant dire il y a des siècles à l'ère numérique, on se prend à imaginer ce que cet esprit brillant, médiéviste et spécialiste de l'étude des signes du langage, aurait pu commenter sur les notions de vrai et de faux qui, à l'ère des contre-vérités (fake news) et des « hypertrucages» (deep fake), brouillent nos perceptions.

Démêler le vrai du faux

Si Umberto Eco rappelle que notre capacité à évoluer dans le monde se fonde sur le contrat social, et que notre meilleur allié contre les mensonges et les falsifications reste le temps, car celui qui ment en falsifiant les choses finit tôt ou tard par être découvert, avec l'arrivée massive de l'intelligence artificielle (IA), cette capacité à déceler et démêler le vrai du faux devient très difficile, voire quasiment impossible à percer.

Tous les jours les médias nous relatent les époustouflantes capacités des machines. Ici arme pour décrédibiliser un adversaire politique et partant pour créer ou accentuer un conflit, là, outil capable de ruiner ou, à l'inverse, de créer une réputation personnelle superficielle, ces technologies à base d'IA donnent le vertige tant il devient désormais enfantin de faire « prendre des vessies pour des lanternes ».

 « Conçu par des humains »

À quelques mois d'échéances électorales majeures (élections européennes, présidentielles américaines...), ces « deep fakes » aujourd'hui à la portée de tous grâce à des logiciels pour certains gratuits et faciles d'usage, permettent de prêter à n'importe qui des propos mensongers et souvent outranciers.

Depuis que l'IA s'est invitée dans nos vies, les questions affluent pour savoir comment distinguer la production humaine de la production numérique. Au centre de cet enjeu, il y a fort à parier que la notion de confiance s'imposera de plus en plus comme étant le « juge de paix » de cet empire du faux qui influence nos choix.

Pour contrer cette disparition du réel que commentait déjà le sociologue Jean Baudrillard au début des années quatre-vingt : « Il ne s'agit plus d'imitation, ni de redoublement, ni même de parodie, mais d'une substitution au réel des signes du réel », nul doute que s'imposeront progressivement des labels de confiance, sorte de sceaux permettant d'authentifier que ce qui aura été conçu par une machine ou par des humains. À la vitesse où l'IA se développe, devraient ainsi cohabiter deux types de futurs labels permettant d'identifier ce qui défilera sous nos regards : d'un côté, une référence nous certifiant que ce qu'on verra ou entendra aura été « Conçu par des humains ».

Et de l'autre, un label « made by AI » informant les « boulimiques du numérique» que nous sommes tous que tout ou presque est faux.

Essuyer les plâtres

En attendant que ces sceaux de confiance puissent nous aider à démêler le vrai du faux, nous avons à « essuyer les plâtres » de ces IA génératives qui d'ores et déjà nous poussent dans nos retranchements. Même au sein de la 54e édition du forum économique mondial qui vient de s'achever à Davos, l'IA était omniprésente au point que le secrétaire général de l'ONU relata que le président chinois l'avait approché pour lui demander d'agir sur la régulation de ces technologies au niveau mondial. Drôle de situation de la part d'un pays qui utilise déjà abondement l'IA pour la reconnaissance faciale et le contrôle social...

Au fond, les débats présents à Davos éclairent sur les enjeux actuels de ces IA tant ces technologies sont tout autant porteuses d'espoirs (en matière de médecine prédictive, par exemple) que de peurs. En l'espèce, le débat est clair : faut-il, et à ce même rythme, poursuivre les avancées ou bien réguler pour temporiser, le temps de mettre en place des politiques de régulation, à l'instar de l'« IA Act » poussé par l'Union européenne. Cette question fait débat entre partisans d'un moratoire qui rêvent de systématiser des garde-fous en matière de régulation et d'autres pour qui cette décélération n'est déjà plus possible ni souhaitable.

Disparition du réel

En attendant que l'on sache de quel côté de la balance, le fléau penchera, il nous faut vivre au sein de ce royaume du faux dans lequel l'image fausse se fait passer pour la réalité. Si à la Renaissance la mode des trompe-l'œil était destinée à tromper les sens sans pour autant donner l'illusion que le motif peint ou dessiné représentait « la vérité vraie », avec les logiciels de création d'images qui fonctionnent grâce à l'IA, il n'y a plus aucun signe extérieur pour distinguer le vrai du faux puisque que tout ce que l'œil voit et verra sera créé par la machine au moyen de lignes de codes.

Cette démultiplication étourdissante nous fait basculer dans un monde où il devient difficile, voire impossible, de distinguer le vrai du faux. Cette « disparition du réel » et la possibilité d'accéder à la vérité est une question lancinante chez de nombreux philosophes, à commencer par Socrate. Ce dernier avait résumé les choses sous forme de trois grandes questions morales à se poser : « Qu'est-ce qui est vrai ? », «Qu'est-ce qui est bon ? » et « Qu'est-ce qui est bien ? ». Avec l'IA et la déferlante de deepfakes qui empoisonnent nos démocraties, ces trois questionnements moraux n'ont pas pris une ride, voire, sont devenus des questions éthiques à graver sur le fronton de tous les établissements qui forment les futures générations d'ingénieurs ou d'éthiciens de l'IA.

Philippe Boyer

Sujets les + lus

|

Sujets les + commentés

Commentaires 2
à écrit le 22/01/2024 à 14:48
Signaler
Ce qui peut être vrai, c'est le manque d'information... tout le reste n'est que manipulation ! ,-)

à écrit le 22/01/2024 à 13:32
Signaler
Le problème de l'humanité, c'est la paresse intellectuelle. Se basant sur les interrogations universelles: qui sommes nous, etc..., les gens ont délégué leurs recherches/espérances/fantasmes/... à des autodéclarés "savants" (voire plutôt "sachants")....

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.