Demain, les colonnes des journaux seront-elles remplies d'articles écrits par l'intelligence artificielle générative ? Les performances incroyables de ChatGPT, capable de rédiger non seulement des textes dans une langue impeccable, mais aussi de créer des images, des graphiques et autres synthèses à partir d'une simple commande, ont créé un vent de panique dans le monde de la presse.
Pour ne rien arranger, certains médias comme l'américain Buzzfeed et le français Presse-Citron se sont rués sur l'opportunité pour expérimenter la création d'articles avec des chatbots. Le premier pas vers le remplacement des journalistes ?
Pas si vite. Quelques mois plus tard, les deux titres ont déjà jeté l'éponge.
« Ecrire des articles est l'application la moins intéressante de l'IA générative dans l'espace médiatique », tranche Charlie Beckett, directeur du programme JournalismAI à la London School of Economics.
« En plus des risques d'erreurs car l'IA ne distingue pas le vrai du faux, les articles écrits par ChatGPT sont franchement ennuyeux », estime l'expert des médias. Autre défaut, « l'IA est incapable d'enquêter ou de faire des analyses poussées », ce qui limite son intérêt.
Un super-assistant qui fait gagner du temps
Pour autant, l'IA générative peut être utile au journalisme. « De nombreux médias utilisent déjà l'IA. Lorsqu'un article est converti au format audio, c'est l'IA qui est au manettes », rappelle Charlie Beckett. Voilà une fonctionnalité dont les rédactions sont friandes : automatiser des tâches qui ne seraient pas réalisables par un humain, ou qui prendraient beaucoup plus de temps pour un résultat similaire.
L'IA générative semble donc destinée à devenir un super-assistant pour chaque journaliste. ChatGPT peut traduire un article, éditer une vidéo, identifier des ressources à lire pour défricher un sujet...
Le quotidien britannique The Guardian utilise ainsi l'IA pour aider les journalistes à rassembler, analyser et synthétiser des données. De son côté, le média en ligne Brut, qui cherche à se développer à l'international, s'en sert pour traduire ses vidéos dans d'autres langues, en reproduisant les voix et mouvements de lèvres de ses journalistes. Bloomberg, une publication économique américaine, a entraîné sa propre version de ChatGPT sur quarante années de dépêches et de données financières, pour répondre de manière interactive aux questions de ses journalistes.
Intégrer l'IA dans l'éthique journalistique
S'ils se montrent curieux vis-à-vis de l'IA générative, les médias font également preuve de prudence. Les risques liés à l'utilisation d'une technologie récente sont réels. En particulier l'hallucination, c'est-à-dire la propension de ces IA à affirmer des choses fausses avec aplomb dans 30% des cas en moyenne. Le risque de les voir reproduire les biais -racisme, sexisme- reflétés par les données sur lesquelles elles ont été entraînées, effraie également bon nombre d'éditeurs.
Pour s'en prémunir, certains médias se sont déjà dotés d'une charte d'éthique et de déontologie sur l'IA générative. A l'image du Groupe Les Echos/Le Parisien, qui s'engage à ne pas utiliser ChatGPT et consorts sans supervision humaine. À La Tribune, une charte similaire est en cours d'élaboration.
Digital Content Next, un groupe d'intérêts qui représente plusieurs médias anglo-saxons de premier plan, dont le New York Times, le Washington Post et The Economist, a de son côté publié sept principes pour le développement d'une IA générative responsable. L'objectif : respecter la propriété intellectuelle, lutter contre les biais et promouvoir la transparence des algorithmes.
Reste que malgré les indispensables précautions éthiques, la sphère médiatique ne peut faire l'impasse sur l'IA générative, estime Charlie Beckett.
« La technologie évolue rapidement et il est impératif que les journalistes se familiarisent avec elle. A la fois pour l'utiliser dans leur travail, mais aussi parce que tous les sujets qu'ils couvrent vont être transformés par l'IA. »
Sujets les + commentés