Pourquoi l'IA ne sera d'aucune aide pour la loi contre les contenus haineux

OPINION. Une proposition de loi visant à lutter contre les contenus à caractère haineux sur internet va être examinée par le parlement. Un problème complexe qui ne sera pas résolu uniquement par le recours à l'Intelligence artificielle (IA). Par Charles Cuvelliez, Université de Bruxelles.
(Crédits : Reuters)

La députée LREM Laetitia Avia a remis le 11 mars au président du groupe majoritaire la proposition de loi contre les contenus haineux sur Internet. C'était un des engagements du président Emmanuel Macron. Comme en Allemagne, des sanctions sévères s'appliqueront s'il n'est pas fait diligence aux signalements reçus par les plateformes de la part des internautes : jusqu'à 4 % du chiffre d'affaires mondial de l'entreprise ! Or, même à l'heure de l'IA, les plateformes sont pourtant bien démunies contre le traitement des contenus incitant à la haine. Ce sont des petites mains, 20.000 chez Facebook, 10.000 chez YouTube, qui épluchent tout ce qu'on leur signale comme contenu à problème. S'il est bien un métier qui doit être au plus vite remplacé par l'IA, c'est celui-là, modérateur de contenus haineux et inappropriés. Qu'on s'imagine le quotidien des milliers de personnes dont le seul horizon est de lire (sur base d'un signalement), à longueur de journée, ce qu'un individu peut produire de plus vil et de plus bas.

Et pourtant, l'IA ne semble pas prête d'arriver à relever ce défi alors qu'il est si efficace pour détecter les images de nudité ou de sexe. Comment expliquer ce paradoxe ? Une étude du CERRE s'est penchée sur la question.

Une question de définition

Mais d'abord, qu'est-ce le contenu incitant à la haine ? C'est là que commencent les problèmes, d'après le CERRE. De manière globale il s'agit d'un contenu qui attaque une personne ou un groupe sur la base de certains attributs comme la race, l'origine ethnique, la religion, un handicap, le genre ou l'orientation sexuelle. Mais au-delà de cette définition globale, il n'existe pas de critères sans équivoque dans l'Union européenne sur lesquels les grandes plateformes pourraient se reposer pour décider si oui ou non un contenu est haineux et doit être retiré au plus vite. Car, d'après la directive e-commerce, les plateformes n'ont que l'obligation de retirer ce contenu dès qu'on le leur porte à leur connaissance (via des utilisateurs la plupart du temps). Ils n'ont pas de responsabilité éditoriale.

Quand on voit la masse de modérateurs que les géants de la Tech sont obligés de recruter, on se pose déjà la question du devenir des petits acteurs qui sont soumis à la même obligation. Comment peuvent-ils faire ? On se dit alors que l'IA est la solution tant pour eux que pour les géants d'Internet : on lui donne du contenu haineux déjà identifié comme tel par ces armées de modérateurs et on espère, après entrainement, qu'elle fera aussi bien avec l'espoir de décharger ces travailleurs précaires de cette tâche mortifère.

Le problème est que l'IA ne marche pas bien ici : des 2,5 millions de contenus à problème retirés de Facebook en Q1 2018, seul 38 % avait été flaggé par l'IA au préalable, nous explique le CERRE. La raison est simple : une image dénudée ou à caractère sexuel l'est en tant que telle. Un contenu haineux est fort dépendant du vocabulaire utilisé qui, selon le contexte, acquiert ce caractère ou pas. Il peut s'agir d'ironie ou de satire. Ce n'est pas tout : l'IA appliquée au contenu haineux est peu robuste contre des techniques pour l'induire en erreur comme les fautes d'orthographe, les typos, l'ajout de mots « gentils » en plein milieu du contenu haineux.

Le contenu haineux évolue

Le contenu haineux change aussi de nature, hélas, et évolue avec le temps : aujourd'hui, c'est contre telle communauté ou contre tel travers de tel ou tel groupe d'individus auquel on s'en prend. Demain, ce sera autre chose qui dérangera les auteurs de cette littérature de caniveau. Or l'IA doit se nourrir de données historiques. Elle ne sait pas comment la nature humaine, dans ce qu'elle a de plus vil, va évoluer.

La langue a aussi son importance : la manière d'exprimer sa haine de l'autre varie selon la langue utilisée. Or il y a évidemment plus de données historiques sur lesquelles entrainer l'IA en anglais qu'en toute autre langue, ce qui fait que l'IA n'aura pas la même efficacité « linguistique ». Et même au sein d'une même langue, fait justement remarquer le CERRE, l'IA doit parfois être entrainée différemment. Qu'on songe à la liberté d'expression plus grande aux Etats-Unis par apport à la Grande-Bretagne qui fera qu'un contenu haineux dans un cas sera toléré dans un autre.

Faux positifs favorisés

Avec un tel flou dans les contours d'un discours haineux, l'utilisation de l'IA posera le problème des faux positifs ou des faux négatifs. Soit la barre est trop haute, soit elle est trop basse. Or les plateformes pour des raisons de réputation et d'image, sans compter les amendes auxquelles elles pourraient être soumise (jusqu'à 50 millions d'euros en Allemagne), auront tendance à mettre la barre trop basse. En cas de doute, mieux vaut retirer le contenu peut-être litigieux. On a tous entendu ces contenus artistiques retirés de Facebook parce que montrant trop de nudité, soi-disant. C'est là aussi que joue le facteur culturel des modérateurs qui sont souvent recrutés dans des pays à bas salaires, en Asie. Et même si la pratique montre que l'amende ne tombera qu'en cas de violation systématique de l'obligation de retirer du contenu haineux, l'image est trop importante pour jouer avec le feu à cet égard. L'autre problème est la quantité phénoménale de contenus postés par jour. Imaginons un algorithme d'IA précis à 99.995 % et donc un taux d'erreur de 0.005 %. Ceci signifie que sur 1 million de contenu posés chaque jour sur Facebook, 5.000 seraient flaggés à tort comme haineux.

Le manque de critère précis amène un Facebook ou un Twitter à émettre leur propre définition de contenu haineux qui sera retiré. C'est étrange car ce sont des acteurs privés qui s'arrogent le droit de définir un contenu illégal (à leur décharge, ils sont bien obligés de combler un vide) mais il faut louer la transparence dont ils dont preuve en publiant leur vision en la matière. En 2016, dans un effort de co-régulation, la Commission européenne a coopéré avec Microsoft, Facebook, Twitter et Youtube pour mettre en place un code de bonne conduite qui a tout de même laissé la responsabilité finale dans les mains de ces plateformes. Le rapporteur de l'Onu sur la liberté d'expression a expliqué, nous rappelle le CERRE, que ce serait mieux, évidemment, que des restrictions soient imposées par décision judiciaire mais c'est infaisable devant le volume et surtout le délai pris pour rendre une décision de justice. Pendant tout ce temps, la cible du contenu haineux en subira les conséquences.

L'IA ne peut pas lire entre les lignes : l'intervention humaine restera indispensable mais un premier filtrage est toujours possible par l'IA, propose le CERRE. L'auteur de l'étude suggère aussi d'appliquer à l'IA utilisé dans ce contexte d'être le plus transparent possible : rendre public l'algorithme qui est utilisé.

Et on ne peut s'empêcher d'extrapoler les explications de la faiblesse de l'IA contre le contenu haineux aux fake news, un autre fléau.

________________________

Pour en savoir plus :

Artificial Intelligence and Online Hate Speech, Michèle Finck, CERRE, Janvier 2019

Sujets les + lus

|

Sujets les + commentés

Commentaires 4
à écrit le 12/03/2019 à 18:28
Signaler
Donc l’humain serait incapable de contrôler les haines et les violences sur les réseaux ? C’est un gros mensonge à mon sens Le contrôle commence par chacun de nous et un système qui sait «  écouter » de manière neutre D’où la neutralité de internet...

à écrit le 12/03/2019 à 16:16
Signaler
Surtout que je préfèrerais et suis prêt à payer même pour un logiciel efficace contre les mouchards commerciaux ou non des téléphones portables, en ce qui concerne les contenus haineux je me fais confiance, merci.

à écrit le 12/03/2019 à 15:02
Signaler
bien enfin un commentaire intelligent sur l'ai effectivement, les algorithmes profonds qui savent tout via lstm, ca depend ce qu'on leur demande de faire......... sachant que dans la realite ' espece de sale blanc' ( y aussi ' sale craie' ou ' sal...

à écrit le 12/03/2019 à 14:16
Signaler
La seule arme de dissuasion c'est le porte-monnaie. En frappant très fort quelques cas, la volumétrie va vite tomber et redevenir accessible à la modération humaine. Il faut aussi frapper le réseau au porte-monnaie bien sur.

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.