Attentats : "Nous sommes en plein dans le pic de haine sur Internet"

Par Sylvain Rolland  |   |  1622  mots
Le patron de la société de modération Netino explique comment ses algorithmes permettent de traiter en temps réel l'afflux des messages haineux depuis les attentats du 13 novembre.
Depuis les attentats du 13 novembre, la parole se libère sur Internet. Jérémie Mani, le président de la société de modération des commentaires de nombreux sites d’info et de leur page Facebook, revient pour La Tribune sur l’explosion des commentaires haineux et comment son entreprise de modération fait en sorte d’en supprimer le plus possible.

"Musulman = terroriste", "c'est un coup de Marine Le Pen pour gagner des voix", insultes, propos racistes ou antisémites... Depuis les attentats du 13 novembre, la France est en crise. Y compris sur Internet, où le volume de commentaires en général a quintuplé par rapport à la moyenne. Parmi eux, une minorité très visible de messages haineux, que des sociétés comme Netino se chargent de repérer et de retirer pour le compte des grands médias. Soit en empêchant leur publication, soit en les supprimant, si possible très rapidement.

Jérémie Mani, le président de la société de modération Netino, revient pour La Tribune sur le dispositif que son entreprise a mis en place pour gérer cet afflux de commentaires. Parmi ses clients: les sites web de La Tribune, du Monde, de L'Express, de L'Obs, BMFTV, 20 Minutes, Sud Ouest, Les Echos ou encore Europe 1. Entretien.

LA TRIBUNE. En janvier, après les attentats au siège du journal Charlie Hebdo et à l'Hypercasher de Vincennes, les commentaires haineux avaient déferlé sur le net. Qu'en est-il après les attentats du 13 novembre ?

JEREMIE MANI : La situation est similaire dans le sens où les événements du 13 novembre donnent lieu à une explosion des commentaires qui traduisent une véritable libération de la parole, dans le bon sens comme dans le mauvais. Les Français sont extrêmement choqués et commentent massivement l'actualité liée aux attentats, que ce soit sur les sites des journaux eux-mêmes et, de plus en plus, sur leur page Facebook.

Les trois premiers jours après les attentats se sont caractérisés par des messages de recueillement, d'incompréhension, d'émotion, de soutien aux policiers et aux familles des victimes. Des messages en grande majorités positifs, donc.

Puis les messages négatifs ont commencé à déferler, dans un effet de miroir avec l'actualité. Le climat est très tendu, les Français commentent des interventions policières spectaculaires, des mesures exceptionnelles prises par l'Etat, des funérailles ou le spectacle désolant de députés qui se bagarrent verbalement à l'Assemblée nationale.

Plus les articles des journaux sont anxiogènes, plus la peur et la paranoïa s'installent. Mécaniquement, l'unité nationale se craquelle aussi sur Internet. A partir de là, les vieux réflexes gauche/droite reprennent le dessus, les gens commencent à chercher des coupables. Au fur à mesure qu'on découvre qui étaient les terroristes, qu'on interroge leurs proches, que les conséquences des attentats se font sentir, les propos tendent à devenir plus haineux. Actuellement, nous sommes en plein dans le pic de haine. Le plus difficile n'est donc pas les premiers jours mais les deux ou trois semaines qui suivent.

Quelle est la part des propos haineux publiés sur les sites d'actualités et leur page Facebook par rapport à l'ensemble des commentaires ?

Depuis le 13 novembre, nous constatons une explosion générale des commentaires : entre quatre et cinq fois plus par rapport à la moyenne, comme ce fut le cas après Charlie Hebdo. Parmi eux, 70% sont positifs, 30% sont négatifs. Ce ratio est similaire à la période post-Charlie, mais supérieur à la moyenne, qui se situe d'ordinaire aux alentours de 20% de commentaires négatifs. Beaucoup de gens ont l'impression de voir énormément de propos haineux. En réalité, ils sont surtout plus visibles, car il y a beaucoup plus de commentaires au total, ce qui rend leur suppression plus difficile.

Quel type de commentaires supprimez-vous ?

Nous ne supprimons pas les 30% de commentaires négatifs, car il faut laisser vivre le débat autant que possible, dans le respect de la loi. Nous constatons beaucoup de messages racistes, anti-musulmans, anti-migrants aussi, car un énorme amalgame se fait entre les musulmans, les terroristes et les migrants, avec des propos du type "ce n'est pas étonnant avec tous les étrangers qu'il y a en France".

Nous supprimons aussi tout ce qui relève des théories du complot, du genre "Israël et les Etats-Unis n'ont pas été touchés donc c'est un complot Juif", "c'est Marine Le Pen qui a fait le coup pour gagner des voix" etc. Mais l'essentiel des propos supprimés sont racistes et anti-musulmans. En janvier, c'était différent, il y avait davantage de commentaires antisémites en raison de l'attaque de l'Hypercasher, qui visait la communauté juive.

Constatez-vous une recrudescence d'activité des internautes d'extrême-droite ?

Absolument, les groupuscules d'extrême-droite n'ont pas laissé passer l'opportunité. Certains postent des commentaires de type "musulman = terroriste" et réclament la fermeture des frontières et de l'espace Shengen.

D'autres créent aussi de faux comptes à consonance musulmane et inondent les articles de commentaires faisant l'apologie du terrorisme, dans le but d'entretenir l'amalgame. Heureusement, ils sont très facilement repérables et donc, faciles à bloquer. Mais ces commentaires peuvent faire peur à ceux qui les voient avant qu'on les supprime, même si notre réactivité est importante.

Vous modérez à la fois les commentaires postés sur les sites de la plupart des grands médias, mais aussi ceux de leur page Facebook. Voit-on les mêmes profils et les mêmes types de commentaires sur un site d'actualité et sur un réseau social ?

Certains commentent uniquement sur Facebook, d'autres uniquement sur les sites d'actualités, mais globalement, on retrouve le même type de contenus. Certaines personnes sont des "serial-posteurs", ils commentent l'actualité sur de nombreux sites, il est donc facile de les repérer avec leur adresse IP ou leur compte utilisateur. Ceux qui ont l'habitude de poster des messages injurieux sont déjà bloqués, mais avec les attentats, des personnes qui ne postaient pas s'y mettent et d'autres peuvent déraper.

Sur les réseaux sociaux, les messages sont plus courts, plus impulsifs, donc plus propices aux dérapages. Sur les sites d'actualités, les commentaires sont en général un peu plus développés, moins spontanés car il faut s'inscrire alors que sur Facebook, on commente avec son profil. Notre principale difficulté est plutôt l'afflux de messages. Puisque leur nombre explose, nous sommes moins réactifs pour les enlever très vite.

Justement, comment repérez-vous les commentaires problématiques ? Grâce à un algorithme ?

Tout l'enjeu en cette période d'explosion des commentaires est de bien détecter les messages problématiques et de supprimer ceux qui sont haineux très vite. Nous fonctionnons effectivement grâce à un algorithme très puissant qui sélectionne les commentaires "à risque", mais ce sont nos modérateurs qui prennent la décision de les supprimer ou pas. Les messages ne sont pas traités par ordre d'arrivée mais en fonction du risque de dérapage qu'ils représentent. Pour calculer ce risque, notre algorithme prend en compte de nombreux critères.

Lesquels ?

Tout d'abord, l'algorithme fonctionne avec un système de mots-clés, mis à jour très régulièrement. On sait que certains mots génèrent plus de commentaires haineux que d'autres. Quand des mots comme "charia", "sioniste", "gay" apparaissent dans les commentaires, le taux de rejet moyen est deux à trois fois supérieur. L'algorithme considère donc que chaque message qui contient certains mots-clés doit être traité par nos équipes avec plus d'urgence que lorsqu'ils n'apparaissent pas.

Le deuxième critère majeur est ce qu'on appelle les "scores utilisateur". On conserve l'intégralité des données que nous avons sur chaque personne, pour déterminer si on doit particulièrement surveiller son activité car elle risque de déborder, ou si la personne est considérée comme fiable. Par exemple, si vous commentez pour la première fois sur la page Facebook du Monde, vous pouvez penser qu'on ne vous connaît pas. En réalité, il y a de grandes chances qu'on vous connaisse si vous avez déjà commenté des posts de La Tribune ou de L'Express. Comme le pseudonyme, qui est votre compte Facebook, est le même, nous pouvons établir un "score de risque" qui permet à l'algorithme de ranger votre message plus ou moins haut dans la liste des messages à surveiller. Les commentaires des utilisateurs qui n'ont jamais dérapé sont moins prioritaires.

Et le troisième aspect ?

Le dernier grand critère est la viralité. Tous les articles sur un site, tous les posts de médias sur Facebook, n'ont pas le même impact, certains sont plus populaires que d'autres. Mettre l'accent sur les articles ou posts les plus populaires, likés et commentés, permet de repérer tout de suite une horreur et de l'enlever avant qu'elle n'atteigne beaucoup de monde. En revanche, un commentaire haineux sur un post moins exposé va peut-être rester en ligne un peu plus longtemps.

Avez-vous mis en place des moyens humains supplémentaires pour traiter l'afflux de commentaires depuis les attentats ?

Nous n'avons pas beaucoup de marges de manœuvre sur ce plan, car il faut recruter et former le personnel et ce n'est pas possible en période de crise. En revanche nos modérateurs font des heures supplémentaires et nous mobilisons le maximum de monde. La vraie solution est de faire confiance à notre algorithme pour établir des priorités. Le temps passé à lire 100 messages considérés "à risque" est le même si on en supprime 20 ou 70. L'enjeu est de faire en sorte de bien sélectionner les messages pour retirer le plus rapidement possible ceux à caractère haineux. On compte aussi sur des signalement de communauté. Enfin, l'expérience Charlie Hebdo, qui nous avait pris de court, nous a énormément appris. Aujourd'hui, nous sommes mieux armés pour faire face.

Propos recueillis par Sylvain Rolland