Lutte contre les fake news : Facebook tâtonne toujours

Le réseau social a annoncé mercredi supprimer les fausses informations, pouvant créer des effets violents. Jusqu'ici, Facebook se bornait à leur donner moins de visibilité. Le même jour, Mark Zuckerberg a provoqué un tollé en expliquant pourquoi les propos négationnistes ne sont pas censurés sur la plateforme.
Anaïs Cherif
Le réseau social Facebook est utilisé par plus de 2 milliards d'utilisateurs dans le monde.
Le réseau social Facebook est utilisé par plus de 2 milliards d'utilisateurs dans le monde. (Crédits : Dado Ruvic)

Fléchissement de cap pour Facebook. Le plus grand réseau social au monde a annoncé mercredi vouloir supprimer de sa plateforme les fausses informations (en anglais, fake news) susceptibles de créer des violences de façon imminente. Jusqu'ici, le fleuron de la Silicon Valley choisissait simplement de réduire leur visibilité sur la plateforme afin d'éviter leur propagation. Mais il a été vivement critiqué en Birmanie et au Sri Lanka, secoué récemment par des violences inter-religieuses, pour avoir laissé circuler des rumeurs et fausses informations ayant pu contribuer à des actes haineux.

"Nous commençons à mettre en œuvre cette nouvelle politique dans des pays où nous voyons des exemples où la désinformation a (...) entraîné des violences", a indiqué mercredi Tessa Lyons, une des responsables de l'équipe chargée de la lutte contre les fausses informations chez Facebook, rapporte l'AFP.

Par exemple, le réseau social pourra retirer des contenus inexacts ou trompeurs, comme des photos truquées, créées ou partagées pour contribuer à la violence physique ou l'exacerber. Pour autant, ces fausses nouvelles, considérées comme moins explicitement violentes, ne sont pas assimilées aux contenus haineux ou appels directs à la violence - déjà bannis théoriquement de Facebook.

Le réseau social a assuré avoir déjà supprimé au Sri Lanka, des messages affirmant que les musulmans empoisonnaient de la nourriture consommée par des bouddhistes, rapporte Le MondeLe groupe américain dit s'appuyer sur des organisations locales ou des agences spécialisées pour déterminer si ces publications sont susceptibles d'entraîner des violences justifiant leur retrait, sans préciser les critères sur lesquels ils se baseront.

Tollé pour Mark Zuckerberg

Cette nouvelle décision illustre une fois de plus le jeu d'équilibriste auquel Facebook se prête concernant la modération. Mark Zuckerberg, Pdg et co-fondateur du réseau social, a d'ailleurs provoqué un tollé dans la presse américaine. Dans un long entretien accordé ce mercredi à Recode, le jeune milliardaire assurait avoir deux principes pour son entreprise :

"D'un côté, il faut offrir un moyen d'expression aux internautes, pour que les gens puissent exprimer leurs opinions. De l'autre, il faut préserver la communauté."

Et de poursuivre :

"Je suis juif et il y a un groupe de gens qui nient que l'Holocauste a existé. Je trouve cela très choquant mais au bout du compte, je ne crois pas que notre plateforme devrait dépublier ce genre d'argument, parce qu'à mon sens il y a des choses sur lesquelles certaines personnes se trompent. Il est difficile d'attaquer l'intention et de comprendre l'intention [des gens]. (...) Je ne pense pas que la bonne chose à dire soit : « Nous allons virer quelqu'un de la plate-forme s'il se trompe, même plusieurs fois.» "

Suite aux vives critiques de la presse américaine, le patron de Facebook a précisé ses propos mercredi en fin de journée, toujours auprès de Recode. Mark Zuckerberg a assuré "en aucune manière défendre les intentions des [négationnistes]". Avant d'affirmer : "Notre objectif avec de fausses nouvelles n'est pas d'empêcher quiconque de dire quelque chose de faux - mais d'empêcher les fausses nouvelles et la désinformation de s'étendre à travers nos services."

Une modération à géométrie variable

La modération à géométrie variable de Facebook soulève régulièrement les critiques. Début mars, le réseau social avait supprimé, puis remis en ligne, une vidéo d'un proche du Premier ministre hongrois, expliquant que les immigrés sont responsables d'une hausse de l'insécurité et de l'expulsion des "chrétiens blancs" à Vienne. Le géant américain avait alors justifié :

"Les internautes utilisent Facebook pour défier leurs idées et se sensibiliser sur les questions importantes, mais nous continuerons de supprimer le contenu qui viole les normes de notre communauté." Avant d'affirmer : "Des exceptions sont parfois faites si le contenu est intéressant, significatif ou important pour le public."

Un point de vue qui illustre la conception anglo-saxonne de la liberté d'expression, beaucoup plus extensive que celle appliquée en Europe. C'est le problème épineux auquel Facebook se retrouve confronté : comment appliquer des règles communes permettant de concilier les sensibilités de plus de 2 milliards d'utilisateurs dans le monde ? Supprimer trop de publications s'apparenterait à une restriction de la liberté d'expression. Mais miser sur l'autorégulation fait prendre le risque à Facebook de paraître laxiste en permettant la prolifération des discours haineux et de la désinformation. Un débat que Facebook ne semble toujours pas avoir tranché.

Anaïs Cherif

Sujets les + lus

|

Sujets les + commentés

Commentaire 1
à écrit le 19/07/2018 à 16:45
Signaler
"Un point de vue qui illustre la conception anglo-saxonne de la liberté d'expression, beaucoup plus extensive que celle appliquée en Europe." Voilà, nous autres européens aux oligarchies dirigeantes alors que totalement décadentes avons plein de ...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.