Suicides, menaces... Facebook admet des règles "contre-intuitives" pour sa modération

 |   |  536  mots
Le réseau social Facebook emploie actuellement 4.500 modérateurs - et a annoncé le mois dernier vouloir grossir ses rangs avec 3.000 nouvelles recrues.
Le réseau social Facebook emploie actuellement 4.500 modérateurs - et a annoncé le mois dernier vouloir grossir ses rangs avec 3.000 nouvelles recrues. (Crédits : Reuters/Regis Duvignau)
Un guide interne de 100 pages, destinés aux modérateurs du réseau social, a été divulgué par le Guardian. Il explique comment des menaces, des suicides ou des scènes violentes peuvent être acceptées par Facebook.

Décider ce que peuvent voir ses 2 milliards d'utilisateurs en une poignée de secondes. La modération de Facebook est régulièrement exposée aux critiques - jugée trop lente ou trop arbitraire. Une enquête du Guardian révèle les pratiques controversées du réseau social en la matière. Apologie du terrorisme, pornographie, racisme, suicide et même cannibalisme... Un guide interne de 100 pages est censé aiguiller les modérateurs dans leur tâche, alors qu'ils disposent souvent de "seulement 10 secondes" pour trancher de l'avenir d'une publication. Mais dans bien des cas, les frontières sont minces entre les contenus autorisés et prohibés, sans parler des "zones grises" de l'humour noir :

  • Menaces : des publications comme "J'espère que quelqu'un te tuera" ou encore "pour briser le cou d'une pétasse, faites en sorte de bien appuyer au milieu de la gorge" peuvent être acceptées par Facebook. L'explication ? Ces propos génériques sont jugés peu crédibles. Au contraire, "que quelqu'un tire sur Trump" sera directement supprimé car il appartient à la catégorie des personnes protégées, en tant que chef d'Etat.
  • Suicides : la diffusion de suicides en direct s'est multipliée sur le réseau social avec l'apparition en 2016 de Facebook Live, une fonction qui permet de publier en temps réel des vidéos sur le réseau social. Dans son guide, l'entreprise de Mark Zuckerberg explique ne pas supprimer ses vidéos afin de "ne veut pas censurer ou punir des personnes en détresse qui tentent de se suicider". En revanche, la scène sera supprimée de la plateforme "une fois qu'il n'y aura plus de possibilité d'aider la personne"... à moins que Facebook estime que la vidéo a une valeur informative.
  • Violence infantile : Facebook autorise la publication de "preuves" de violence sur des enfants. Le réseau social dit ainsi vouloir participer à "l'identification et l'aide de l'enfant". Mais ces publications seront supprimées si elles sont accompagnées de commentaires "sadiques" ou de "célébration".

Des exemples "hypothétiques" et "extrêmes"

"Parfois, nos règles peuvent paraître contre-intuitives", a reconnu Monika Bickert, directrice de la politique de gestion des contenus de Facebook, dans une tribune publiée lundi par le Guardian. Et de se défendre : "Les situations hypothétiques que nous utilisons pour former nos modérateurs sont intentionnellement extrêmes. Elles sont conçues pour aider les personnes qui font ce travail à gérer les cas les plus difficiles."

Le problème épineux de la modération renvoie au statut même de Facebook, qui a dépassé la simple définition de réseau social. Le mois dernier, l'entreprise a annoncé vouloir recruter 3.000 modérateurs pour compléter l'équipe de 4.500 salariés déjà en poste. Fin décembre 2016, le fondateur affirmait : "Facebook est un nouveau genre de plateforme. Ce n'est pas une entreprise technologique traditionnelle. Ce n'est pas un média traditionnel." Et de conclure : "On a construit une technologie et on se sent responsable de la façon dont elle est utilisée."

>> Lire aussi Pour Mark Zuckerberg, Facebook est désormais plus qu'un réseau social

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 24/05/2017 à 10:10 :
C'est idiot mais particulièrement représentatif de la mentalité de ces milliardaires illuminés du net qui sont persuadés de détenir la vérité, redescendez de votre nuage svp vous faites flipper.

Le mieux est de laisser les modérateurs libres de leurs choix et de contrôler régulièrement le résultat. Je suis sûr que de laisser du libre arbitre aux gens sera plus efficace que de leur tenir des discours aussi subjectifs.

Par contre bien faire attention en recrutant ces modérateurs qu'ils ne viennent pas de l'extrême droite par exemple, ni d'une quelconque communauté de pensée que ce soit, dire aux modérateurs ce qu'ils doivent faire c'est de la fabrique à opinion c'est être persuadé d'avoir raison.

Le contact social est bien trop important pour le laisser entre les mains d'investisseurs privés dont l'unique but est de faire du blé.

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :