Modération : pourquoi Facebook veut créer une "cour d'appel indépendante"

 |   |  896  mots
Facebook, le plus grand réseau social au monde, a annoncé jeudi vouloir créer une cour d'appel indépendante pour la modération de ses contenus haineux.
Facebook, le plus grand réseau social au monde, a annoncé jeudi vouloir créer une "cour d'appel indépendante" pour la modération de ses contenus haineux. (Crédits : Dado Ruvic)
Mark Zuckerberg, patron de Facebook, a annoncé jeudi la création d'une "cour d'appel indépendante" d'ici fin 2019. Son rôle : permettre aux utilisateurs du réseau social de contester la suppression d'un contenu jugé litigieux. La plateforme assure avoir amélioré la détection automatique des contenus haineux, violents et terroristes. Mais des efforts restent à faire pour les cas de harcèlements et d'intimidations.

Trop lente, trop arbitraire, inefficace... Facebook tente de trouver une porte de sortie face aux critiques nombreuses et régulières sur sa modération. Le plus grand réseau social au monde, utilisé par 2,27 milliards d'utilisateurs, a annoncé jeudi vouloir créer une "cour d'appel indépendante". Le but : lorsqu'un contenu litigieux sera supprimé du réseau social, il sera désormais possible pour les utilisateurs de "faire appel" de cette décision devant l'entité indépendante.

"Je suis arrivé à la conclusion que nous ne devrions pas chez Facebook prendre tout seuls autant de décisions importantes sur le thème de la liberté d'expression et de la sécurité", a expliqué dans une note de blog Mark Zuckerberg, Pdg de Facebook.

La modération est une question cruciale pour une plateforme telle que Facebook. Le réseau social refuse depuis toujours de se considérer comme un éditeur et préfère opter pour le statut de simple hébergeur afin de diminuer sa responsabilité quant aux contenus qui transitent sur sa plateforme. Pour autant, le réseau social fait face à un dilemme : s'il laisse les contenus haineux circuler à tout-va, il prend le risque de perdre des utilisateurs, lassés d'être exposé à des contenus haineux, terroristes, etc. Si la plateforme supprime trop de publications, elle s'expose à des accusations de censure. Cela avait notamment été le cas en 2011 avec un précédent emblématique : Facebook avait censuré pour nudité une reproduction du tableau de L'Origine du monde, de Gustave Courbet, qui représente un sexe féminin.

| Lire aussi : Suicides, menaces... Facebook admet des règles "contre-intuitives" pour sa modération

Eviter de prendre "trop de décisions"

"Je crois que l'indépendance est importante pour plusieurs raisons. Premièrement, cela évitera la concentration de trop de décisions au sein de nos équipes", a détaillé Mark Zuckerberg, soulignant indirectement le transfert de responsabilité vers une entité "indépendante". "Deuxièmement, cela créera une responsabilité et une surveillance. Troisièmement, cela garantira que ces décisions seront prises dans le meilleur intérêt de notre communauté et non pour des raisons commerciales."

Cette cour d'appel devrait voir le jour d'ici la fin de l'année 2019. Sa composition, son degré d'indépendance, "tout en respectant les principes qui guident" Facebook, seront à déterminer dans les prochains mois, selon le patron du réseau social. L'entreprise a profité de cette annonce pour faire le point sur les moyens humains et techniques déployés pour lutter contre la propagation de contenus haineux. "Nous avons fait des progrès pour effacer la haine, le harcèlement et le terrorisme de notre réseau", s'est félicité Mark Zuckerberg, mais il "nous faut trouver l'équilibre entre donner aux gens un porte-voix et assurer qu'ils sont en sécurité".

Améliorer la détection automatique

L'entreprise dit notamment s'améliorer dans la détection automatique de contenus litigieux, avant même qu'un signalement soit réalisé par un utilisateur. Et ce grâce à des "investissements annuels de plusieurs milliards de dollars", pour développer une intelligence artificielle en charge d'une modération automatisée, a souligné Mark Zuckerberg. Certains domaines en particulier ont bénéficié de ce perfectionnement. La détection automatique des discours haineux est passée de 24% fin 2017 à 52% au troisième trimestre 2018. Celle des contenus violents a augmenté de 72% à 97%. Ainsi, "nous avons pris des actions contre 15,4 millions de contenus violents au troisième trimestre 2018 (...) C'est 10 fois plus que ce que nous faisions fin 2017", mesure Facebook.

Enfin, "99% des contenus terroristes sont désormais supprimés grâce à nos systèmes avant que quiconque ne nous le signale sur notre service", précise Zuckerberg, ajoutant qu'une équipe de plus de 200 personnes travaillent spécifiquement sur la lutte contre le terrorisme. Ce taux particulièrement élevé s'explique par une détection automatique jugée facile de certains type de contenus. Par exemple, les images de propagande terroristes peuvent être comparées à une base de données composée d'images similaires et donc, permettre leurs suppressions automatiques. Ce qui n'est pas le cas des contenus visant à intimider ou harceler.

Harcèlement et intimidation, des cas complexes

"L'intimidation et le harcèlement ont tendance à être personnels et liés à un contexte spécifique. Dans de nombreux cas, nous avons donc besoin d'une personne qui nous signale ce comportement avant de pouvoir l'identifier ou de le supprimer", explique Facebook dans une note de blog.

En la matière, 2,1 millions de contenus liés au harcèlement et aux brimades ont été repérés entre avril et septembre 2018. A partir de l'année prochaine, Facebook compte publier tous les trois mois un rapport sur les contenus qui ont été écartés du site. Un rythme équivalent à celui de la publication des résultats financiers et un moyen de montrer que l'entreprise prend le sujet au sérieux.

Cette annonce est intervenue alors que Facebook est touché par une nouvelle polémique. Le New York Times a publié mercredi un article selon lequel la directrice adjointe Sheryl Sandberg et Mark Zuckerberg ont ignoré les signes que Facebook pourrait être "utilisé pour entraver des élections (...) et inspirer des campagnes haineuses et meurtrières autour du globe". Quand ces signes se sont vérifiés, ajoutait le journal, les dirigeants du réseau social ont cherché à dissimuler cela au public.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 17/11/2018 à 21:56 :
"Facebook veut créer une Cour d'appel indépendante" Indépendante de quoi? Quand on nous dit que les GAFAM veulent remplacer les États, ce serait donc vrai?
a écrit le 16/11/2018 à 19:15 :
Je pense que le groupe a été fragilisé par les scandales et le groupe préféré délégué à un tribunal indépendant
Je pense que c’est une mauvaise décision qui vient de la peur... de...
Je pense que Facebook devrait recruter un équipe de choc pour la modération, des gens qui ont intégré tous les concepts de respect envers eux même et les autres et surtout bannir la politique et la religion
Après tout ira bien .
Après c’est important l’expression libre ça permet d’aider ou de repérer .
a écrit le 16/11/2018 à 17:59 :
Depuis 1 an environ je n'utilise plus Facebook (que j'utilisais assez peu d'ailleurs, je n'avais pas trop confiance). J'ai supprimé mon compte et finalement je ne m'en trouve pas plus mal.
a écrit le 16/11/2018 à 16:06 :
Belle hypocrisie justice" indépendante " mais rendu par des juges sous influence (surtout américaine ) et payés par qui?! Il ne faut pa oublier que ces instances juridiques internationales sont une des marque du libéralisme avec une absence de contrôle totale des citoyens

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :