Comment combattre l'extrémisme violent sur les réseaux sociaux ? En plus de la modération automatique et humaine, Facebook teste en ce moment une nouvelle fonctionnalité : l'alerte d'utilisateurs sur leurs propres amis, via un message envoyé par le réseau social aux utilisateurs, leur demandant s'ils pensent que leurs amis deviennent extrémistes. Aussitôt confirmée par un porte-parole de Facebook, cette nouvelle fonctionnalité en test a déclenché l'inquiétude des conservateurs américains.
Un "environnement orwellien" pour les conservateurs américains
Les captures des alertes partagées sur Twitter montrent des messages demandant aux utilisateurs s'ils craignent qu'une de leurs connaissances devienne extrémiste ou s'ils ont été eux-mêmes exposés à des contenus extrémistes.
Ils ont alors la possibilité de cliquer sur un lien pour "avoir de l'aide" ou de fermer le pop-up.
"Je suis très préoccupé par le fait que certains technocrates de gauche créent un environnement orwellien où les gens sont arbitrairement réduits au silence ou bannis pour avoir dit quelque chose que la 'police de la pensée', n'aime pas", s'est inquiété Nicholas Freitas, un Républicain de Virginie, qui a partagé une de ces alertes Facebook sur Twitter.
Réorienter des recherches liées à la haine et la violence vers la sensibilisation
Facebook et d'autres plateformes en ligne font l'objet de pressions pour mettre un terme à la diffusion de fausses informations qui peuvent conduire à des violences. Le réseau social a récemment renforcé ses outils automatiques pour aider les modérateurs des groupes qui s'efforcent de maintenir la civilité des échanges.
Selon Facebook, les fonctions de "Redirect Initiative" visent à orienter les personnes utilisant des termes de recherche liés à la haine ou à la violence vers des ressources ou groupes d'éducation ou de sensibilisation.
Ainsi, selon Facebook, les recherches en lien avec la suprématie blanche aux Etats-Unis sont dirigées vers le groupe Life After Hate qui s'est donné pour but d'aider les gens à quitter les groupes d'extrême droite, en particulier suprémacistes.
Facebook commence à prendre ses responsabilités
Les outils automatiques de Facebook vérifient les publications dans les groupes et fils d'actualités qui violent les règles de la plateforme en matière de contenu acceptable. Mais le réseau social est accusé de ne pas lutter assez efficacement contre la haine et la violence en ligne, ainsi que contre les fake news.
Début juin, Mark Zuckerberg a frappé un grand coup en décidant l'exclusion de Donald Trump pour deux ans, pour cause de violation de ses conditions d'utilisation. Pendant des mois, l'ancien président coutumier des fake news avait contesté la légitimité de l'élection présidentielle perdue de novembre 2020, jusqu'à soutenir l'invasion du Capitole par ses partisans, en janvier dernier, avec au moins quatre morts à la clé lors de cette insurrection historique.
Surtout, la firme californienne a décidé d'en finir une bonne fois pour toutes avec le traitement de faveur dont bénéficiaient les politiques jusqu'à présent. Le réseau social considérait que la parole d'une personnalité publique, même si elle ne respectait pas les conditions d'utilisation notamment sur les propos haineux et la désinformation, devait rester visible car relevant de l'intérêt général. Ce qui donnait, à cause de la viralité des réseaux sociaux, un amplificateur inédit pour la haine et les fake news propagées par des politiques. Ce ne sera désormais plus possible, et c'est un vrai et salutaire changement : dorénavant, les personnalités publiques qui enfreignent les règles du réseau social pourront subir le même sort -blocage du compte voire exclusion de l'utilisateur- qu'un internaute classique.
Facebook était écartelé entre souci de respecter la liberté d'expression et nécessité morale et économique d'assainir les échanges entre ses 2,85 milliards d'utilisateurs mensuels. Sous pression de l'opinion publique et des régulateurs aux Etats-Unis comme en Europe avec le Digital Services Act, il a finalement décidé de se ranger du côté de la loi -la haine n'est pas une opinion- et de la modération indispensable des contenus.
(Avec AFP)
Sujets les + commentés