Les enjeux économiques de la haine en ligne pour les entreprises

Haine en ligne, cyberharcèlement sont à la Une régulièrement et ont des conséquences délétères sur la santé globale (physique et mentale) individuelle comme collective. Ces phénomènes affectent aussi bien les particuliers que les entreprises. Outre les conséquences immédiates et parfois gravissimes, les impacts sont nombreux et protéiformes. Comment les entreprises doivent aborder cette problématique ? Quels sont les impacts de la modération ou de son absence ? Comment la technologie peut-elle contribuer à enrayer ce fléau ?
(Crédits : DR)

La protection des utilisateurs : une responsabilité pour l'entreprise

Pour l'entreprise, assurer la protection en ligne de ses utilisateurs, communautés, équipes, employés et dirigeants, répond à un aspect majeur de la responsabilité sociale de l'entreprise (RSE).

La Trust and Safety regroupe des pratiques dont le but est de réduire le risque d'exposition d'utilisateurs à des contenus préjudiciables et abusifs, à la fraude ou tout autre comportement nocif.

Confiance et sécurité sont centrales dans l'optique de protéger et de faire croître une communauté. La confiance est capitale pour permettre aux utilisateurs de s'exprimer librement. Les personnes victimes de harcèlement ou exposées à des contenus toxiques sont susceptibles de développer des émotions négatives qui vont les éloigner.

La sécurité quant à elle est essentielle afin d'éviter tout contenu illégal sur des plateformes et prévenir tout comportement dangereux au sein de la communauté.

La modération : un besoin devenu essentiel pour les entreprises

Ce besoin de modération est à mettre en relation avec une montée exponentielle des interactions en ligne accompagnée d'une hausse de leur toxicité.

La pandémie de COVID-19 a accéléré et renforcé la digitalisation, une majorité de nos interactions physiques se sont transposées en ligne. Le contexte sanitario-économique tout aussi incertain que préoccupant a généré une frustration importante chez certains. L'importante montée de la haine en ligne en est une illustration, avec une augmentation de 56 % des commentaires haineux durant le premier confinement.

Dès lors qu'une plateforme permet à ses utilisateurs de générer du contenu (commentaires sur un site web, évènement en live, réseau social, application ou forum) la modération est nécessaire.

L'impact économique de la modération (ou de son absence)

Toute entreprise a intérêt à attirer plus d'utilisateurs, augmenter le temps passé sur ses plateformes et disposer d'une communauté engagée.

 Or, 80 % des visiteurs abandonnent une plateforme contenant des propos toxiques et haineux.

Avoir une communauté sûre et saine est le meilleur moyen d'augmenter la rétention et l'acquisition qui se traduit par une augmentation des revenus de l'entreprise et permet d'attirer plus de partenaires, sponsors ou clients publicitaires.

La modération des plateformes et des communautés peut apporter :

  • 100 % de sécurité pour la marque
  • Une augmentation de 60 % du temps passé sur les plateformes
  • 3 fois plus de visiteurs qui reviennent

Le marché des solutions de modération

Si historiquement la modération s'appuyait sur un travail manuel chronophage et coûteux, des technologies automatisées ont permis de l'optimiser. Néanmoins, toutes les technologies ne se valent pas.

En effet, celles reposant uniquement sur du Machine Learning ne permettent pas d'offrir une modération intelligente de par leur incapacité à comprendre le contexte, supprimant un contenu dès qu'un mot défini comme problématique apparaît dans une phrase (ainsi "il m'a dit que j'étais un idiot" serait supprimé alors que ce n'est pas toxique).

Bodyguard, la solution de modération pour des communautés et plateformes protégées

Face à l'augmentation de la haine en ligne, Bodyguard a développé une technologie unique de modération performante qui protège les entreprises, leurs marques, leurs plateformes et leurs communautés.

Cette technologie détecte, analyse et modère les contenus toxiques en ligne. Elle protège notamment des insultes, du trolling, des propos racistes et homophobes, des menaces, du harcèlement moral ou sexuel et de la misogynie.

Cette solution détecte, analyse et traite les contenus haineux sur Twitter, YouTube, Instagram, Twitch et Facebook mais aussi sur des plateformes en ligne (site web, applications, forums, ...) via une API.

Elle permet :

  • Une compréhension du contexte et du langage internet,
  • Une modération en temps réel et évolutive,
  • Une personnalisation poussée adaptée à vos besoins,
  • Des données décisionnelles pour faire grandir votre communauté,
  • Un taux de détection des contenus haineux de 90 %.

Bodyguard est déjà un partenaire de confiance pour :

  • Les médias, en protégeant leurs réseaux sociaux, leurs plateformes ainsi que leurs journalistes.
  • Les clubs de football, en protégeant le club, les joueurs et les dirigeants.
  • Les plateformes sociales, en leur fournissant une solution tierce pour une modération experte.
  • Le gaming, en facilitant la communication entre les joueurs au service d'une expérience de jeu positive.

Dans un climat en ligne souvent chargé de contenus haineux et toxiques, il est essentiel de protéger votre entreprise. Pour en savoir plus sur la façon dont Bodyguard peut vous aider, visitez Bodyguard.ai.

Sujets les + lus

|

Sujets les + commentés

Commentaire 1
à écrit le 19/01/2022 à 16:58
Signaler
Non, une machine ne peut pas "comprendre". C'est évident. C'est logique. Il faut des humains derrière et ce sera encore le cas longtemps, même dans le métavers. Triste conception de la société sinon. Confieriez-vous la liberté d'expression à des m...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.