Pourquoi nous avons besoin d'un cadre mondial pour réglementer le préjudice en ligne

OPINION. La pandémie de la Covid a mis en évidence l'importance de la sécurité en ligne, car de nombreux aspects de notre vie comme le travail, l'éducation et les loisirs, sont devenus entièrement virtuels. Les décisions concernant le contenu que les gens peuvent créer, voir et partager en ligne ont eu (et continuent d'avoir) des implications importantes. Par Cathy Li et Farah Lalani (*)
(Crédits : Mal Langsdon)

Un nouveau rapport du Forum Économique Mondial, intitulé « Advancing Digital Safety : A Framework to Align Global Action », explore les questions fondamentales qui doivent maintenant être abordées : Comment évaluer la sécurité des plateformes numériques ?Quelle est la responsabilité des secteurs privé et public dans la gestion de la sécurité en ligne ? Comment mesurer les progrès réalisés par l'ensemble du secteur ?

Des obstacles subsistent pour sortir de la crise actuelle avec des sociétés plus sûres en ligne et hors ligne mais il est possible de mieux comprendre l'interaction entre les objectifs de respect de la vie privée, de liberté d'expression, d'innovation, de rentabilité, de responsabilité et de sécurité en analysant les trois domaines suivants :

Informations erronées sur la santé

L'un des principaux défis à la sécurité en ligne est la prolifération de la désinformation en matière de santé, notamment en ce qui concerne les vaccins. Des recherches ont montré qu'un petit nombre de personnes influentes sont responsables de la majeure partie du contenu anti-vaccination sur les réseaux sociaux. Jusqu'où les plateformes numériques doivent-elles aller dans la modération du contenu de leurs sites, y compris les récits anti-vaccination ? Si les entreprises privées ont le droit de modérer le contenu de leurs plates-formes conformément à leurs propres conditions et politiques, il existe une tension permanente entre trop peu et trop de contenu faisant l'objet d'une action de la part des plates-formes qui opèrent à l'échelle mondiale.

Exploitation des enfants

Avec un enfant sur trois exposés à des contenus sexuels en ligne, il s'agit du plus grand risque auquel les enfants sont confrontés lorsqu'ils utilisent le web. Un rapport d'Interpol a montré une augmentation de la consommation et de la distribution de matériel d'exploitation et d'abus sexuels d'enfants (CSEAM) sur le web pendant la pandémie.

Extrémisme violent et terrorisme

La pandémie a mis en évidence des clivages sociaux et politiques profondément ancrés qui ont atteint leur point de rupture en 2021. Aux États-Unis, l'insurrection du 6 janvier au Capitole a conduit à un examen plus approfondi de la manière dont des groupes comme QAnon ont pu s'organiser en ligne et a nécessité une meilleure compréhension de la relation entre les plateformes sociales et les activités extrémistes.

Indépendamment du fait que les décisions futures relatives aux contenus préjudiciables soient davantage déterminées par le secteur public ou privé, la concentration sous-jacente du pouvoir nécessite des contrôles et des équilibres pour garantir que les droits de l'homme sont respectés dans le processus et dans la promulgation de toute nouvelle législation

Qu'ont donc en commun ces problèmes apparemment disparates lorsqu'il s'agit d'aborder la sécurité numérique ? Ils mettent tous en évidence des déficiences dans le fonctionnement de l'écosystème actuel des médias numériques dans trois domaines clés :

  • 1. Des seuils insuffisants pour une protection significative

Les mesures actuellement communiquées par les plateformes, qui se concentrent principalement sur le nombre absolu de contenus supprimés, ne fournissent pas une mesure adéquate de la sécurité en fonction de l'expérience de l'utilisateur ; il n'est pas facile de disséquer les améliorations apportées à la détection ou à l'application des politiques de contenu, les changements apportés à ces politiques et aux catégories de contenu au fil du temps, ainsi que les augmentations réelles du contenu préjudiciable lui-même.

Même des mesures telles que la "prévalence", définie comme le nombre de vues de contenus préjudiciables par les utilisateurs (conformément aux politiques des plateformes) par rapport à l'ensemble des vues, ne reflètent pas la nuance importante selon laquelle certains groupes sont davantage ciblés sur les plateformes en fonction de leur sexe, de leur race, de leur origine ethnique et d'autres facteurs liés à leur identité (et sont donc plus exposés à ces contenus préjudiciables).

Les mesures qui vont au-delà de la réception du contenu (par exemple, la consommation) pour mettre en évidence le côté de l'offre de l'information pourraient être utiles ; des paramètres, tels que les 10 000 premiers groupes (sur la base des membres) par pays ou les 10 000 premières URL partagées avec le nombre d'impressions, pourraient faire la lumière sur comment, d'où et par qui le contenu préjudiciable est d'abord originaire

  • 2. Normes déficientes pour l'influence indue dans les systèmes de recommandation

La pandémie de la Covid a mis en évidence les problèmes liés aux recommandations automatisées. Un audit récent des algorithmes de recommandation d'Amazon montre que 10,47% de leurs résultats promeuvent des "produits de santé désinformateurs", qui sont également mieux classés que les résultats des produits qui réfutent ces affirmations ; les clics sur un produit désinformateur ont également tendance à fausser les résultats de recherche ultérieurs.

D'une manière générale, en ce qui concerne le contenu recommandé, on ne sait pas encore si et comment ce contenu est rendu financièrement plus attrayant par des mécanismes publicitaires, comment cela est lié à l'utilisation des informations personnelles et s'il existe un conflit d'intérêts en ce qui concerne la sécurité des utilisateurs.

  • 3. Des protocoles de plainte déficients entre les secteurs privé et public

Les décisions relatives à la suppression de contenu, à la suspension d'utilisateurs et à d'autres mesures correctives en ligne peuvent être controversées. Selon les personnes interrogées, elles vont parfois trop loin et parfois pas assez.

Lorsque des plaintes sont déposées en interne sur une plateforme, en particulier celles qui ont des répercussions en cascade, qu'est-ce qui constitue un processus de recours suffisant, en termes de temps nécessaire pour résoudre une plainte, d'exactitude de la décision en fonction des politiques énoncées, d'accessibilité des recours, et d'escalades/appels lorsque l'utilisateur n'est pas d'accord avec le résultat ?

À l'heure actuelle, il n'existe pas de normes de base pour les protocoles de traitement des plaintes, par le biais d'indicateurs clés de performance du secteur ou d'autres mécanismes permettant de mesurer l'efficacité et l'efficience, et il est donc impossible d'en évaluer l'adéquation

Nouveau cadre et voie à suivre

En collaboration avec plus de 50 experts issus de gouvernements, de la société civile, du monde universitaire et des entreprises, le Forum Économique Mondial a élaboré un cadre centré sur l'utilisateur, décrit dans ce nouveau rapport, qui prévoit des seuils de préjudice minimum, des systèmes de recommandation vérifiables, une utilisation appropriée des données personnelles et des protocoles de plainte adéquats afin de créer une base de sécurité pour l'utilisation des produits et services numériques.

Bien qu'il s'agisse d'un point de départ pour guider une meilleure gouvernance des décisions sur les plateformes numériques ayant un impact sur la sécurité des utilisateurs, une coordination plus délibérée entre les secteurs public et privé est nécessaire - aujourd'hui, le lancement de la nouvelle Coalition mondiale pour la sécurité numérique vise précisément à atteindre cet objectif. Pour en savoir plus sur la Coalition et les moyens de participer à ses travaux, cliquez ici

 ____

(*) Cathy Li est responsable des industries des médias, du divertissement et du sport au Forum Économique Mondial, et Farah Lalani est Manager, pour les industries des médias, du divertissement et de l'information, au Forum Économique Mondial.

Sujets les + lus

|

Sujets les + commentés

Commentaires 2
à écrit le 30/06/2021 à 9:46
Signaler
On ne peut pas attacher les lacets des adultes sans arrêt à un moment il faut d'abord et avant tout massivement bien les informer et ensuite qu'ils fassent ce qu'ils veulent comme ils veulent, s'ils sont incapables de se séparer de leurs habitudes de...

à écrit le 29/06/2021 à 9:27
Signaler
oui, quand on fait de la propagande, on est contre la propagande des autres, donc il faut reglementer, vu que ca ne passe plus par l'unqiue journal televise et l'unique journal papier.......... he oui, internet, c'est des protocoles non securises ou ...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.