Digital Services Act (1/2) : comment l'Europe s'attaque à la haine en ligne et à la désinformation

La Commission européenne doit présenter le 9 décembre le "Digital Services Act", un "package" de deux grands règlements visant à moderniser la régulation d'Internet. Le premier volet de ce texte se concentre sur l'encadrement des plateformes et des réseaux sociaux, pour mieux lutter contre la haine en ligne et la désinformation. L'Union européenne ne devrait pas toucher au statut d'hébergeur de ces plateformes, mais mise sur des obligations inédites de transparence des algorithmes et de coopération avec les régulateurs. Décryptage.
Anaïs Cherif
Margrethe Vestager, vice-présidente de la Commission européenne en charge du numérique et de la concurrence, le 7 octobre 2020.
Margrethe Vestager, vice-présidente de la Commission européenne en charge du numérique et de la concurrence, le 7 octobre 2020. (Crédits : Reuters)

Big bang législatif en vue à Bruxelles. Depuis des mois, l'Union européenne prépare le Digital Services Act, ou "loi sur les services numériques", dont le contenu sera dévoilé le 9 décembre. Dans la lignée du RGPD, qui a changé la donne en ce qui concerne la protection des données personnelles, ce nouveau règlement majeur a la lourde mission de s'attaquer de front aux défis posés par les géants d'Internet, à commencer par les fameux Gafa (Google, Apple, Facebook, Amazon). Haine en ligne, désinformation sur les réseaux sociaux, domination écrasante sur des pans entiers de l'économie numérique...

"Les nouveaux usages créés par les géants du Net ont profondément changé la société et l'économie. Ces entreprises sont devenues si puissantes que la régulation du XXè siècle n'est plus adaptée pour encadrer les énormes défis sociétaux, économiques et démocratiques qu'elles posent", expliquait en octobre Cédric O, le secrétaire d'Etat à la Transition numérique et aux communications électroniques.

Le Digital Services Act devra donc poser les nouvelles règles du jeu dans le monde numérique. Il s'agit en fait d'un "package" composé de deux grands textes. Le premier va définir la responsabilité des grandes plateformes au sujet notamment des fléaux que sont la haine en ligne et la désinformation sur les réseaux sociaux. Le deuxième texte va dépoussiérer le droit de la concurrence, qui n'a pas réussi jusqu'à présent à empêcher les Gafa de se constituer des empires qui ne cessent de s'étendre. Avec ces deux volets, le Digital Services Act va ainsi mettre à jour la directive e-commerce, en vigueur depuis 2000... Une époque où Google, Amazon et Microsoft étaient encore à leurs balbutiements, quand Facebook, YouTube, Twitter, Snapchat et autres réseaux sociaux n'étaient même pas encore nés.

Si le détail des deux textes sera uniquement connu le 9 décembre, Thierry Breton, commissaire européen au marché intérieur, et Margrethe Vestager, vice-présidente de la Commission européenne en charge du numérique et de la concurrence, ont déjà dévoilé les pistes envisagées au cours des derniers mois.

Voici les enjeux du premier texte, qui adresse les problématiques de la haine en ligne et de la désinformation.

  • Modération : pourquoi la législation actuelle est désuète

La modération consiste pour les plateformes à supprimer ou réduire la visibilité des contenus dits "haineux". Cela renvoie, de manière générale, à tous les propos et actes interdits par la loi : insultes et menaces, apologies du terrorisme, pédopornographie, vente de produits illégaux (drogues, contrefaçons...) Au sein de l'Union européenne, la modération des contenus publiés sur Internet est actuellement encadrée par la directive e-commerce, adoptée en 2000.

"Cette directive distingue deux statuts : l'hébergeur et l'éditeur. En principe, l'hébergeur n'a pas connaissance des contenus publiés ou transitant via ses services - contrairement à un éditeur", détaille Laura Godfrin, avocate spécialiste du numérique au sein du cabinet De Gaulle Fleurance & Associés.

Actuellement, les réseaux sociaux et les plateformes sont donc considérés comme des hébergeurs. Deux régimes de responsabilités sont en vigueur. "Un éditeur est responsable de la totalité des contenus publiés sur son site, alors que les plateformes d'hébergement bénéficient d'un régime juridique aménagé", précise l'avocate. Si un contenu illicite est publié par un internaute sur le serveur d'une entreprise bénéficiant du statut d'hébergeur, alors sa responsabilité peut uniquement être engagée a posteriori si elle n'a pas agit "promptement" après avoir reçu un signalement d'un internaute.

Cette notion de rapidité est devenue de plus en plus délicate à interpréter au fil des ans au regard des millions de messages transitant quotidiennement sur les réseaux sociaux. Pour les réseaux sociaux, la modération s'apparente à un "véritable jeu d'équilibriste", selon Laura Godfrin. "Les plateformes doivent à la fois assurer la protection des internautes, en limitant les contenus illicites, mais aussi veiller à ne pas sur-bloquer les contenus pour éviter les accusations de censure et garantir la liberté d'expression."

  • L'échec de l'auto-régulation

Malgré l'ampleur des dérives constatées, l'exécutif européen a privilégié dans un premier temps l'auto-régulation des plateformes. Il avait lancé en mai 2016 le "code de bonne conduite". Ce texte, non contraignant, a été signé dans un premier temps par Facebook, Microsoft, Twitter et YouTube. Courant 2018, Instagram, Snapchat et Dailymotion ont rejoint les signataires, suivi du forum jeuxvideo.com (2019) et TikTok (2020).

Dans une évaluation du dispositif publiée en septembre, la Commission européenne énumère les lacunes de l'auto-régulation. Parmi elles, un énorme manque de transparence et de coopération, à la fois quant aux procédures et engagements des plateformes, mais aussi quant au partage des données pour permettre une "évaluation indépendante (...) des menaces posées par la désinformation en ligne", regrette la Commission.

"Les plateformes doivent être plus responsables et tenues de rendre des comptes. Elles doivent devenir plus transparentes, estimait alors dans un communiqué de presse Vera Jourova, chargée des valeurs et de la transparence au sein de la Commission. Il est temps d'aller au-delà des mesures d'auto-régulation."

  • Transparence et coopération, maîtres-mots du "Digital Services Act"

Cette nouvelle législation doit donc instaurer de nouvelles obligations pour les plateformes afin de lutter contre la prolifération des contenus haineux, mais aussi de la désinformation.

Un large volet devrait être consacré à la transparence des algorithmes pour la recommandation et la viralité des contenus. Car au-delà de la publication d'un contenu haineux, le problème est qu'il se répand généralement en quelques heures, voire en quelques minutes, comme une traînée de poudre sur Internet.

Les plateformes devront donc "dire aux utilisateurs comment leurs systèmes de recommandation décident du contenu à montrer", ce qui leur permettra "de juger" s'ils doivent "faire confiance à la vision du monde qu'elles donnent", avait affirmé fin octobre Margrethe Vestager lors d'un discours devant l'organisation AlgorithmWatch.

Cette obligation de transparence devra aussi les contraindre à "fournir plus d'informations sur le fonctionnement de leurs algorithmes lorsque les régulateurs le demandent". Les plateformes devront aussi communiquer "des rapports réguliers sur le contenu des outils de modération qu'elles utilisent".

Nouveauté : la législation devrait s'intéresser aux publicités ciblées, le cœur-même du business model des réseaux sociaux. C'est pourquoi les plateformes devront fournir "de meilleures informations sur les publicités que nous voyons" afin d'avoir "une meilleure idée de qui essaie de nous influencer". Par exemple, l'élection présidentielle américaine de 2016 avait mis en lumière les pratiques controversées de Facebook et Twitter, qui permettaient à l'époque la diffusion sans contrôle de publicités à portée politique à l'approche du scrutin.

Une coopération accrue avec les régulateurs devrait être prévue par le "Digital Services Act". Par exemple, en cas de publication de contenus illicites, une plateforme se devra de "connaître l'identité de l'auteur dès lors qu'un certain seuil d'audience (qui reste à déterminer) est franchi. Elle doit aussi pouvoir le situer, si nécessaire", affirmait Thierry Breton, dans une interview accordée au Monde courant octobre. Si une plateforme ne retire pas un contenu illicite signalé, alors elle encourra des sanctions financières, voire même, une interdiction d'accès au marché intérieur de l'Union européenne en cas de récidive, toujours selon Thierry Breton.

Enfin, une autorité devrait être désignée dans chaque pays de l'Union européenne pour "surveiller l'espace informationnel", évaluer les cas de conflit et appliquer les sanctions, déclarait Thierry Breton auprès du Monde. Pour la France, le Conseil supérieur de l'audiovisuel, la Commission nationale de l'informatique et des libertés ou la Répression des fraudes ont notamment été évoquées.

Anaïs Cherif

Sujets les + lus

|

Sujets les + commentés

Commentaires 16
à écrit le 02/12/2020 à 16:47
Signaler
Et qui va juger ce qui relève de la désinformation et des fausses nouvelles? N'est-il pas préférable de laisser circuler tout et n'importe quoi de façon à ce que le citoyen devienne plus vigilant et apprenne à ne pas croire n'importe qui et n'importe...

à écrit le 02/12/2020 à 13:43
Signaler
Et que compte faire l'Europe contre les outils de désinformation utilisés par la presse ? Nous sommes abreuvés à longueur de journée d'informations tronqués ou biaisés. Les anti-complotistes se comportent eux-même comme des complotistes. Lequel à com...

à écrit le 02/12/2020 à 1:35
Signaler
Et quel organisme corrigera la désinformation gouvernementale et avec quelles sanctions ???...Le nuage de Tchernobyl; masques inutiles ou dangereux; pas 15% de fraudes sociales soit 45 à 50 milliards € /an officiellement, Les plus importants milliar...

à écrit le 01/12/2020 à 21:24
Signaler
En voilà une belle excuse pour supprimer la liberté d'expression, et supprimer tout débat et toute opposition ! Et tout ça pour notre bien, naturellement ...😁

à écrit le 01/12/2020 à 15:40
Signaler
Comment FB, Twitter et autres peuvent-ils contrôler les écrits qui se chiffrent par des centaines de milliers par jour. Sont-ils vraiment responsables des possibles insanités écrites ? A mon humble avis, ce sont ceux qui écrivent qui sont les fautifs...

le 02/12/2020 à 3:30
Signaler
Les médias sociaux n'ont aucune obligation de publier des propos litigieux au regard de la loi pas plus que les journaux papiers d'ailleurs. Le problème des médias numériques c'est qu'ils ont joué la carte du misérabilisme pour gagner en part de m...

à écrit le 01/12/2020 à 14:07
Signaler
Très bien ! Il ne reste plus à l'UE que de prier la presse mainstream d'UE et surtout de France d'arrêter de colporter des fakes news à la pelle concernant la prétendue élection de M. Biden à la présidence des USA. De même de faire preuve d'honnêtet...

à écrit le 01/12/2020 à 13:06
Signaler
wow le titre laisse reveur! faut commencer par definir ce qu'est la haine en ligne....tout le monde a bien vu quel etait l'objectif de ' la lutte contre la haine en ligne en france'; y a eu un article dans le point la dessus ( j'ai plus le numero, ...

à écrit le 01/12/2020 à 10:49
Signaler
On peut espérer qu'ensuite que ce comité Théodule s'attaquera a cette bouillie intellectuelle qu'est le politiquement correct. Abrutissante technique de communication qui rend indigeste toutes les informations stéréotypées et répétées en boucle à l...

à écrit le 01/12/2020 à 10:10
Signaler
On a compris, tout ce qui n'ira pas dans le sens voulu par l'Union européenne sera considéré comme de la désinformation. Ils ne vont pas se gêner.

à écrit le 01/12/2020 à 9:31
Signaler
La particularité c'est que c'est toujours les médias qui sont en cause et que la vérité comme le mensonge y circule allègrement! Faire la part des choses c'est "éteindre" le médium!

à écrit le 01/12/2020 à 8:26
Signaler
C'est bizarre comme nos politiciens voient des problèmes là où le peuple français et européen n'en voit pas, tandis que les problèmes que nous subissons de plein fouet, la crise, le chomage, la baisse des salaires, le logement hors de prix et-c... be...

le 01/12/2020 à 9:46
Signaler
un bon politicien maitrise bien des paroles mensongères ! mais les électeurs ne sont pas dupes .. ils viennent d instaurer la taxe covid sur nos mutuelles de 2.60% §

le 01/12/2020 à 9:56
Signaler
Merci pour l'info mais bon la vache ça n'en finira donc jamais... -_-

le 01/12/2020 à 10:13
Signaler
" mais les électeurs ne sont pas dupes " Heu... ce sont les élections qui nous ont mené à la situation actuelle hein et rien d'autre, merci. Les souris votent pour les chats. ET si je peux pas et-c...

à écrit le 01/12/2020 à 8:09
Signaler
L'europe et ses lois a la noix.

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.