
Big bang législatif en vue à Bruxelles. Depuis des mois, l'Union européenne prépare le Digital Services Act, ou "loi sur les services numériques", dont le contenu sera dévoilé le 9 décembre. Dans la lignée du RGPD, qui a changé la donne en ce qui concerne la protection des données personnelles, ce nouveau règlement majeur a la lourde mission de s'attaquer de front aux défis posés par les géants d'Internet, à commencer par les fameux Gafa (Google, Apple, Facebook, Amazon). Haine en ligne, désinformation sur les réseaux sociaux, domination écrasante sur des pans entiers de l'économie numérique...
"Les nouveaux usages créés par les géants du Net ont profondément changé la société et l'économie. Ces entreprises sont devenues si puissantes que la régulation du XXè siècle n'est plus adaptée pour encadrer les énormes défis sociétaux, économiques et démocratiques qu'elles posent", expliquait en octobre Cédric O, le secrétaire d'Etat à la Transition numérique et aux communications électroniques.
Le Digital Services Act devra donc poser les nouvelles règles du jeu dans le monde numérique. Il s'agit en fait d'un "package" composé de deux grands textes. Le premier va définir la responsabilité des grandes plateformes au sujet notamment des fléaux que sont la haine en ligne et la désinformation sur les réseaux sociaux. Le deuxième texte va dépoussiérer le droit de la concurrence, qui n'a pas réussi jusqu'à présent à empêcher les Gafa de se constituer des empires qui ne cessent de s'étendre. Avec ces deux volets, le Digital Services Act va ainsi mettre à jour la directive e-commerce, en vigueur depuis 2000... Une époque où Google, Amazon et Microsoft étaient encore à leurs balbutiements, quand Facebook, YouTube, Twitter, Snapchat et autres réseaux sociaux n'étaient même pas encore nés.
Si le détail des deux textes sera uniquement connu le 9 décembre, Thierry Breton, commissaire européen au marché intérieur, et Margrethe Vestager, vice-présidente de la Commission européenne en charge du numérique et de la concurrence, ont déjà dévoilé les pistes envisagées au cours des derniers mois.
Voici les enjeux du premier texte, qui adresse les problématiques de la haine en ligne et de la désinformation.
-
Modération : pourquoi la législation actuelle est désuète
La modération consiste pour les plateformes à supprimer ou réduire la visibilité des contenus dits "haineux". Cela renvoie, de manière générale, à tous les propos et actes interdits par la loi : insultes et menaces, apologies du terrorisme, pédopornographie, vente de produits illégaux (drogues, contrefaçons...) Au sein de l'Union européenne, la modération des contenus publiés sur Internet est actuellement encadrée par la directive e-commerce, adoptée en 2000.
"Cette directive distingue deux statuts : l'hébergeur et l'éditeur. En principe, l'hébergeur n'a pas connaissance des contenus publiés ou transitant via ses services - contrairement à un éditeur", détaille Laura Godfrin, avocate spécialiste du numérique au sein du cabinet De Gaulle Fleurance & Associés.
Actuellement, les réseaux sociaux et les plateformes sont donc considérés comme des hébergeurs. Deux régimes de responsabilités sont en vigueur. "Un éditeur est responsable de la totalité des contenus publiés sur son site, alors que les plateformes d'hébergement bénéficient d'un régime juridique aménagé", précise l'avocate. Si un contenu illicite est publié par un internaute sur le serveur d'une entreprise bénéficiant du statut d'hébergeur, alors sa responsabilité peut uniquement être engagée a posteriori si elle n'a pas agit "promptement" après avoir reçu un signalement d'un internaute.
Cette notion de rapidité est devenue de plus en plus délicate à interpréter au fil des ans au regard des millions de messages transitant quotidiennement sur les réseaux sociaux. Pour les réseaux sociaux, la modération s'apparente à un "véritable jeu d'équilibriste", selon Laura Godfrin. "Les plateformes doivent à la fois assurer la protection des internautes, en limitant les contenus illicites, mais aussi veiller à ne pas sur-bloquer les contenus pour éviter les accusations de censure et garantir la liberté d'expression."
-
L'échec de l'auto-régulation
Malgré l'ampleur des dérives constatées, l'exécutif européen a privilégié dans un premier temps l'auto-régulation des plateformes. Il avait lancé en mai 2016 le "code de bonne conduite". Ce texte, non contraignant, a été signé dans un premier temps par Facebook, Microsoft, Twitter et YouTube. Courant 2018, Instagram, Snapchat et Dailymotion ont rejoint les signataires, suivi du forum jeuxvideo.com (2019) et TikTok (2020).
Dans une évaluation du dispositif publiée en septembre, la Commission européenne énumère les lacunes de l'auto-régulation. Parmi elles, un énorme manque de transparence et de coopération, à la fois quant aux procédures et engagements des plateformes, mais aussi quant au partage des données pour permettre une "évaluation indépendante (...) des menaces posées par la désinformation en ligne", regrette la Commission.
"Les plateformes doivent être plus responsables et tenues de rendre des comptes. Elles doivent devenir plus transparentes, estimait alors dans un communiqué de presse Vera Jourova, chargée des valeurs et de la transparence au sein de la Commission. Il est temps d'aller au-delà des mesures d'auto-régulation."
-
Transparence et coopération, maîtres-mots du "Digital Services Act"
Cette nouvelle législation doit donc instaurer de nouvelles obligations pour les plateformes afin de lutter contre la prolifération des contenus haineux, mais aussi de la désinformation.
Un large volet devrait être consacré à la transparence des algorithmes pour la recommandation et la viralité des contenus. Car au-delà de la publication d'un contenu haineux, le problème est qu'il se répand généralement en quelques heures, voire en quelques minutes, comme une traînée de poudre sur Internet.
Les plateformes devront donc "dire aux utilisateurs comment leurs systèmes de recommandation décident du contenu à montrer", ce qui leur permettra "de juger" s'ils doivent "faire confiance à la vision du monde qu'elles donnent", avait affirmé fin octobre Margrethe Vestager lors d'un discours devant l'organisation AlgorithmWatch.
Cette obligation de transparence devra aussi les contraindre à "fournir plus d'informations sur le fonctionnement de leurs algorithmes lorsque les régulateurs le demandent". Les plateformes devront aussi communiquer "des rapports réguliers sur le contenu des outils de modération qu'elles utilisent".
Nouveauté : la législation devrait s'intéresser aux publicités ciblées, le cœur-même du business model des réseaux sociaux. C'est pourquoi les plateformes devront fournir "de meilleures informations sur les publicités que nous voyons" afin d'avoir "une meilleure idée de qui essaie de nous influencer". Par exemple, l'élection présidentielle américaine de 2016 avait mis en lumière les pratiques controversées de Facebook et Twitter, qui permettaient à l'époque la diffusion sans contrôle de publicités à portée politique à l'approche du scrutin.
Une coopération accrue avec les régulateurs devrait être prévue par le "Digital Services Act". Par exemple, en cas de publication de contenus illicites, une plateforme se devra de "connaître l'identité de l'auteur dès lors qu'un certain seuil d'audience (qui reste à déterminer) est franchi. Elle doit aussi pouvoir le situer, si nécessaire", affirmait Thierry Breton, dans une interview accordée au Monde courant octobre. Si une plateforme ne retire pas un contenu illicite signalé, alors elle encourra des sanctions financières, voire même, une interdiction d'accès au marché intérieur de l'Union européenne en cas de récidive, toujours selon Thierry Breton.
Enfin, une autorité devrait être désignée dans chaque pays de l'Union européenne pour "surveiller l'espace informationnel", évaluer les cas de conflit et appliquer les sanctions, déclarait Thierry Breton auprès du Monde. Pour la France, le Conseil supérieur de l'audiovisuel, la Commission nationale de l'informatique et des libertés ou la Répression des fraudes ont notamment été évoquées.
Sujets les + commentés