YouTube, Twitter, TikTok, Facebook : et si le vrai problème était moins leur statut d'hébergeur que leur modèle économique ?

D'ici à fin juin, la Cour suprême américaine devra se prononcer sur l'abrogation de la « section 230 », la loi qui garantit aux plateformes en ligne -réseaux sociaux comme YouTube Facebook et Twitter, sites de e-commerce, moteurs de recherche...- le statut d'hébergeur, qui établit qu'elles ne sont pas responsables devant la loi des contenus qu'elles hébergent. Mais les plaintes font surtout ressortir l'incapacité et le manque de volonté des plateformes pour modérer efficacement les contenus illicites, alors qu'il s'agit de la contrepartie de leur immunité. Pour régler le problème, faut-il changer leur statut ou attaquer la raison de leur inaction, c'est-à-dire leur modèle économique ?
Sylvain Rolland
(Crédits : DR)

La justice américaine est-elle sur le point de bouleverser les fondamentaux d'Internet en place depuis près de 30 ans ? C'est tout l'enjeu de deux décisions attendues d'ici au 30 juin par la Cour suprême des Etats-Unis. La première affaire, Gonzalez contre Google, concerne une plainte déposée par les proches de Nohemi Gonzalez, une jeune Américaine tuée dans les attentats de novembre 2015 à Paris. Sa famille reproche à Google, maison-mère de YouTube, d'avoir soutenu la croissance du groupe terroriste Etat islamique (EI), en suggérant ses vidéos à certains usagers grâce à son algorithme de recommandation. L'audience a eu lieu mardi.

La deuxième affaire, Taamneh contre Twitter, se joue ce mercredi. Un proche d'une victime d'un attentat de l'Etat Islamique à Istanbul, en 2017, accuse Twitter, mais aussi Facebook et Google, d'avoir violé les lois antiterroristes en ayant permis, faute d'une modération efficace des contenus illicites, aux membres de l'Etat Islamique d'utiliser leurs outils pour leur propagande terroriste.

Dans les deux cas, le même enjeu : confirmer, ou casser, la « section 230 » du Communications Decency Act, adopté par le Congrès américain en 1996. Pilier d'Internet, cette législation donne aux plateformes le statut d'hébergeur et non pas d'éditeur, à la différence des médias. Autrement dit, grâce à la « section 230 », Google, Facebook, Twitter, TikTok et toutes les autres plateformes en ligne, ne sont pas pénalement responsables des contenus qu'elles hébergent... et donc de leurs conséquences comme l'explosion de la propagande terroriste et des fake news.

Lire aussiHaine en ligne, abus, transparence : Bruxelles tente d'imposer de nouvelles règles aux géants du Web

Pour les anti « section 230 », les algorithmes de recommandation ne sont pas neutres

Les neuf juges de la Cour suprême américaine doivent en fait trancher, d'ici au 30 juin, l'épineuse question de la neutralité, ou pas, des algorithmes. Les arguments des anti « section 230 » contestent la réalité du statut d'hébergeur pour les plateformes car ils estiment qu'un « vrai » hébergeur n'influe en rien sur les contenus. Or, les algorithmes de recommandation de YouTube, Facebook, TikTok ou Twitter, organisent le flux en fonction de ce qu'ils savent des centres d'intérêt d'une personne, pour lui proposer des contenus de manière personnalisée.

Pour eux, les algorithmes ne sont pas neutres : programmés par des humains et basés sur l'exploitation des données -parfois biaisées-, ils sont la version numérique d'une ligne éditoriale. Dans leur recours à la Cour Suprême, les avocats de la famille Gonzalez estiment donc que Google n'est pas un hébergeur puisque les algorithmes qu'il a créés ont « recommandé » les vidéos de l'EI. D'après eux, Google a réalisé via ses algorithmes une sélection volontaire de contenus -par ailleurs illégaux puisque la propagande terroriste est interdite par la loi- au détriment d'autres contenus, pour intéresser un certain public.

Pour les plateformes, la recommandation n'est que technique

Grâce à la section 230, les plateformes ont pu se développer sans l'épée de Damoclès de poursuites en cascade à cause des contenus qu'elles hébergent. C'est donc l'un des fondements d'Internet, une brique cruciale sur laquelle repose l'ensemble des réseaux sociaux mais aussi des plateformes e-commerce ou des moteurs de recherche.

C'est pourquoi Google, Facebook, Twitter et l'ensemble de l'industrie de la tech défendent bec et ongles le statut d'hébergeur. Pour Google, YouTube ne peut pas être considéré comme un éditeur car à la différence d'un média, il n'impose ni ne suit aucune ligne éditoriale : son seul but est de proposer du contenu pertinent à ses utilisateurs, en fonction de ce qu'il sait de leur préférences. Pour Lisa Blatt, l'avocate de Google mardi devant la Cour suprême, le terme « recommandation » est abusif et il n'y aucune corrélation entre les vidéos recommandées par YouTube et la violations des lois anti-terroristes. « Il y a 3,5 milliards de requêtes sur le moteur de recherche de Google tous les jours. Les réponses sont différentes pour chaque personne et pourraient toutes être considérées comme des recommandations », a asséné l'avocate, avant de déclarer : « Internet n'aurait jamais décollé si tout le monde pouvait intenter des procès tout le temps ».

L'argument semble avoir fait mouche chez certains juges. « Des centaines de millions, des milliards de réponses aux demandes de renseignements sur Internet sont faites chaque jour. Chaque réponse serait une possibilité de poursuite [en cas d'abrogation de la section 230] », a déclaré le juge en chef John Roberts. Pour Google comme pour Meta (la maison-mère de Facebook et Instagram), ou encore Microsoft, qui ont chacun joint un texte de soutien s'alignant sur les positions de Google, les algorithmes de recommandation existent simplement pour « trouver des aiguilles dans la plus grosse botte de foin du monde ». « Toute publication nécessite une organisation », a plaidé l'avocate de Google, réduisant donc la recommandation algorithmique à une simple fonctionnalité de tri automatique dans la masse des contenus.

La gauche et la droite attaquent la « section 230 »... pour des raisons différentes

Le fait que la « section 230 » soit attaquée par tous les bords politiques semble également jouer en faveur des plateformes. Ces dernières années, la gauche -et une partie des Républicains modérés- a reproché aux réseaux sociaux de s'abriter derrière cette immunité pour laisser des messages illégaux, racistes et complotistes proliférer sur la toile. De son côté, la droite radicale, outrée par le bannissement de Donald Trump de plusieurs plateformes, les accuse de censure dès qu'ils exercent leur droit à la modération.

Or, la modération est la contrepartie du statut d'hébergeur. Effectivement, l'objectif des parlementaires américains dans les années 1990 était de protéger le secteur, alors embryonnaire, d'incessantes poursuites judiciaires, pour lui permettre de s'épanouir. Mais en contrepartie de cette immunité, les plateformes ont la responsabilité de retirer les contenus « problématiques » ou « illicites ». Et c'est là où les choses se compliquent. Ceux-ci englobent évidemment tous les contenus manifestement illégaux -pédopornographie, propagande terroriste, appels à la haine et à l'insurrection...- mais les plateformes doivent aussi jongler avec tous les autres, qui tombent dans les zones grises de la liberté d'expression comme les fake news, le racisme, le sexisme, l'antisémitisme, le complotisme...

Il est donc extrêmement difficile pour les plateformes de caractériser les contenus illicites, et parfois même les contenus illégaux. C'est par exemple tout le problème avec les propos de Donald Trump sur Facebook et Twitter suite au déni de sa défaite à l'élection présidentielle de 2020. L'ancien président fait actuellement l'objet d'une enquête judiciaire qui doit déterminer s'il est responsable de l'attaque du Capitole, le 6 janvier 2021 -qui a causé six morts- en ayant appelé ses partisans à l'insurrection. Le rapport préliminaire sorti fin décembre établit la culpabilité de Donald Trump, mais face à la gravité de l'assaut du Capitole, les plateformes avaient été forcées de réagir dans l'urgence, sans pouvoir s'appuyer sur une décision de justice. Elles sont donc dans la position paradoxale d'hébergeurs pénalement irresponsables, mais qui doivent tout de même décider quels contenus enfreignent la loi et leurs conditions d'utilisation...

Lire aussiTwitter, Google, Facebook : comment le business des réseaux sociaux favorise la polémique dans le débat public

La Cour suprême mal à l'aise avec l'idée de casser la loi

Voilà les neuf juges de la Cour suprême dans de beaux draps. Si le Congrès n'a jamais réussi à réformer la « section 230 » par manque de consensus politique, est-ce le rôle de la Cour suprême de déterminer si Google et les autres plateformes sont des hébergeurs ou des éditeurs ? En acceptant de se saisir du dossier, alors qu'elle écarte l'immense majorité des requêtes qui lui sont soumises, la haute juridiction a laissé entendre qu'elle était prête à trancher cette question.

Mais lors de l'audience Gonzalez contre Google, certains juges ont douté de leur légitimité. « Nous sommes dans une situation délicate parce que ce texte a été écrit à une autre époque, quand Internet était complètement différent. Si jamais nous prenons le parti des plaignants, tout d'un coup, Google n'est plus protégé. Et peut-être que c'est ce que veut le Congrès, mais n'est-ce pas au Congrès d'en décider plutôt qu'à cette cour ? » a résumé la juge Elena Kagan. « Changer la jurisprudence pourrait faire s'effondrer l'économie numérique, avec toutes sortes de conséquences pour les travailleurs et les fonds de pensions etc », a, de son côté, noté le juge John Roberts, en référence à l'argumentaire joint au dossier de Google. Or, « vous n'avez pas ici les neuf plus grands experts d'Internet », a relevé Elena Kagan, suscitant le rire dans la salle.

L'indécision de la Cour suprême lors de l'audition de mardi laisse donc penser que la possibilité du statut quo est forte.

Lire aussiHaine en ligne: « la complicité » des réseaux sociaux selon l'ONU

Le vrai problème : la difficulté et le manque de volonté des plateformes pour modérer les contenus

D'autant plus que dans les deux affaires que la Cour suprême doit trancher, la défaillance des plateformes est claire : la propagande terroriste étant illégale, Google, Facebook ou encore Twitter ne doivent pas mettre en avant ces contenus. Des équipes de modération de milliers de personnes sont même chargées quotidiennement de supprimer les contenus terroristes ou pédopornographiques, mais l'énormité de la tache fait qu'elles se concentrent sur les contenus les plus explicites, ce qui permet à beaucoup de vidéos de propagande verbale de passer entre les mailles du filet.

Se posent alors deux questions. La première est celle des moyens, humains et technologiques, mis en place pour supprimer tous les contenus illégaux afin qu'ils ne soient pas pris en compte par les algorithmes de recommandation. L'Union européenne comme les régulateurs américains estiment que le compte n'y est pas du tout, et que les plateformes sont globalement inefficaces dans leur modération, à la fois car le sujet est très complexe et par manque évident de volonté.

L'autre sujet est donc la volonté même des plateformes de résoudre ce problème, qui s'étend aussi à tous les contenus problématiques comme la désinformation et la haine. On touche ici peut-être au cœur du problème : le modèle économique des réseaux sociaux. Celui-ci repose sur la publicité ciblée grâce à l'exploitation des données personnelles, récoltées grâce à l'engagement des utilisateurs avec les contenus. De nombreuses études ne cessent de démontrer que les contenus problématiques, notamment les fake news et les propos polémiques/racistes, déclenchent davantage de réactions et de partages, donc gonflent les revenus des Facebook, YouTube, TikTok et Twitter.

Plus dévastateur encore, les Facebook Files de septembre-octobre 2021 ont démontré que Facebook -2,9 milliards d'utilisateurs dans le monde, soit 60% de la population mondiale connectée à Internet- choisit délibérément de limiter au maximum sa modération des contenus pour ne pas pénaliser ses revenus. D'après les enquêtes du Wall Street Journal basées sur les milliers de documents et rapports internes de la lanceuse d'alerte Frances Haugen, Facebook fait le strict minimum pour réduire la haine en ligne et la désinformation alors qu'il disposerait des capacités techniques de faire beaucoup mieux.

Les Facebook Files révèlent ainsi que Facebook sait comment modifier ses algorithmes pour réduire drastiquement la visibilité des propres problématiques. D'ailleurs, il l'a déjà fait à certaines occasions, comme lors de l'élection présidentielle américaine de 2020 afin éviter une manipulation de l'élection comme en 2016. Mais il est revenu volontairement à un algorithme plus permissif :

« Ses recherches internes ont montré qu'un changement d'algorithme conduit les utilisateurs à passer moins de temps sur la plateforme, de moins interagir, et donc de moins cliquer sur des publicités, qui est le cœur de son modèle économique », dénonçait Frances Haugen.

Autrement dit, l'accès du public aux contenus illicites semble surtout être un problème de modèle économique des plateformes, davantage qu'un problème de statut juridique. Comme les plateformes vivent de l'engagement de leurs utilisateurs, la modération n'est pas une priorité. C'est en prenant en compte ce paramètre que l'Union européenne tente d'améliorer la modération des contenus en ligne avec son nouveau règlement, le Digital Services Act (DSA), voté l'an dernier. L'esprit de la loi est que ce qui est illégal hors ligne doit l'être aussi sur Internet. Le texte oblige les plateformes à mieux lutter contre les contenus illicites (propos racistes, images pédopornographiques, désinformation, vente de drogues ou de contrefaçons...) avec une série de mesures comme la mise en place d'un outil permettant de signaler facilement un contenu illicite avec une obligation de réponse rapide, ou encore l'obligation de proposer un système de recommandation de contenus non-fondé sur le profilage, ou encore de fournir leurs algorithmes aux régulateurs pour qu'ils puissent l'auditer.

Lire aussiPrix 10.000 startups 2021 : Bodyguard, l'IA qui débarrasse les réseaux sociaux de la haine

Sylvain Rolland

Sujets les + lus

|

Sujets les + commentés

Commentaires 3
à écrit le 23/02/2023 à 9:57
Signaler
Que tous ces réseaux soient payants ça réglera au moins les 3/4 des problèmes..

à écrit le 22/02/2023 à 18:02
Signaler
Et ce n'est que le début : bientôt il faudra que les plateformes paient pour utiliser les réseaux des opérateurs de télécom. Ce qui serait proprement scandaleux : et la neutralité du net, b... !

à écrit le 22/02/2023 à 16:58
Signaler
Rendre pénalement responsables les plates-formes pour la diffusion de contenus qui ont eu un effet nocif, negatif, désastreux est LA solution pour sauvegarder ce qui reste de démocratie.

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.