Intelligence artificielle : comment Google veut lutter contre les trolls

 |   |  546  mots
(Crédits : © Dado Ruvic / Reuters)
Le géant américain met en accès libre une nouvelle technologie basée sur l'intelligence artificielle. Son outil Perspective permet d'évaluer le "degré de toxicité" d'un commentaire afin d'améliorer la modération sur les sites.

Google veut avoir son mot à dire sur la modération des commentaires. L'entreprise américaine a présenté jeudi son nouvel outil, Perspective, par le biais de son incubateur Jigsaw. Il s'est donné pour objectif de pacifier les fils de commentaires sur Internet, notamment pour les médias, en détectant les commentaires injurieux.

"Les médias veulent encourager l'engagement et la discussion sur leurs contenus, mais ils trouvent que la modération de millions de commentaires pour repérer ceux qui sont abusifs prend beaucoup d'argent, de travail et de temps. Conséquence : de nombreux sites ont fermé les commentaires", regrette dans un post de sur Medium Jared Cohen, président de Jigsaw.

Une technique basée sur du "machine learning'"

Cet outil repose sur du "machine learning" (auto-apprentissage des machines en continu) - une technologie d'intelligence artificielle. Il évalue le "degré de toxicité" d'un commentaire, sur une échelle de 0 à 100, explique Jigsaw sur son site. L'organisation définit un commentaire nuisible comme "grossier, irrespectueux ou déraisonnable, qui risque de vous faire quitter une discussion". Ce programme est mis gratuitement à la disposition de tous les développeurs en open source.

Pour développer Perspective, la filiale de Google a analysé des millions de commentaires pour se constituer une base de données et repérer les problèmes récurrents. Une collaboration vient d'être instaurée avec The Guardian et The Economist. Jisaw a lancé un partenariat avec le New York Times dès septembre 2016, ainsi qu'avec Wikipedia. "Les commentaires du Times sont gérés par une équipe de 14 modérateurs, qui examinent approximativement 11.000 commentaires par jour", détaille le communiqué de presse de l'époque. Les équipes de Google ont noté la façon dont les commentaires haineux étaient traités par les modérateurs. Les messages étaient également soumis à un panel de dix personnes venant de milieux diverses, précise Wired, pour évaluer leur "degré de toxicité".

L'IA ne détecte pas le sarcasme cher aux trolls

"Ce qui est fait avec ce chiffre [de toxicité] est l'affaire des éditeurs", affirme au New York Magazine Jared Cohen, président de Jigsaw. Si elle définit l'échelle de "toxicité", l'organisation dit laisser la main aux sites pour la modération. Plusieurs options sont avancées comme celle de transmettre à des modérateurs humains les commentaires étiquetés injurieux ou demander aux internautes de classer les commentaires selon leur "toxicité". Enfin, l'outil pourrait envoyer un avertissement à l'internaute avant même que ce dernier publie son commentaire. Si cette possibilité peut paraître peu dissuasive, Jared Cohen cite à BBC des études affirmant que de nombreux commentaires haineux sont postés par des gens ayant eu une mauvaise journée. Ces derniers se lâchent alors en ligne.

Ce programme présente des failles, reconnaît auprès de Reuters Jared Cohen, président de Jigsaw. Par exemple, il n'est pas en mesure de détecter le sarcasme cher aux trolls. Selon Jared Cohen, l'outil s'améliorera au cours de son utilisation - les nouveaux commentaires analysés rejoignant la base de données, la précision de l'outil devrait s'affiner. Perspective est uniquement disponible en anglais, mais l'outil devrait se développer dans d'autres langues prochainement.

| LIRE AUSSI : Twitter accentue sa lutte anti-trolls

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 25/02/2017 à 15:39 :
il s'agit d'une excuse pour bloquer des infos qui genet les ceo de grosses multinationales
a écrit le 25/02/2017 à 0:50 :
J'imagine qu'avec cette nouvelle technologie ils auront la possibilité de supprimer les mauvais commentaires contre le/la candidate qu'ils auront décidé de faire élire tel que Clinton.
Cette technologie sera peut-être prête pour la prochaine élection U.S.
a écrit le 24/02/2017 à 17:07 :
On ne peut pas faire mieux qu'un humain en ce qui concerne la modération, jamais une machine ne pourra également la cacpité à manipuler le langage qu'un humain, s'il fauit qu'elle s'adapte ça va lui demander des années durant lesquelles elle se fera elle aussi abondamment escroquer.

Embauchez des salariés formés, au lieu de tout miser sur le binaire qui est aussi ridicule qu'inefficace.

Ça y est ils nous gavent déjà avec leur ia.

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :