Facebook mise sur l'intelligence artificielle pour détecter les messages suicidaires

 |   |  715  mots
La réseau social Facebook a déployé aux Etats-Unis en mars dernier un système d'intelligence artificielle.
La réseau social Facebook a déployé aux Etats-Unis en mars dernier un système d'intelligence artificielle. (Crédits : Dado Ruvic)
Après l'avoir testé aux Etats-Unis depuis mars dernier, Facebook s'apprête à généraliser son système d'intelligence artificielle permettant de détecter les intentions suicidaires. Cette technologie fonctionne aussi bien pour les commentaires, les publications que les vidéos diffusées en direct.

Détecter les appels au secours plus rapidement. Facebook a annoncé lundi le déploiement d'un système d'intelligence artificielle (IA) visant à identifier pour les aider plus rapidement les membres du réseau social en proie aux idées suicidaires. Ce programme, déployé en mars dernier aux Etats-Unis, aurait déjà permis d'entrer en contact avec des utilisateurs "à plus de 100 reprises", assure dans une note de blog publiée lundi Guy Rosen, vice-président de gestion des produits de Facebook. Concrètement, cette technologie cherche automatiquement des indices dans les messages - ainsi que les vidéos diffusées en direct sur Facebook Live - afin d'avertir plus rapidement le personnel de Facebook et les organisations d'aide spécialisée, assure le groupe américain.

"Cette approche utilise une technologie de reconnaissance de types de comportement pour aider à identifier les messages et les vidéos en direct qui expriment potentiellement des pensées suicidaires", résume Guy Rosen.

Ainsi, le système d'intelligence artificielle passera au crible les messages de membres mais aussi les réponses de leurs amis qui pourraient par exemple leur demander si tout va bien ou "qu'est-ce que je peux faire pour t'aider?", poursuit le vice-président de gestion des produits de Facebook.

Après l'avoir testé aux Etats-Unis, Facebook s'apprête donc à déployer massivement ce système d'intelligence artificielle. "Il finira par être disponible partout dans le monde, sauf dans l'UE", souligne Guy Rosen sans plus de précisions. Les données personnelles sont protégées dans l'Union européenne par une réglementation plus stricte qu'aux Etats-Unis.

Facebook

L'IA génère un tiers des signalements

Le réseau social aux 2,1 milliards d'utilisateurs dans le monde a déjà mis en place des outils permettant aux internautes de signaler si un ami semble vouloir mettre fin à ses jours. Mais l'intelligence artificielle permet de signaler plus rapidement ces informations, afin d'intervenir avant que ce ne soit trop tard. Une fois le signalement transmis à Facebook, le réseau social peut ensuite proposer un numéro d'assistance téléphonique voire contacter les autorités locales pour une demande d'intervention.

"De terribles événements tragiques - dont des suicides, certains diffusés en direct - auraient peut-être pu être évités si quelqu'un s'était rendu compte de ce qui se passait et en avait fait part plus tôt", avait déclaré le patron et co-fondateur de Facebook, Mark Zuckerberg, en février. Il avait alors confirmé son intention de développer "de meilleurs outils" pour détecter des contenus violents plus rapidement. Dans une longue lettre aux allures de manifeste publiée mi-février, le PDG de Facebook annonçait déjà que l'intelligence artificielle était vouée à jouer un rôle plus important dans la modération du réseau. "Elle génère déjà environ un tiers de tous les rapports envoyés" aux modérateurs, précisait Mark Zuckerberg.

Recrutement de 3.000 modérateurs en mai dernier

Facebook est régulièrement pointé du doigt pour la diffusion de contenus violents, allant de suicides en direct à l'apologie du terrorisme. En mai dernier, un jeune Thaïlandais a diffusé en direct, l'assassinat de son bébé de onze mois, suivi de son suicide. Visionnée 370.000 fois, la vidéo a été supprimée seulement 24 heures après sa mise en ligne sur la plateforme. Et ce fait divers n'est malheureusement pas un cas isolé sur la plateforme. Dans la foulée, Mark Zuckerberg avait alors annoncé le recrutement de 3.000 modérateurs, au cours de l'année. Cette équipe s'ajoutera aux 4.500 personnes qui scrutent déjà les vidéos, photos et publications des internautes, susceptibles de violer les conditions d'utilisation du réseau.

Le problème épineux de la modération renvoie au statut même de Facebook, qui a dépassé la simple définition de réseau social. Fin décembre dernier, le fondateur affirmait : "Facebook est un nouveau genre de plateforme. Ce n'est pas une entreprise technologique traditionnelle. Ce n'est pas un média traditionnel." Et de conclure : "On a construit une technologie et on se sent responsable de la façon dont elle est utilisée."

| Lire aussi Suicides, menaces... Facebook admet des règles "contre-intuitives" pour sa modération

(Avec agences)

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 28/11/2017 à 12:12 :
Excellent documentaire diffusé il y a quelques semaines sur LCP concernant la dépression qui touche 800 millions de personnes quand même hein... :

http://www.lcp.fr/emissions/etat-de-sante/19644-la-depression-est-elle-toujours-un-tabou

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :