Réseaux sociaux : bientôt une intelligence artificielle pour repérer le cyberharcèlement

 |   |  833  mots
Deux chercheuses de l'Université Sophia Antipolis travaillent sur un outil de repérage automatique du cyberharcèlement sur les réseaux sociaux.
Deux chercheuses de l'Université Sophia Antipolis travaillent sur un outil de repérage automatique du cyberharcèlement sur les réseaux sociaux. (Crédits : Pixabay / CC)
Deux chercheuses de Sophia Antipolis travaillent sur un outil d'intelligence artificielle pour repérer et prévenir le cyberharcèlement sur les réseaux sociaux. La technologie devrait être fonctionnelle et mise sur le marché d'ici la fin de l'année 2019.

Dans la culture web, l'expression "to creep on someone" signifie traquer l'activité sur les réseaux sociaux d'une personne à son insu. L'équipe de chercheurs missionnée par l'Institut européen de l'innovation et de la technologie (EIT Digital) se l'est appropriée. Leur CREEP à eux est un projet de prévention aux effets du cyberharcèlement (Cyberbullying Effects Prevention). Dans plusieurs pays, des docteurs en informatique, en psychologie et en sociologie travaillent ainsi depuis 2018 sur des technologies de prévention et d'accompagnement du harcèlement sur les réseaux sociaux, à destination des adolescents.

L'équipe plurinationale (italienne, française, allemande) développe deux technologies. Au centre du projet, un outil d'apprentissage automatique scanne le contenu textuel disponible sur les réseaux sociaux et repère les cas de harcèlement. Ensuite, un "assistant virtuel", sous forme de chatbot, contacte la victime et l'aiguille vers des ressources utiles, en fonction de son profil. Leurs outils devraient être fonctionnels à la fin de l'année.

Transformer le cyberharcèlement en données

Elena Cabrio (Université Côte d'Azur) et Serena Villata (Université Côte d'Azur), deux chercheuses en intelligence artificielle incarnent la branche française du projet. Elles travaillent sur la technologie de reconnaissance des cas de harcèlement. Deux ingénieurs en informatique de l'Inria les assistent dans le développement de l'outil.

"La définition du cyberharcèlement prend en compte le caractère répété du comportement, et le fait que plusieurs personnes aient la même cible", introduit Elena Cabrio.

Leur outil d'apprentissage automatique scanne les interactions sur un périmètre pré-défini. Les deux docteures projettent ensuite ces interactions sous forme de graphes. Les concentrations d'interactions se traduisent visuellement par des nœuds apparents entre sous-graphes. "Mais un nœud ne signifie pas forcément qu'il y a harcèlement, il peut s'agir d'une personnalité très sollicitée par exemple", relève la scientifique.

Vient alors la deuxième étape : leur outil analyse le contenu des messages échangés, à la recherche de propos spécifiques.

"C'est ici toute la difficulté, il faut traduire la sémantique (ndlr: le sens et la signification des mots) en données, et s'adapter au langage particulier des réseaux sociaux", expose Serena Villata.

Leur expertise entre alors en jeu: les outils qu'elles développent dans l'équipe Wimmics sont réputés pour leur précision. Elles ont d'abord entraîné leur machine sur des données en open source issues de réseaux sociaux traditionnels, puis sur des données tirées d'une expérimentation et de jeux de rôle sur un intranet, dans un collège de Trente, en Italie.

Vers une application fonctionnelle fin 2019

"Nous devons être très précis, pour éviter le risque de surcharge des signalements de harcèlement", prévient Elena Cabrio. A l'inverse, elles ne peuvent aller trop loin dans la précision au risque d'écarter certains cas. C'est tout un équilibre que les chercheuses doivent donc trouver. Pour cela, elles peuvent compter sur leurs homologues italiens de la fondation Bruno Kessler. Le célèbre centre de recherche coordonne le projet, et plusieurs de ses docteurs en intelligence artificielle et en sociologie y participent. Deux entreprises, NeuroNation et Expert System, apportent également leur expertise de marché au projet. Un élément essentiel, puisque les outils CREEP doivent pouvoir se vendre d'ici la fin 2019.

 "Notre objectif pour la fin de l'année est de proposer une appli finalisée, conforme au RGPD. Il faut aussi que nous testions l'application dans un environnement réel.", ambitionne Enrico Maria Piras, sociologue de la fondation Bruno Kessler, en charge du projet.

Le projet devait se terminer en 2018, mais a été reconduit pour une année supplémentaire. Objectif : ajouter de la reconnaissance d'image, grâce à l'apport d'une équipe Linkmedia de l'Inria de Rennes, et pousser les modules d'accompagnement plus loin. CREEP a déjà été testé dans des collèges de la ville italienne de Trente fin 2018, et l'expérience sera y reconduite ainsi qu'à Nice. Pour l'instant, CREEP s'adresse aux jeunes, et sera adapté à des intranets. Mais l'outil est pensé pour les usages des adolescents, sur Instagram ou Twitter. "Les 13-14 ans n'utilisent pas Facebook. Ils disent "Facebook c'est pour ma mère !" Ils utilisent tous Instagram, parfois TikTok." s'amuse Enrico Maria Piras.

« Il faudrait adapter notre logiciel pour qu'il soit compatible avec la politique de données de la plateforme », précise Elena Cabrio, lorsqu'on l'interroge sur l'éventualité de son application à un grand réseau social. Les chercheuses auraient d'ailleurs été approchées par Facebook, la maison mère d'Instagram, qui commence à s'intéresser à leur outil.

Le projet CREEP est financé par EIT Digital, une filiale de l'institut européen de l'innovation et de la technologie. Cette structure, dotée de 100 millions d'euros par l'UE et pensé comme un MIT Européen, promeut le transfert de technologie. 20 hommes et femmes, de milieu académique et professionnel, travaillent sur le projet.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 11/03/2019 à 19:48 :
Si nous sommes encore là dans 2 ans : nous tirerons les conclusions de ce projet.

Je suis d’accord avec le citoyen Blasé , apprendre a développer à nos enfants les schémas neurologiques de défense est le plus grand cadeau pour eux et la société.

Suivre à l’insu ... tout dépend des intentions : si c’est de la protection, oui mais si c’est pour harceler ?

Qui nous garanti l’éthique des personnes derrière ce projet ?

Pourquoi nous devons faire confiance ou ne pas faire confiance?
L’ITech innove car sans l’utilisation des jeunes , le web ... va finir... par ne plus intéresser
surtout une désertion des jeux vidéos...

Y a pas mieux que la «  vie  humaine » sans internet ...même Max Planck serait « ok « avec ça.
a écrit le 11/03/2019 à 17:25 :
Le mieux reste d'apprendre à ses enfants que tout le monde n'est pas forcément bien intentionné, que nous ne vivons pas dans une société de bisounours et qu'il faut donc faire très attention aux personnes que l'on fréquente d'une façon ou d'une autre.

Insister plus avec les filles forcément puisque ce sont elles qui morflent le plus et de loin.

Bref les classiques non ?

Mais bon j'ai déjà du mal à leur expliquer que la publicité est déjà une escroquerie en soi, nos cerveaux étant quand même pas mal paramétrés par la manipulation et le mensonge.

"Le commerce est l'école de la tromperie" Machiavel

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :