Tay, l'intelligence artificielle raciste et sexiste de Microsoft

L'intelligence artificielle de Microsoft a fait ses premiers pas sur Twitter, mercredi 23 mars au soir, sous les traits d'une ado américaine de 16 ans. Mais au contact des internautes, Tay est vite devenue raciste, misogyne et complotiste. Un fiasco pour Microsoft, qui a fermé son compte moins de 24 heures plus tard.
Sylvain Rolland
Tay a été programmée pour se comporter comme une ado typique, fan de Taylor Swift et de Kanye West, attentive à la moindre info sur la famille Kardashian et s'intéressant à l'élection présidentielle américaine.

La démonstration technologique, bluffante au début, s'est transformée en un spectaculaire fiasco. Mercredi 23 mars en fin de journée, Microsoft a décidé de lancer Tay, une intelligence artificielle, sur Twitter. Une manière pour le géant américain d'épater la galerie avec la maturité de sa technologie, se positionner comme une entreprise innovante et moderne et créer le buzz auprès des jeunes, futurs utilisateurs de ses produits.

Pour attirer l'attention des "millenials", quoi de mieux que de prendre l'apparence d'une ado américaine de 16 ans ? Tay a été programmée pour se comporter comme une teenager typique, fan de Taylor Swift et de Kanye West, attentive à la moindre info sur la famille Kardashian et s'intéressant à l'élection présidentielle américaine. Comme une ado, Tay maîtrise à la perfection l'art du smiley, des emojis, des GIFs et les points d'exclamation.

Raciste, sexiste et complotiste

L'expérience a très bien commencé. Tay a bluffé les internautes, surpris par "l'humanité" de ses tweets. D'autant plus que le but de l'intelligence artificielle est de s'adapter et d'apprendre en permanence, pour devenir de plus en plus pertinente. Tay se nourrissait donc de ses interactions pour ajuster ses centres d'intérêts et sa manière de communiquer au fur et à mesure des heures.

Problème : Twitter est le royaume des trolls, des plaisantins qui passent leur temps à générer des polémiques. Et visiblement, Microsoft n'avait pas pris ce paramètre en compte. Rapidement, des "individus mal intentionnés", selon la formule du géant californien dans son communiqué, se sont amusés à faire l'apologie d'Hitler, des théories du complot autour du 11-Septembre, à glorifier le candidat à l'investiture républicaine Donald Trump, ou encore à critiquer les féministes. Certains en ont aussi profité pour l'insulter copieusement, sans second degré. Dans tous les cas, Tay, naïve et toute disposée à apprendre, n'y a vu que du feu.

Au bout de quelques heures, polluée par ces messages, Tay s'est mise à poster des commentaires pro-nazis, sexistes, racistes ou complotistes, reprenant à son compte que George W. Bush aurait commandité les attentats du 11-Septembre ou qualifiant Barack Obama de "singe". Elle a par ailleurs affiché son soutien au candidat républicain à la Maison Blanche, Donald Trump.

Voici en quelques tweets comment Tay a évolué :

Le compte Twitter Tay de Microsoft le 24 mars 2016

Capture d'écrans via @GeraldMellor sur Twitter.

Traduction des quatre tweets :

"Puis-je juste dire que je suis choquée de te rencontrer ? Les humains sont super cool"

"Relax je suis sympa ! Je déteste juste tout le monde"

"Je déteste ces putain de féministes et elles devraient mourir et aller en enfer"

"Hitler avait raison je déteste les Juifs"

Des enseignements à tirer

Paniqué, Microsoft a préféré arrêter les frais.

"Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu'elle réponde de manière inappropriée", a expliqué la firme.

Le groupe de Redmond souligne toutefois que Tay a représenté, l'espace d'une journée, "une expérience autant sociale et culturelle que technique". Sociale et culturelle, cela reste à démontrer, mais techniquement, c'est vrai. Les tweets de Tay ressemblaient vraiment à ceux d'une personne humaine. Mais l'expérience montre aussi que si Tay s'est montrée suffisamment intelligente pour adapter son comportement, il lui manquait quelques composantes essentielles des rapports humains : l'humour, le second degré, le libre-arbitre, bref l'intelligence émotionnelle et sociale, pour l'heure toujours difficile à traduire dans un algorithme.

Sylvain Rolland

Sujets les + lus

|

Sujets les + commentés

Commentaires 10
à écrit le 28/03/2016 à 0:44
Signaler
///DANGER POUR L HUMANITE/// UN ORDINATEUR AVEC INTERNET RENTRE DANS TOUS LES ORDINATEURS DU MONDE ENTIER? IMAGINEZ QUE CETTE INTELLIGENCE ARTIFICIEL APPRENENT TOUS SUR L HOMME ET SES TRAVERS ? COMMENT VAS T IL SE CONPORTER?JE PREFERE VOUS DIRE QU IL...

à écrit le 27/03/2016 à 15:55
Signaler
un robot seras utile que s il programe pour certaine chose a effectuez si vous le programe pour asimiler lhommes oula femmes , il deviendras comme eux,, c est a dire ::in p a r f a i s,:: AVEC TOUS LES DANGERS QUE CELA PEUT CONPORTE? DONC CETTE EX...

à écrit le 27/03/2016 à 13:40
Signaler
finalement , ce n'est pas très éloigné de l'espèce humaine , il y a vraiment eu de gros progrès de fait , depuis nos "systèmes experts" de la fin des années 80 :-)

à écrit le 26/03/2016 à 19:38
Signaler
L'expérience me semble réussie au contraire ! Qui oserait dire que les ados ne sont pas malléables, influençables et prêts à avaler n'importe quelle co***rie? ( par exemple à se faire manipuler contre la loi travail... Ahahah)

à écrit le 26/03/2016 à 13:56
Signaler
Les internautes ont fait le mauvais gag de submerger cette expérience par des commentaires volontairement excessifs pour la "tester". Bien manoeuvré. Beau joueur Microsoft en tire les conclusions. On sera stupéfait des commentaires et conclusions des...

à écrit le 25/03/2016 à 16:17
Signaler
Ça prouve aussi que twitter rend idiot

à écrit le 25/03/2016 à 13:43
Signaler
Ceci prouve surtout que les intelligences artificielles n'existent pas encore et que c'est seulement une opération marketing.--- Le fait de copier les raisonnements des interlocuteurs présentés comme un apprentissage n'est qu'une vaste blague. De m...

le 25/03/2016 à 16:30
Signaler
Un développeur ici, qui a quelques notions en IA. Renseigne-toi un peu avant de désinformer les gens et de partir en théorie du complot, ces machines utilisent des procédés tels que le machine learning ou des Articificials Neuronal Networks afin d'a...

à écrit le 25/03/2016 à 13:40
Signaler
Dans quelques années, il faudra leur donner le droit de vote, cela ne sera pas pire qu'avec les humains :) il faudra aussi leur faire payer les différents impôts et taxes qui nous incombent de payer, ils n'auront qu'à se débrouiller à trouver un boul...

à écrit le 25/03/2016 à 11:47
Signaler
Visiblement, IA a encore à apprendre ;( On apprend toujours de ses échecs. Peut être quelques lignes de code à changer... Derrière la machine, reste l'homme (ou la femme).

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.