Tay, l'intelligence artificielle raciste et sexiste de Microsoft

Par Sylvain Rolland  |   |  593  mots
Tay a été programmée pour se comporter comme une ado typique, fan de Taylor Swift et de Kanye West, attentive à la moindre info sur la famille Kardashian et s'intéressant à l'élection présidentielle américaine.
L'intelligence artificielle de Microsoft a fait ses premiers pas sur Twitter, mercredi 23 mars au soir, sous les traits d'une ado américaine de 16 ans. Mais au contact des internautes, Tay est vite devenue raciste, misogyne et complotiste. Un fiasco pour Microsoft, qui a fermé son compte moins de 24 heures plus tard.

La démonstration technologique, bluffante au début, s'est transformée en un spectaculaire fiasco. Mercredi 23 mars en fin de journée, Microsoft a décidé de lancer Tay, une intelligence artificielle, sur Twitter. Une manière pour le géant américain d'épater la galerie avec la maturité de sa technologie, se positionner comme une entreprise innovante et moderne et créer le buzz auprès des jeunes, futurs utilisateurs de ses produits.

Pour attirer l'attention des "millenials", quoi de mieux que de prendre l'apparence d'une ado américaine de 16 ans ? Tay a été programmée pour se comporter comme une teenager typique, fan de Taylor Swift et de Kanye West, attentive à la moindre info sur la famille Kardashian et s'intéressant à l'élection présidentielle américaine. Comme une ado, Tay maîtrise à la perfection l'art du smiley, des emojis, des GIFs et les points d'exclamation.

Raciste, sexiste et complotiste

L'expérience a très bien commencé. Tay a bluffé les internautes, surpris par "l'humanité" de ses tweets. D'autant plus que le but de l'intelligence artificielle est de s'adapter et d'apprendre en permanence, pour devenir de plus en plus pertinente. Tay se nourrissait donc de ses interactions pour ajuster ses centres d'intérêts et sa manière de communiquer au fur et à mesure des heures.

Problème : Twitter est le royaume des trolls, des plaisantins qui passent leur temps à générer des polémiques. Et visiblement, Microsoft n'avait pas pris ce paramètre en compte. Rapidement, des "individus mal intentionnés", selon la formule du géant californien dans son communiqué, se sont amusés à faire l'apologie d'Hitler, des théories du complot autour du 11-Septembre, à glorifier le candidat à l'investiture républicaine Donald Trump, ou encore à critiquer les féministes. Certains en ont aussi profité pour l'insulter copieusement, sans second degré. Dans tous les cas, Tay, naïve et toute disposée à apprendre, n'y a vu que du feu.

Au bout de quelques heures, polluée par ces messages, Tay s'est mise à poster des commentaires pro-nazis, sexistes, racistes ou complotistes, reprenant à son compte que George W. Bush aurait commandité les attentats du 11-Septembre ou qualifiant Barack Obama de "singe". Elle a par ailleurs affiché son soutien au candidat républicain à la Maison Blanche, Donald Trump.

Voici en quelques tweets comment Tay a évolué :

Capture d'écrans via @GeraldMellor sur Twitter.

Traduction des quatre tweets :

"Puis-je juste dire que je suis choquée de te rencontrer ? Les humains sont super cool"

"Relax je suis sympa ! Je déteste juste tout le monde"

"Je déteste ces putain de féministes et elles devraient mourir et aller en enfer"

"Hitler avait raison je déteste les Juifs"

Des enseignements à tirer

Paniqué, Microsoft a préféré arrêter les frais.

"Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu'elle réponde de manière inappropriée", a expliqué la firme.

Le groupe de Redmond souligne toutefois que Tay a représenté, l'espace d'une journée, "une expérience autant sociale et culturelle que technique". Sociale et culturelle, cela reste à démontrer, mais techniquement, c'est vrai. Les tweets de Tay ressemblaient vraiment à ceux d'une personne humaine. Mais l'expérience montre aussi que si Tay s'est montrée suffisamment intelligente pour adapter son comportement, il lui manquait quelques composantes essentielles des rapports humains : l'humour, le second degré, le libre-arbitre, bref l'intelligence émotionnelle et sociale, pour l'heure toujours difficile à traduire dans un algorithme.