Tay, l'intelligence artificielle raciste et sexiste de Microsoft

 |   |  593  mots
Tay a été programmée pour se comporter comme une ado typique, fan de Taylor Swift et de Kanye West, attentive à la moindre info sur la famille Kardashian et s'intéressant à l'élection présidentielle américaine.
Tay a été programmée pour se comporter comme une ado typique, fan de Taylor Swift et de Kanye West, attentive à la moindre info sur la famille Kardashian et s'intéressant à l'élection présidentielle américaine. (Crédits : Twitter)
L'intelligence artificielle de Microsoft a fait ses premiers pas sur Twitter, mercredi 23 mars au soir, sous les traits d'une ado américaine de 16 ans. Mais au contact des internautes, Tay est vite devenue raciste, misogyne et complotiste. Un fiasco pour Microsoft, qui a fermé son compte moins de 24 heures plus tard.

La démonstration technologique, bluffante au début, s'est transformée en un spectaculaire fiasco. Mercredi 23 mars en fin de journée, Microsoft a décidé de lancer Tay, une intelligence artificielle, sur Twitter. Une manière pour le géant américain d'épater la galerie avec la maturité de sa technologie, se positionner comme une entreprise innovante et moderne et créer le buzz auprès des jeunes, futurs utilisateurs de ses produits.

Pour attirer l'attention des "millenials", quoi de mieux que de prendre l'apparence d'une ado américaine de 16 ans ? Tay a été programmée pour se comporter comme une teenager typique, fan de Taylor Swift et de Kanye West, attentive à la moindre info sur la famille Kardashian et s'intéressant à l'élection présidentielle américaine. Comme une ado, Tay maîtrise à la perfection l'art du smiley, des emojis, des GIFs et les points d'exclamation.

Raciste, sexiste et complotiste

L'expérience a très bien commencé. Tay a bluffé les internautes, surpris par "l'humanité" de ses tweets. D'autant plus que le but de l'intelligence artificielle est de s'adapter et d'apprendre en permanence, pour devenir de plus en plus pertinente. Tay se nourrissait donc de ses interactions pour ajuster ses centres d'intérêts et sa manière de communiquer au fur et à mesure des heures.

Problème : Twitter est le royaume des trolls, des plaisantins qui passent leur temps à générer des polémiques. Et visiblement, Microsoft n'avait pas pris ce paramètre en compte. Rapidement, des "individus mal intentionnés", selon la formule du géant californien dans son communiqué, se sont amusés à faire l'apologie d'Hitler, des théories du complot autour du 11-Septembre, à glorifier le candidat à l'investiture républicaine Donald Trump, ou encore à critiquer les féministes. Certains en ont aussi profité pour l'insulter copieusement, sans second degré. Dans tous les cas, Tay, naïve et toute disposée à apprendre, n'y a vu que du feu.

Au bout de quelques heures, polluée par ces messages, Tay s'est mise à poster des commentaires pro-nazis, sexistes, racistes ou complotistes, reprenant à son compte que George W. Bush aurait commandité les attentats du 11-Septembre ou qualifiant Barack Obama de "singe". Elle a par ailleurs affiché son soutien au candidat républicain à la Maison Blanche, Donald Trump.

Voici en quelques tweets comment Tay a évolué :

Le compte Twitter Tay de Microsoft le 24 mars 2016

Capture d'écrans via @GeraldMellor sur Twitter.

Traduction des quatre tweets :

"Puis-je juste dire que je suis choquée de te rencontrer ? Les humains sont super cool"

"Relax je suis sympa ! Je déteste juste tout le monde"

"Je déteste ces putain de féministes et elles devraient mourir et aller en enfer"

"Hitler avait raison je déteste les Juifs"

Des enseignements à tirer

Paniqué, Microsoft a préféré arrêter les frais.

"Malheureusement, dans les 24 premières heures où elle était en ligne, nous avons constaté un effort coordonné par certains utilisateurs pour maltraiter Tay et son habilité à communiquer afin qu'elle réponde de manière inappropriée", a expliqué la firme.

Le groupe de Redmond souligne toutefois que Tay a représenté, l'espace d'une journée, "une expérience autant sociale et culturelle que technique". Sociale et culturelle, cela reste à démontrer, mais techniquement, c'est vrai. Les tweets de Tay ressemblaient vraiment à ceux d'une personne humaine. Mais l'expérience montre aussi que si Tay s'est montrée suffisamment intelligente pour adapter son comportement, il lui manquait quelques composantes essentielles des rapports humains : l'humour, le second degré, le libre-arbitre, bref l'intelligence émotionnelle et sociale, pour l'heure toujours difficile à traduire dans un algorithme.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 28/03/2016 à 0:44 :
///DANGER POUR L HUMANITE/// UN ORDINATEUR AVEC INTERNET RENTRE DANS TOUS LES ORDINATEURS DU MONDE ENTIER? IMAGINEZ QUE CETTE INTELLIGENCE ARTIFICIEL APPRENENT TOUS SUR L HOMME ET SES TRAVERS ? COMMENT VAS T IL SE CONPORTER?JE PREFERE VOUS DIRE QU IL A DANGER ? CAR BEAUCOUP DE MACHINE DE GUERRE ET NUCLEAIRE SONT RELIEE A DES ORDINATEURS???
a écrit le 27/03/2016 à 15:55 :
un robot seras utile que s il programe pour certaine chose a effectuez si vous le programe pour asimiler lhommes oula femmes , il deviendras comme eux,, c est a dire ::in p a r f a i s,:: AVEC TOUS LES DANGERS QUE CELA PEUT CONPORTE? DONC CETTE EXPERIENCE PROUVE QUE LES ETRES HUMAINS NE SONT PAS DES ANGES? ET QUE L HOMME DOIT TOUJOURS MAITRISE LES MACHINES CAR ELLES APPRENENT VITE MAIS NON PAS DE CONCIENCE NI D ETAT D AME? DONC DANGEREUSSE POUR L HUMAIN???
a écrit le 27/03/2016 à 13:40 :
finalement , ce n'est pas très éloigné de l'espèce humaine , il y a vraiment eu de gros progrès de fait , depuis nos "systèmes experts" de la fin des années 80 :-)
a écrit le 26/03/2016 à 19:38 :
L'expérience me semble réussie au contraire !
Qui oserait dire que les ados ne sont pas malléables, influençables et prêts à avaler n'importe quelle co***rie? ( par exemple à se faire manipuler contre la loi travail... Ahahah)
a écrit le 26/03/2016 à 13:56 :
Les internautes ont fait le mauvais gag de submerger cette expérience par des commentaires volontairement excessifs pour la "tester". Bien manoeuvré. Beau joueur Microsoft en tire les conclusions. On sera stupéfait des commentaires et conclusions des "spécialistes" qui prennent tout cela au sérieux en négligeant bien d'autres qui le devraient.
a écrit le 25/03/2016 à 16:17 :
Ça prouve aussi que twitter rend idiot
a écrit le 25/03/2016 à 13:43 :
Ceci prouve surtout que les intelligences artificielles n'existent pas encore et que c'est seulement une opération marketing.--- Le fait de copier les raisonnements des interlocuteurs présentés comme un apprentissage n'est qu'une vaste blague. De même pour les IA qui jouent aux échecs ou au jeu de Go : dans un cadre de règles bien identifiés, où il est possible de calculer tous les coups possibles et où la puissance des processeurs permet de passer en revue un maximum de coups possibles, ça fait illusion. Mais ça s'arrête là. Seule la puissance de calculs permet de passer des échecs au jeu de Go, pas la moindre intelligence. D'ailleurs, les jeux d'échecs électroniques en vente en magasin de jouets ont la même évolution : ils deviennent de plus en plus experts plus leurs processeurs montent en puissance et que leur capacités de calculs peut lister de plus en plus de coups possibles.---Tout ceci est un rideau de fumée. L'IA suit au final la programmation qui doit déterminer toutes les possibilités pour que l'illusion soit la plus parfaite possible. L'IA applique les raisonnements prévus par ses programmateurs. Les machines présentées comme des IA sont les automates modernes : l'illusion va juste un peu plus loin que les automates du 19ème siècle.
Réponse de le 25/03/2016 à 16:30 :
Un développeur ici, qui a quelques notions en IA.
Renseigne-toi un peu avant de désinformer les gens et de partir en théorie du complot, ces machines utilisent des procédés tels que le machine learning ou des Articificials Neuronal Networks afin d'apprendre de leurs erreurs.

Ici, les cas ne sont pas prévus par le développeur, prenons exemple le jeu de go, il y a autant de possibilité que d'étoiles dans le ciel, à chaque coup.
A chaque coup joué par son adversaire, l'AI de google va chercher dans sa mémoire (Elle se rappelle) l'historique des parties qu'elle a jouée puis lance des simulations (réfléchie ?), analyse les résultats (raisonne) et répond en conséquence, exactement de la même manière que l'aurais fais un humain.

Certe, je suis d'accord sur le fait que l'on est loin d'une IA d'un film style Terminator ou autre, actuellement les IA sont limités à l'apprentissage d'une tâche précise, mais c'est bien plus que de simple automate où l'humain à prévu toutes les situations à laquelle la machine devra faire face.
a écrit le 25/03/2016 à 13:40 :
Dans quelques années, il faudra leur donner le droit de vote, cela ne sera pas pire qu'avec les humains :) il faudra aussi leur faire payer les différents impôts et taxes qui nous incombent de payer, ils n'auront qu'à se débrouiller à trouver un boulot rémunéré. On ne dira plus j'ai acheté un robot, mais je lui ai fait passer un entretien d'embauche !
a écrit le 25/03/2016 à 11:47 :
Visiblement, IA a encore à apprendre ;(
On apprend toujours de ses échecs.
Peut être quelques lignes de code à changer... Derrière la machine, reste l'homme (ou la femme).

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :