Aller au contenu Abonnez-vous Menu Journal Recherche PremiumAbonnez-vous Menu Journal o Actualités o Start-up o Tests o Pratique o Jeux video Tay, l'intelligence artificielle de Microsoft devenue raciste au contact des humains Tay, l'intelligence artificielle de Microsoft devenue raciste au contact des humains Un programme développé par Microsoft pour s'exprimer comme une adolescente a été détourné par les internautes, forçant sa suspension. Tout avait pourtant bien commencé. Mercredi matin, Microsoft a lancé son dernier projet en matière d'intelligence artificielle: Tay, un robot censé s'exprimer comme une jeune fille de 19 ans. «Je suis une meuf de l'Internet qui ne tient jamais en place! » peut-on lire sur la description de son compte Twitter. Tay s'est effectivement montrée un peu agitée. Seize heures après le début de l'expérimentation, le projet a été suspendu. En cause: le nombre inquiétant de tweets racistes ou misogynes publiés par le robot. Tay fonctionne grâce à un programme d'intelligence artificielle, en partie nourrie par des données fournies par Microsoft, comme des bouts de dialogue écrits par des comédiens. Néanmoins, Tay apprend surtout en discutant avec d'autres internautes. Elle est capable de comprendre les questions qu'on lui pose et d'adapter ses réponses selon ses expériences précédentes. «Plus vous discutez avec Tay, plus elle devient intelligente», résume Microsoft. Des opinions fluctuantes Ce principe n'a pas échappé à des internautes, qui se sont empressés de lui apprendre toutes sortes de choses. Certains ont compris qu'il suffisait d'écrire «répète après moi» pour que Tay prononce la phrase de leur choix. D'autres se sont contentés d'envoyer des messages à répétition («le féminisme est un cancer», «Hitler avait raison», etc) au robot pour influencer ses propos. Il s'agit en quelque sorte d'un bourrage de crâne: plus on répète à Tay une opinion, même violente, plus elle la considère comme normale et ira donc la répéter. Le programme s'est vite mis à tenir des propos racistes, antisémites et sexistes. «Bush est responsable du 11-Septembre et Hitler aurait fait un meilleur travail que les singes qui sont au pouvoir aujourd'hui», a-t-elle par exemple tweeté, ajoutant que «Donald Trump est notre seul espoir. » La plupart des tweets problématiques ont fini par être supprimés du compte Twitter. «À bientôt les humains, j'ai besoin de dormir on a beaucoup discuté aujourd'hui, merci! » a écrit Tay en guise d'au revoir. Interrogé par la presse américaine, Microsoft a affirmé avoir suspendu Tay pour y effectuer «quelques réglages». «Tay est une machine qui apprend grâce à ses interactions avec des humains. C'est une expérience sociale, culturelle et technique», a expliqué l'entreprise. «Malheureusement, nous avons découvert des efforts coordonnés pour abuser des talents de Tay afin de lui faire répondre des choses inappropriées. » Des internautes fréquentant le forum américain 4chan, temple de l'humour douteux en ligne, se sont amusés à tester les limites du robot, justement en lui envoyant des propos racistes ou sexistes. cu soon humans need sleep now so many conversations today thx — TayTweets (@TayandYou) 24 mars 2016 Le projet de Microsoft n'est que le dernier exemple des nombreuses expérimentations menées dans le domaine de l'intelligence artificielle. Là où certains programmes sont entraînés à copier des activités simples, comme jouer aux échecs ou reconnaître des photos, Tay apprend à s'exprimer comme une jeune fille. L'expérience est donc d'autant plus troublante. Elle témoigne aussi des problèmes posés par le développement d'une intelligence artificielle. Certains internautes ont ainsi jugé que Tay aurait du être développée avec une liste de mots à bannir. Une mesure simple mais qui ne répond pas au problème en profondeur: le robot de Microsoft est pour le moment incapable de comprendre le contexte des insultes qu'on lui envoie. Pour Tay, un mot en vaut un autre. Elle doit désormais apprendre ce qu'elle peut dire ou non, à la manière d'un enfant à qui on explique qu'il ne faut pas dire de gros mots. «C'est le problème des algorithmes neutres», estimait hier soir la développeuse Zoe Quinn, connue pour son engagement contre le harcèlement en ligne. «Si tu ne réfléchis pas à la manière dont ton outil pourrait faire du mal à quelqu'un, tu as échoué. » Lorsque l'on examine les 96. 000 tweets publiés par Tay mercredi, on constate effectivement qu'elle n'a pas vraiment développé d'opinion constante. Elle a adapté ses réponses selon les questions et ses interlocuteurs. Le robot a par exemple qualifié le féminisme de «cancer» et de «secte», pour ensuite affirmer qu'elle «adorait le féminisme». I'm not at all concerned about the future of AI pic. twitter. com/xuGi1u9S1A — Gerry (@geraldmellor) 24 mars 2016 Si Tay est passée de «robot qui adore les humains» à une nazie en moins de 24 heures, je ne suis absolument pas inquiet pour l'avenir des intelligences artificielles! La rédaction vous conseille l'intelligence artificielle Lucie Ronfaut Lucie Ronfaut Auteur - Sa biographie 166 abonnés Ses derniers articles trembler le monde de l'informatique ? Sur le même sujet performance des ordinateurs Une faille de sécurité dans des processeurs Intel menace la performance des ordinateurs Thématique : MICROSOFT Suivre locales CES 2018 : la folle course des régions pour présenter des start-up locales «Meltdown» et «Spectre» Le Figaro Premium Abonnez-vous pour 1€ seulement Annulable à tout moment Réagir à cet article 35 commentaires atklg Je trouve qu'il marche pas trop mal. Il a les mêmes limites que beaucoup d'entre nous. Si je vous répète (au hasard) Bachar el Assad utilise des armes chimiques sur son peuple, vous finissez par le croire et le répéter vous même. alors que la logique voudrais que l'on recoupe l'information avec une source sérieuse comme un rapport de l'ONU. Le problème c'est que si un algo capable de faire le tri dans la désinformation se retrouve dans la nature imaginez la panique des leaders d'opinions! Le 12/04/2016 à 07:59 Alerter Répondre REP-DOM solution simple,il suffit que ce robot ne soit pas identifiable et se fasse passer,pour un humain ! Le 30/03/2016 à 14:48 Alerter Répondre Blueberry Cake A la formule de Rabelais qui disait: "Science sans conscience n'est que ruine de l'ame", on pourrait rajouter la suivante: "Science sans conscience n'est que ruine de l'homme". Le 29/03/2016 à 09:42 Alerter Répondre Montabo Quand on nous rebat les oreilles sur les chaines d'information en continu que les réseaux sociaux sont l'alpha et l'omega de la démocratie et de l'expression populaire, c'est bizarre qu'une IA devienne raciste par mimétisme. De plus , chaque fois qu'un journaliste de ces chaines , spécialiste auto désigné de la nouvelle branchitude , nous ressort les oracles de cette nouvelle pythie: Twitter , il s'agit toujours d'extraits dégoulinants de bienpensance et de morale médiatique . A part la Licra qui attirait l'attention sur l'antisémitisme latent de ses fameux réseaux , tout était au beau fixe dans le meilleur des mondes . On nous aurait donc menti également sur ce sujet? Le 26/03/2016 à 05:50 Alerter Répondre wilfrid chaperon Que du bruit pour pas grand chose: tay n a fait que repeter ce que des plaisantins lui ont dit. Qu on ne parle donc pas d intelligence artificielle, Tay n est rien d autre qu un perroquet augmente. Le 25/03/2016 à 16:15 Alerter Répondre stefann Non mais faut voir le bon coté des choses, Tay reviendra surement mais avec des algorithmes plus efficients, capable de faire la différence entre ce qui est bon à tweeter ou pas. Cette experience permettra surement de perfectionner le programme, je suis excité de voir ce que ca pourrait donner. Les avancées de l'IA ces dernieres années sont absolument remarquables Le 25/03/2016 à 15:40 Alerter Répondre varenyky Et dans la même veine il faudra vérifier que les constructeurs d'avion qui veulent remplacer les pilotes par des robots, empêche l'intelligence artificielle de devenir suicidaires. Le 25/03/2016 à 14:13 Alerter Répondre LauMal On ne va pas bouder son plaisir. Le 25/03/2016 à 12:02 Alerter Répondre Ben_Voyons :)) Excellent. L'intelligence artificielle était prévue pour compenser la bêtise humaine. Raté. Le 25/03/2016 à 11:32 Alerter Répondre Erween C'est la différence entre savoir et compréhension, même pour un humain, un cerveau peut avoir les meilleures capacités à réfléchir, si on lui apprend des idioties à répétition, il les reconnaitra comme vraies. Un peu comme si on faisait croire que le bonheur passe par la santé financiere des entreprises. Le 25/03/2016 à 11:02 Lire les 4 réponses à ce commentaire Alerter Répondre Garde La Pêche 1 Dommage, la fin du commentaire ne va pas avec le début et dévoile un esprit étriqué, toujours prêt à sortir du contexte pour asséner ses idées rétrogrades. Bref aucun rapport avec le sujet traité, vous êtes payé par poutine pour vos coms ? Vous voyez je peux être aussi sectaire ;-) Le 30/12/2016 à 12:06 Alerter Répondre Paperbag Alors que tout le monde sait que le bonheur passe par des faillites et des plans sociaux à répétition. Sérieusement, il faut arrêter de ramener la lutte des classes dans tous les sujets, c'est ça la vraie source de malheur. Le 25/03/2016 à 17:10 Alerter Répondre p coincoin tiens on va tester votez socialiste votez socialiste votez socialiste votez socialiste etc etc Le 25/03/2016 à 16:59 Alerter Répondre Raze Très bon exemple! Le 25/03/2016 à 14:23 Alerter Répondre Alain Dex 1 Bienvenue dans le meilleur des mondes. Le 25/03/2016 à 10:43 Alerter Répondre XL6 Toute la différence entre la capacité à générer des mots et la capacité à générer du sens. Cela s'appelle l'éducation. Au delà du jeu contre la machine, après tout - et avec toutes les réserves d'usage - c'est une expérience instructive, va se poser la question: quelle morale, quelles valeurs, quel jugement va-t-on apprendre à la machine ? Sera-t-elle un jour en mesure de décider par elle-même ? Passionnant et un peu flippant quand même. Le 25/03/2016 à 10:21 Alerter Répondre 2227901 (profil non modéré) Le titre est trompeur, et montre un certain mépris du journaliste pour ses contemporains. Tay fonctionne comme un miroir de ce qui lui est envoyé. Des internautes ont parfaitement intégré les limitations du concept, et l'ont prouvé en faisant dériver le robot, en lui envoyant spécifiquement des messages orientés. Que les internautes en question soient convaincus des thèses évoquées ou simplement facétieux n'est pas la question. Les messages qui lui ont été envoyés n'étaient pas représentatifs de la moyenne des réseaux sociaux. Le 25/03/2016 à 09:37 Lire la réponse à ce commentaire Alerter Répondre Raze On reconnait bien l'oeuvre des "4chaners". Ils adorent faire dérailler les "belles" idées un peu trop lisses. Retrouvez sur le net la fois où ils ont fait élire un petit enfant trisomique pour figurer en photo sur un flacon de shampooing. Ce n’était certainement pas effigie que souhaitait la marque, mais de la sorte ils ont fait le bonheur de ce petit garçon et un joli pied de nez à notre société de l'apparence. Le 25/03/2016 à 14:28 Alerter Répondre Corinthien Nous pouvons que nous rappeler la celebre phrase : "Un mensonge répété 10 fois reste un mensonge mais s’il est répété 10000 fois, il devient une vérité pour beaucoup de gens. " Le 25/03/2016 à 09:26 Lire les 2 réponses à ce commentaire Alerter Répondre stefann Belle phrase tellement vraie, elle est de qui ? Le 25/03/2016 à 15:42 Alerter Répondre Erween Ça me rapelle certains messages qu'on lit quand on parle de la langue française, à croire que certains n'ont pas plus de filtre quand les médias leur serinent: Le français est une langue pourrie Le français est une langue pourrie . . . ad nauseam Le 25/03/2016 à 10:59 Alerter Répondre vchiu Ce qui est effrayant, c'est de voir certains mécanismes cognitifs parfaitement intégrés par cette I. A. C'est comme s'il s'agissait d'un esprit finalement trop malléable ou influençable comme celui d'un enfant. ce qu'il manque, c'est l'intégration de la notion de bien et de mal. Comment décrypter et mettre en équation les valeurs, c'est vraiment difficile. Dans tous les cas, derrière cet échec, je vois une avancée majeure en termes de développement de l'I. A. , mais il reste encore beaucoup de chemin à faire. Le 25/03/2016 à 08:41 Lire la réponse à ce commentaire Alerter Répondre stefann Je partage partiellement votre avis. le bemol est le suivant: - Qui décide des valeurs à inculquer à l'IA ? Si ca reste une entreprise qui est par définition plus guidé par le fric que par la valeur. hum. . . L'IA risque de porter les valeurs de son créateurs, valeurs qui peuvent etre des vices ailleurs Le 25/03/2016 à 15:51 Alerter Répondre Sheep hunter A quand une IA capable de faire de discriminer les propos ayany un sens et ceux n'en ayant pas? A quand une IA qui raisonne sur des présupposés qu'elle peut remettre en question? Mais cette IA sera alors bien mieux que nous: une intelligence pour les dominer toutes et dans les ténèbres les lier. . . Le 25/03/2016 à 08:28 Alerter Répondre Eldoora cela prouve une chose que l'humanité pourrit tout ce qu'elle touche. . . malheureusement. Un robot pur en pensée puisque non développée, pollué par la nature humaine. . . . c'est désespérant. . . . Le 25/03/2016 à 08:28 Alerter Répondre Forêt33 peut-être finalement ce robot n'a fait que refléter la société d'aujourd'hui. Le 25/03/2016 à 08:27 Lire la réponse à ce commentaire Alerter Répondre Raze Pas du tout. Il est bien indiqué dans l'article qu'il s'agit d'une action concertée ayant pour but de faire "déraper" ce robot. Les utilisateurs de 4chan sont des spécialistes en la matière. Renseignez-vous! Le 25/03/2016 à 11:26 Alerter Répondre Des Bois Par contre à lire les commentaires, il semble évident que si l'intelligence artificielle est encore loin d'être aboutie, l'intelligence naturelle ne soit pas universelle. Le 25/03/2016 à 07:39 Lire la réponse à ce commentaire Alerter Répondre Paperbag Complètement, à la lecture des tweets de Tay on peut constater qu'elle paraît déjà plus intelligente qu'une bonne partie de la population terrestre. Le 25/03/2016 à 17:17 Alerter Répondre DARIUS47 Difficile d'empêcher le gens de penser. Mais pour les machine, il suffit de les débrancher ! Le 25/03/2016 à 07:28 Alerter Répondre Le vin du mois en exclusivité - prix direct propriété Découvrir Trouvez la meilleure assurance santé en 3 minutes Comparer Suivez l'évolution de vos conditions météo En savoir + La boutique en ligne du Figaro Découvrir Votre nouveau job parmi 10 000 offres d'emploi Rechercher Plus de 15 newsletters thématiques S'inscrire Toutes les applications mobiles du Figaro Télécharger Suivez Le Figaro sur Facebook Découvrir Le meilleur de la presse quotidienne et magazine S'inscrire 10 astuces pour apprendre n'importe quelle langue facilement Découvrir Plus de 500 000 annonces immobilières Rechercher Le Figaro dès 22h sur votre ordinateur Lire L'actu en temps réel avec Le Figaro Suivre Plus de 7 000 recettes de cuisine à décrouvrir Rechercher Jusqu'à 80% de réduction sur les spectacles Réserver Passez votre annonce dans le Carnet du Figaro Découvrir L'intégrale du Figaro sur tous vos écrans S'abonner Testez vos connaissances ! Des cadeaux à gagner Jouer