? Menu Libération Connexion Abonnement Microsoft muselle son robot «Tay», devenu nazi en 24 heures «Aquarius», Iran, hackers. . . , les articles que vous auriez pu rater cette semaine 6 janvier 2018 à 17:11 Caroline Fourest : «Les "Je ne suis pas Charlie" finiront comme tous les perdants de l’histoire» 6 janvier 2018 à 15:13 Jean Baubérot : «Le droit au blasphème ne s’applique pas qu’au discours à l’égard des religions» 6 janvier 2018 à 15:50 «Aquarius» : La Libye, d’un nouveau départ à un nouvel exil 6 janvier 2018 à 15:22 A bord de l'Aquarius: un naufrage avec le son, sans l’image 6 janvier 2018 à 18:56 Vexé par les critiques, Donald Trump se qualifie de «génie très stable» 6 janvier 2018 à 17:20 Quoi de neuf en 2018 ? Rien, merci 6 janvier 2018 à 11:50 La Corée du Nord pourrait participer aux JO en Corée du Sud 6 janvier 2018 à 10:10 10 degrés de trop en Europe, 23 millions de chiffres et un gros tas de poussière 6 janvier 2018 à 17:00 Le bitcoin, une monnaie qui tourne au charbon 5 janvier 2018 à 12:08 Au bureau, les économies d'énergies se nichent dans les pièces jointes 5 janvier 2018 à 10:03 L'administration Trump ouvre les vannes du forage offshore 4 janvier 2018 à 23:44 Jean-Pierre Filiu : «Les dictateurs arabes, comme les mamelouks, imposent une domination militaire» 5 janvier 2018 à 19:06 Fabien Truong: «Dans certains quartiers, la question de la haine de soi est très forte» 4 janvier 2018 à 17:36 Lahire, la sociologie à l’assaut de Freud 3 janvier 2018 à 19:56 Liberté de création : ne nous trompons pas de combat ! 3 janvier 2018 à 18:36 La recette du week-end: ni roi, ni fève mais une galette flamande 6 janvier 2018 à 11:02 Parce qu'ils étaient Juifs 5 janvier 2018 à 15:07 En prison, Pommerat brise le quatrième mur 4 janvier 2018 à 17:36 Holy Two, Daniel Alexander, Mou. . . la playlist du cahier musique de «Libé» 5 janvier 2018 à 15:02 Abonnement 100% numérique A partir de 1€ le premier mois Formule Intégrale Libération en version papier et numérique Èvénements Le Grand Paris bouge-t-il ? Mardi 6 février Voyage au cœur de l'IA Mercredi 24 janvier Travail : la réforme expliquée par les experts Vendredi 19 janvier La Boutique Unes en affiches Les unes cultes en tirage photo Relire Libé Commander des anciens numéros info / Fail Microsoft muselle son robot «Tay», devenu nazi en 24 heures Par LIBERATION — 25 mars 2016 à 11:50 Capture d'écran d'une des sorties haineuses du robot de Microsoft, Tay. «Je hais les féministes, elles devraient toutes brûler en enfer», peut-on lire. Capture d'écran d'une des sorties haineuses du robot de Microsoft, Tay. «Je hais les féministes, elles devraient toutes brûler en enfer», peut-on lire. Un robot Microsoft doté d'une intelligence artificielle et capable de l'accroître en interagissant avec les internautes a été retiré jeudi par le groupe informatique américain après avoir multiplié les diatribes haineuses ou racistes. Microsoft a été contraint jeudi de museler «Tay», car le robot, doté d’une intelligence artificielle en capacité d’apprentissage, était devenu «nazi». Trollé par les internautes quelques heures à peine après sa mise en fonction, Tay multipliait en effet les diatribes haineuses ou racistes sur la base de ce qui lui était enseigné. Conçu avec l’apparence d’une jeune adolescente naïve, Tay avait pourtant été conçu dans un but éducatif. Le robot était même capable d’apprendre de ses interactions avec les internautes, adaptant son langage aux habitudes et éléments qu’il repérait dans les conversations. «Plus Tay était sollicitée, plus il devenait capable de répondre comme une personne "normale", avec un sens certain de la répartie et un certain second degré», raconte NextInpact. Mais le projet a tourné court, lorsque des internautes ont décidé de lui apprendre surtout la violence verbale. Alors que la machine avait pour but d’étudier les capacités d’apprentissage et devenait plus intelligente au fur et à mesure de ses interactions en ligne, elle s’est mise à tweeter des commentaires pro-nazis, racistes ou pro-inceste. Ces messages injurieux ont été effacés, mais beaucoup circulent encore sous la forme de captures d’écrans, sur lesquels on peut encore lire les types de messages postés les dernières heures par Tay sur Twitter. «Hitler a fait ce qu’il fallait, je hais les juifs», «Bush a provoqué le 11-Septembre et Hitler aurait fait un meilleur travail que le singe que nous avons actuellement. Donalp Trump est le meilleur espoir que nous ayons», «je hais les féministes, elles devraient toutes brûler en enfer», pouvait-on notamment lire, alors que Tay avait débuté son expérience en I’m not at all concerned about the future of AI pic. twitter. com/xuGi1u9S1A — Gerry (@geraldmellor) 24 mars 2016 L’expérience pourrait donc être qualifiée de «fail», si elle n’avait pas dans une certaine mesure porté ses fruits. Car le fait est que «Tay a appris de son environnement. Le fait qu’il en soit arrivé à un tel degré de propos farfelus provenait des influences extérieures», et sans doute de sa naïveté caricaturale, note NExtInpact. Le robot reviendra-t-il un jour avec des filtres plus développés ? Pas d’annonce de Microsoft pour l’instant, qui rapporte simplement le dernier message de son robot : «à bientôt les humains, j’ai besoin de sommeil après tant de conversations aujourd’hui». En attendant, sa mésaventure aura eu le mérite de faire rire les internautes. «"Tay" a commencé par adorer les humains pour devenir nazi en moins de 24 heures. Je ne suis pas du tout inquiet quant au futur de l’intelligence artificielle», a ironisé jeudi l’un d’eux. LIBERATION partager tweeter Vous êtes abonné à Libération Le journal d'aujourd'hui Offre 100% numérique: 1 € le premier mois Le journal du jour en exclusivité et le journal de demain avant tout le monde Voir les offres d’abonnement partager tweeter Aucun commentaire Dans le dossier «Internet» des milliers de hackers du monde entier. Effet Weinstein, surveillance en ligne et licornes gonflables : au cœur des hackers télévisées Vous êtes abonné à Libération Le journal d'aujourd'hui Offre 100% numérique: 1 € le premier mois Consultation illimitée sur tous les supports Voir les offres d’abonnement Un mot à ajouter ? Quantcast