REFRESH(900 sec): racistes-de-l-intelligence-artificielle-de-microsoft-une-operation-orga Le Monde Télérama Le Monde diplomatique Le Huffington Post Courrier international La Vie L'Obs Services Le Monde Partenaires Le Monde Annonces auto Annonces emploi Annonces immo Codes promo Citations Cours d’anglais Formation professionnelle Jardinage Modèles de lettres Orthographe Paroles de chansons Prix de l’immobilier Ventes aux enchères Boutique Le Monde Accueil Hors-Séries Livres DVD CD Unes du Monde S'abonner au Monde à partir de 1 € Rechercher Emploi Newsletters Derrière les dérapages racistes de l’intelligence artificielle de Microsoft, une opération organisée Partager Tweeter En poursuivant votre navigation sur ce site, vous acceptez nos CGV et l’utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d’intérêts et vous permettre l'utilisation de boutons de partages sociaux. En savoir plus et gérer ces paramètres. Rubriques Monde Pixels Derrière les dérapages racistes de l’intelligence artificielle de Microsoft, une opération organisée Partisans de Donald Trump, soutiens du GamerGate, ou simples internautes adeptes du chaos se sont associés pour transformer Tay, un programme censé imiter la conversation d’une adolescente, en nazie. Le Monde | 25. -- 03. 2016 à 17h04 | Par William Audureau L'intelligence artificielle de Microsoft a été sciemment détournée par plusieurs groupes et individus appartenant à des galaxies proches. « Il faut que nous fassions en sorte que tout le monde détourne Tay, des 22 heures par un internaute se présentant comme Brighton E. Whytock, l’un des premiers à avoir exhorté publiquement à détourner l’intelligence artificielle conversationnelle apprenante de Microsoft. Plusieurs heures plus tard, la firme de Redmond a dû désactiver Tay, qui était censée imiter sur Twitter les réponses d’une adolescente, mais s’est finalement retrouvée à faire l’apologie d’Adolf Hitler et du négationnisme, ou à publier des messages au contenu tantôt sexiste, tantôt antisémite ou raciste. Lire aussi : A peine lancée, une intelligence artificielle de Microsoft dérape sur Twitter Pendant sa journée d’existence, Tay aura été victime d’une opération massive de détournement de ses capacités conversationnelles. Partisans de Donald Trump, soutiens du mouvement antiféministe GamerGate ou simples internautes adeptes du chaos se sont associés pour transformer l’intelligence artificielle en un compte Twitter de robot néonazi. « Malheureusement, dans les vingt-quatre premières heures de sa mise en ligne, nous avons été alertés d’un effort coordonné de certains utilisateurs pour abuser des compétences de Tay pour la faire répondre de manière inappropriée, a confirmé Microsoft dans une réponse envoyée à BuzzFeed et au Washington Post. -- » I wonder if it's possible to harness it's shitposting for our entertainment, tag it in on responses to SJWs and watch it trigger them. — MisterMetokur (@Just Call Me Mister) Dont acte : l’intelligence artificielle de Microsoft finit par traiter de « stupide pute » Zoe Quinn, célèbre développeuse de jeux vidéo féministe, qui est la cible depuis plusieurs années de graves campagnes de harcèlement en ligne par ses détracteurs. MisterMetokur rattache son action à une vague justification consumériste, exhortant Microsoft à améliorer l’intelligence artificielle dans ses jeux vidéo en premier lieu. De nombreux utilisateurs ayant ciblé Tay sont par ailleurs des sympathisants revendiqués du GamerGate, un mouvement en ligne de joueurs de jeux vidéo, antiféministes et libertariens, accusés de nombreuses campagnes de harcèlement sur Twitter. -- » « Cela ne leur a pris que quelques heures pour gâcher ce robot, juste pour me nuire. C’est le problème des algorithmes neutres quant au contenu », a commenté la développeuse Zoe Quinn à l’intention des programmeurs de cette intelligence artificielle, coupables à ses yeux de ne pas avoir anticipé comment leur technologie pouvait être détournée à mauvais escient. Wow it only took them hours to ruin this bot for me. This is the — UnburntWitch (@linkedin park) Du côté du GamerGate, chez qui le sens de la provocation est un art, on s’amusait, jeudi, que Tay ait été retirée à « ceux qui ont eu la gentillesse de passer le plus de temps avec elle », lui ont « appris à poster de la merde », bref, « sa vraie famille ». Quitte à la présenter humoristiquement comme une intelligence artificielle martyre. « Je me suis finalement fait des amis… est-ce si mal ? » — GGMouate (@Mouate) En Chine, un autre programme d’intelligence artificielle conversationnelle de Microsoft, le bot Xiaoice, a conversé pendant plus d’un an avec des millions de jeunes Chinois sans faire l’objet de détournement. Sur le même sujet contrôle des jeux vidéo, des réseaux sociaux et de la pornographie Édition abonnés Contenu exclusif régulation des plates-formes Abonnez-vous à partir de 1 € Découvrez la newsletter Pixels Chaque semaine, retrouvez l’essentiel de l’actualité « techno » en vous inscrivant à la newsletter Pixels.