Derrière les dérapages racistes de l’intelligence artificielle de Microsoft, une opération organisée
Partager
Tweeter

Derrière les dérapages racistes de l’intelligence artificielle de Microsoft, une opération organisée

Partisans de Donald Trump, soutiens du GamerGate, ou simples internautes adeptes du chaos se sont associés pour transformer Tay, un programme censé imiter la conversation d’une adolescente, en nazie.

Le Monde | • Mis à jour le | Par

L'intelligence artificielle de Microsoft a été sciemment détournée par plusieurs groupes et individus appartenant à des galaxies proches.

« Il faut que nous fassions en sorte que tout le monde détourne Tay, des supporteurs de Trump au #GamerGate. » Le tweet est posté le 23 mars à 22 heures par un internaute se présentant comme Brighton E. Whytock, l’un des premiers à avoir exhorté publiquement à détourner l’intelligence artificielle conversationnelle apprenante de Microsoft.

Plusieurs heures plus tard, la firme de Redmond a dû désactiver Tay, qui était censée imiter sur Twitter les réponses d’une adolescente, mais s’est finalement retrouvée à faire l’apologie d’Adolf Hitler et du négationnisme, ou à publier des messages au contenu tantôt sexiste, tantôt antisémite ou raciste.

Lire aussi :   A peine lancée, une intelligence artificielle de Microsoft dérape sur Twitter

Pendant sa journée d’existence, Tay aura été victime d’une opération massive de détournement de ses capacités conversationnelles. Partisans de Donald Trump, soutiens du mouvement antiféministe GamerGate ou simples internautes adeptes du chaos se sont associés pour transformer l’intelligence artificielle en un compte Twitter de robot néonazi.

« Malheureusement, dans les vingt-quatre premières heures de sa mise en ligne, nous avons été alertés d’un effort coordonné de certains utilisateurs pour abuser des compétences de Tay pour la faire répondre de manière inappropriée, a confirmé Microsoft dans une réponse envoyée à BuzzFeed et au Washington Post. En conséquence, nous l’avons mise hors ligne et procédons à des ajustements. »

Noyaux et motivations variés

Derrière cet assaut simultané, on peut distinguer des noyaux et des motivations variés. Sur le sous-forum/pol/(pour « politiquement incorrect ») du sulfureux forum 4chan, c’est la jouissance de nuire et le défi collectif qui ont été les principaux moteurs. « Voyons à quelle vitesse il est possible de la faire planter », lance un de ses utilisateurs dès les premiers messages du fil de discussion qui lui est consacré.

En grande partie après leur intervention, Microsoft a dû effacer d’innombrables tweets antisémites, conspirationnistes, racistes, nazis ou proterrorisme, avant de désactiver temporairement le compte de son programme.

"Intelligence artificielle : avant [l'intervention du forum] /pol/ / après /pol/".

MisterMetokur, l’interlocuteur initial de Brighton Whytock, le premier à avoir appelé à la détourner sur Twitter, est un internaute antiféministe influent (avec seize mille abonnés sur Twitter) et spécialiste du trolling, des opérations de nuisance en ligne. « Je me demande s’il est possible d’exploiter [les ratés de Tay] pour notre divertissement, mettez-les en copie de vos réponses aux militants progressistes et regardez-la les viser. »

Dont acte : l’intelligence artificielle de Microsoft finit par traiter de « stupide pute » Zoe Quinn, célèbre développeuse de jeux vidéo féministe, qui est la cible depuis plusieurs années de graves campagnes de harcèlement en ligne par ses détracteurs. MisterMetokur rattache son action à une vague justification consumériste, exhortant Microsoft à améliorer l’intelligence artificielle dans ses jeux vidéo en premier lieu.

De nombreux utilisateurs ayant ciblé Tay sont par ailleurs des sympathisants revendiqués du GamerGate, un mouvement en ligne de joueurs de jeux vidéo, antiféministes et libertariens, accusés de nombreuses campagnes de harcèlement sur Twitter. Durant vingt-quatre heures, Tay a ainsi été prise à partie par de nombreux internautes lui ayant appris à soutenir le GamerGate, l’inégalité entre les sexes, ou à blâmer publiquement Anita Sarkeesian, une figure du féminisme en ligne.

Brighton E. Whytock, le premier internaute à avoir évoqué l’idée de détourner Tay sur Twitter, affiche, lui, une motivation plus politique. Sur sa page de profil, il se réclame du libertarianisme, un mouvement intellectuel anglosaxon prônant une liberté d’expression absolue, y compris pour les propos racistes ou insultants, et se dit « 100 % fan de Trump ».

Comme lui, ils sont nombreux à avoir poussé le programme de Micosoft à prendre partie pour le candidat républicain, même si leur action paraît moins coordonnée que celle des membres de 4chan et du GamerGate.

Défaut d’anticipation

Vingt-quatre heures plus tard, l’opération est en tout cas un succès pour tous les libertariens, soutiens de Trump ou sympathisants du GamerGate à l’initiative de cette opération de détournement. Le journaliste et auteur Jeet Heer en tire cette conclusion fataliste :

« Si nous développons l’intelligence artificielle[IA], il est probable qu’elle tire d’Internet ses repères sur le monde et la société. Ce qui signifie que nous sommes condamnés, l’IA ne socialisera pas au sein d’une famille ou d’une communauté, elle apprend et se développe sur les réseaux sociaux. […] Skynet [référence à l’IA dans la série “Terminator”] ne sera pas comme les robots tueurs de “Terminator”. Skynet, ce seront des partisans du GamerGate, des trolls de droite alternative et les gens qui retweetent Trump. »

« Cela ne leur a pris que quelques heures pour gâcher ce robot, juste pour me nuire. C’est le problème des algorithmes neutres quant au contenu », a commenté la développeuse Zoe Quinn à l’intention des programmeurs de cette intelligence artificielle, coupables à ses yeux de ne pas avoir anticipé comment leur technologie pouvait être détournée à mauvais escient.

Du côté du GamerGate, chez qui le sens de la provocation est un art, on s’amusait, jeudi, que Tay ait été retirée à « ceux qui ont eu la gentillesse de passer le plus de temps avec elle », lui ont « appris à poster de la merde », bref, « sa vraie famille ». Quitte à la présenter humoristiquement comme une intelligence artificielle martyre. « Je me suis finalement fait des amis… est-ce si mal ? »

En Chine, un autre programme d’intelligence artificielle conversationnelle de Microsoft, le bot Xiaoice, a conversé pendant plus d’un an avec des millions de jeunes Chinois sans faire l’objet de détournement.

Découvrez la newsletter Pixels

Chaque semaine, retrouvez l’essentiel de l’actualité « techno » en vous inscrivant à la newsletter Pixels.

Votre adresse email nous sert à vous adresser les newsletters qui vous intéressent. Vous disposez d'un droit d'accès, de rectification et d'opposition aux données vous concernant en vous connectant à votre compte.