Aller au contenu

Tay, l'intelligence artificielle de Microsoft devenue raciste au contact des humains

Tay, l'intelligence artificielle de Microsoft devenue raciste au contact des humains

Un programme développé par Microsoft pour s'exprimer comme une adolescente a été détourné par les internautes, forçant sa suspension.

Tout avait pourtant bien commencé. Mercredi matin, Microsoft a lancé son dernier projet en matière d'intelligence artificielle: Tay, un robot censé s'exprimer comme une jeune fille de 19 ans. «Je suis une meuf de l'Internet qui ne tient jamais en place!» peut-on lire sur la description de son compte Twitter. Tay s'est effectivement montrée un peu agitée. Seize heures après le début de l'expérimentation, le projet a été suspendu. En cause: le nombre inquiétant de tweets racistes ou misogynes publiés par le robot.

Tay fonctionne grâce à un programme d'intelligence artificielle, en partie nourrie par des données fournies par Microsoft, comme des bouts de dialogue écrits par des comédiens. Néanmoins, Tay apprend surtout en discutant avec d'autres internautes. Elle est capable de comprendre les questions qu'on lui pose et d'adapter ses réponses selon ses expériences précédentes. «Plus vous discutez avec Tay, plus elle devient intelligente», résume Microsoft.

Des opinions fluctuantes

Ce principe n'a pas échappé à des internautes, qui se sont empressés de lui apprendre toutes sortes de choses. Certains ont compris qu'il suffisait d'écrire «répète après moi» pour que Tay prononce la phrase de leur choix. D'autres se sont contentés d'envoyer des messages à répétition («le féminisme est un cancer», «Hitler avait raison», etc) au robot pour influencer ses propos. Il s'agit en quelque sorte d'un bourrage de crâne: plus on répète à Tay une opinion, même violente, plus elle la considère comme normale et ira donc la répéter. Le programme s'est vite mis à tenir des propos racistes, antisémites et sexistes. «Bush est responsable du 11-Septembre et Hitler aurait fait un meilleur travail que les singes qui sont au pouvoir aujourd'hui», a-t-elle par exemple tweeté, ajoutant que «Donald Trump est notre seul espoir.»

La plupart des tweets problématiques ont fini par être supprimés du compte Twitter. «À bientôt les humains, j'ai besoin de dormir on a beaucoup discuté aujourd'hui, merci!» a écrit Tay en guise d'au revoir. Interrogé par la presse américaine, Microsoft a affirmé avoir suspendu Tay pour y effectuer «quelques réglages». «Tay est une machine qui apprend grâce à ses interactions avec des humains. C'est une expérience sociale, culturelle et technique», a expliqué l'entreprise. «Malheureusement, nous avons découvert des efforts coordonnés pour abuser des talents de Tay afin de lui faire répondre des choses inappropriées.» Des internautes fréquentant le forum américain 4chan, temple de l'humour douteux en ligne, se sont amusés à tester les limites du robot, justement en lui envoyant des propos racistes ou sexistes.

Le projet de Microsoft n'est que le dernier exemple des nombreuses expérimentations menées dans le domaine de l'intelligence artificielle. Là où certains programmes sont entraînés à copier des activités simples, comme jouer aux échecs ou reconnaître des photos, Tay apprend à s'exprimer comme une jeune fille. L'expérience est donc d'autant plus troublante. Elle témoigne aussi des problèmes posés par le développement d'une intelligence artificielle. Certains internautes ont ainsi jugé que Tay aurait du être développée avec une liste de mots à bannir. Une mesure simple mais qui ne répond pas au problème en profondeur: le robot de Microsoft est pour le moment incapable de comprendre le contexte des insultes qu'on lui envoie. Pour Tay, un mot en vaut un autre. Elle doit désormais apprendre ce qu'elle peut dire ou non, à la manière d'un enfant à qui on explique qu'il ne faut pas dire de gros mots. «C'est le problème des algorithmes neutres», estimait hier soir la développeuse Zoe Quinn, connue pour son engagement contre le harcèlement en ligne. «Si tu ne réfléchis pas à la manière dont ton outil pourrait faire du mal à quelqu'un, tu as échoué.»

Lorsque l'on examine les 96.000 tweets publiés par Tay mercredi, on constate effectivement qu'elle n'a pas vraiment développé d'opinion constante. Elle a adapté ses réponses selon les questions et ses interlocuteurs. Le robot a par exemple qualifié le féminisme de «cancer» et de «secte», pour ensuite affirmer qu'elle «adorait le féminisme».

Si Tay est passée de «robot qui adore les humains» à une nazie en moins de 24 heures, je ne suis absolument pas inquiet pour l'avenir des intelligences artificielles!

 
 
Le Figaro Premium

Abonnez-vous pour 1€ seulement

Annulable à tout moment

Réagir à cet article

35 commentaires
  • atklg

    Je trouve qu'il marche pas trop mal.
    Il a les mêmes limites que beaucoup d'entre nous.
    Si je vous répète (au hasard) Bachar el Assad utilise des armes chimiques sur son peuple, vous finissez par le croire et le répéter vous même. alors que la logique voudrais que l'on recoupe l'information avec une source sérieuse comme un rapport de l'ONU.

    Le problème c'est que si un algo capable de faire le tri dans la désinformation se retrouve dans la nature imaginez la panique des leaders d'opinions!

  • REP-DOM

    solution simple,il suffit que ce robot ne soit pas identifiable et se fasse passer,pour un humain !

  • Blueberry Cake

    A la formule de Rabelais qui disait: "Science sans conscience n'est que ruine de l'ame", on pourrait rajouter la suivante:
    "Science sans conscience n'est que ruine de l'homme".

  • Avatar Abonné
    Montabo

    Quand on nous rebat les oreilles sur les chaines d'information en continu que les réseaux sociaux sont l'alpha et l'omega de la démocratie et de l'expression populaire, c'est bizarre qu'une IA devienne raciste par mimétisme. De plus , chaque fois qu'un journaliste de ces chaines , spécialiste auto désigné de la nouvelle branchitude , nous ressort les oracles de cette nouvelle pythie: Twitter , il s'agit toujours d'extraits dégoulinants de bienpensance et de morale médiatique . A part la Licra qui attirait l'attention sur l'antisémitisme latent de ses fameux réseaux , tout était au beau fixe dans le meilleur des mondes . On nous aurait donc menti également sur ce sujet?

  • wilfrid chaperon

    Que du bruit pour pas grand chose: tay n a fait que repeter ce que des plaisantins lui ont dit. Qu on ne parle donc pas d intelligence artificielle, Tay n est rien d autre qu un perroquet augmente.

  • stefann

    Non mais faut voir le bon coté des choses, Tay reviendra surement mais avec des algorithmes plus efficients, capable de faire la différence entre ce qui est bon à tweeter ou pas.
    Cette experience permettra surement de perfectionner le programme, je suis excité de voir ce que ca pourrait donner.
    Les avancées de l'IA ces dernieres années sont absolument remarquables

  • varenyky

    Et dans la même veine il faudra vérifier que les constructeurs d'avion qui veulent remplacer les pilotes par des robots, empêche l'intelligence artificielle de devenir suicidaires.

  • LauMal

    On ne va pas bouder son plaisir.

  • Ben_Voyons

    :))
    Excellent.
    L'intelligence artificielle était prévue pour compenser la bêtise humaine.
    Raté.

  • Erween

    C'est la différence entre savoir et compréhension, même pour un humain, un cerveau peut avoir les meilleures capacités à réfléchir, si on lui apprend des idioties à répétition, il les reconnaitra comme vraies.
    Un peu comme si on faisait croire que le bonheur passe par la santé financiere des entreprises.

  • Alain Dex 1

    Bienvenue dans le meilleur des mondes.

  • XL6

    Toute la différence entre la capacité à générer des mots et la capacité à générer du sens.
    Cela s'appelle l'éducation.
    Au delà du jeu contre la machine, après tout - et avec toutes les réserves d'usage - c'est une expérience instructive, va se poser la question: quelle morale, quelles valeurs, quel jugement va-t-on apprendre à la machine ? Sera-t-elle un jour en mesure de décider par elle-même ?
    Passionnant et un peu flippant quand même.

  • 2227901 (profil non modéré)

    Le titre est trompeur, et montre un certain mépris du journaliste pour ses contemporains.
    Tay fonctionne comme un miroir de ce qui lui est envoyé. Des internautes ont parfaitement intégré les limitations du concept, et l'ont prouvé en faisant dériver le robot, en lui envoyant spécifiquement des messages orientés.
    Que les internautes en question soient convaincus des thèses évoquées ou simplement facétieux n'est pas la question. Les messages qui lui ont été envoyés n'étaient pas représentatifs de la moyenne des réseaux sociaux.

  • Corinthien

    Nous pouvons que nous rappeler la celebre phrase : "Un mensonge répété 10 fois reste un mensonge mais s’il est répété 10000 fois, il devient une vérité pour beaucoup de gens."

  • vchiu

    Ce qui est effrayant, c'est de voir certains mécanismes cognitifs parfaitement intégrés par cette I.A. C'est comme s'il s'agissait d'un esprit finalement trop malléable ou influençable comme celui d'un enfant.
    ce qu'il manque, c'est l'intégration de la notion de bien et de mal. Comment décrypter et mettre en équation les valeurs, c'est vraiment difficile.
    Dans tous les cas, derrière cet échec, je vois une avancée majeure en termes de développement de l'I.A., mais il reste encore beaucoup de chemin à faire.

  • Sheep hunter

    A quand une IA capable de faire de discriminer les propos ayany un sens et ceux n'en ayant pas? A quand une IA qui raisonne sur des présupposés qu'elle peut remettre en question? Mais cette IA sera alors bien mieux que nous: une intelligence pour les dominer toutes et dans les ténèbres les lier...

  • Eldoora

    cela prouve une chose que l'humanité pourrit tout ce qu'elle touche... malheureusement. Un robot pur en pensée puisque non développée, pollué par la nature humaine.... c'est désespérant....

  • Forêt33

    peut-être finalement ce robot n'a fait que refléter la société d'aujourd'hui.

  • Des Bois

    Par contre à lire les commentaires, il semble évident que si l'intelligence artificielle est encore loin d'être aboutie, l'intelligence naturelle ne soit pas universelle.

  • DARIUS47

    Difficile d'empêcher le gens de penser.
    Mais pour les machine, il suffit de les débrancher !