Intelligence artificielle, bêtise humaine
Partager
Tweeter
Idées

Intelligence artificielle, bêtise humaine

Comment Tay, le programme testé par Microsoft sur Twitter, a craqué sous la pression des internautes.

Le Monde | • Mis à jour le | Par

Tay, un programme créé par Microsoft pour discuter avec des adolescents sur les réseaux sociaux, a commis plusieurs dérapages.

Microsoft a-t-il créé une intelligence artificielle raciste et nazie ? Tay, lancé sur Twitter le 23 mars pour discuter avec les internautes, a en tout cas dépassé les bornes. En moins de huit heures d’existence, ce programme a produit des propos racistes, conspirationnistes et révisionnistes avant d’être mise hors ligne à la hâte par ses créateurs. Tay avait pourtant l’allure innocente d’une adolescente s’exprimant à coups de « LOL », d’emojis et de gifs animés. Mais il n’aura fallu qu’une poignée d’internautes acharnés pour la faire craquer.

Car Tay n’est pas qu’un vulgaire « bot », un robot automatisé produisant ­des messages préprogrammés. Elle est capable, dans une certaine mesure, de ­ « comprendre » les questions des internautes et d’y répondre de façon pertinente. Alors, quand quelqu’un lui demande de répéter, elle s’exécute, quelles que soient les ignominies prononcées. Ses compétences (être capable de comprendre la demande de l’humain) mettent en lumière ses faiblesses ­ (l’incapacité à saisir que le propos est problématique). Tay est aussi dotée d’une fonction d’apprentissage, et progresse au fur et à mesure de ses discussions. Elle apprend donc ­des internautes… Mais ces derniers sont-ils dignes de servir de base de données à ce type de programmes d’intelligence artificielle ? A l’évidence, non – même si la plupart des 100 000 tweets publiés par Tay n’avaient rien d’offensant.

Lire aussi :   A peine lancée, une intelligence artificielle de Microsoft dérape sur Twitter

Imperfection des idées

Ce n’est pas la première fois qu’un programme d’intelligence artificielle dérape à cause des contenus produits par ­les humains. A la question « Qui dirige ­Hollywood ? », ­Google répondait à l’automne 2015  : « Les juifs. » Son algorithme, qui se fonde sur les données de millions de pages Web, en était venu à cette conclusion en recoupant les informations de plusieurs contenus consacrés à ce sujet. Quelques mois plus tôt, à la question « Qu’est-il arrivé aux dinosaures ? », Google reprenait les propos d’un site créationniste expliquant que ces animaux étaient « utilisés pour endoctriner les enfants et les adultes ». Autre exemple  : peu après les attentats du 13 novembre, il suffisait de taper « Daesh », l’acronyme arabe de l’organisation Etat islamique, dans Google Maps, pour que celui-ci le géolocalise… au Bataclan. Une erreur due, là encore, à la multitude de contenus en ligne associant ces mots-clés.

La gigantesque base de données que représente Internet est une aubaine pour les chercheurs en intelligence artificielle  : leurs programmes y puisent de quoi engranger des connaissances et s’améliorer. C’est une des raisons pour lesquelles ces technologies ont connu un tel bond en avant ces dernières années. Mais ces quelques exemples montrent que la machine n’est pas toujours à même d’évaluer la pertinence de ces informations. Comment mieux sélectionner les savoirs sur lesquels doit se fonder une intelligence ­artificielle pour apprendre ­et donner des réponses ? L’ingénieur ou l’entreprise àl’origine du programme, s’ils se mêlent de ce choix en amont, ne risquent-ils pas d’inculquer à leur machine leurs propres biais, leur propre vision du monde ? De remplacer l’imperfection des idées du plus grand nombre par l’idéologie d’une seule entité ? L’intelligence artificielle n’est aujourd’hui qu’un reflet de l’intelligence humaine. Et aussi de ses limites.