REFRESH(900 sec): 66 Le Monde Télérama Le Monde diplomatique HuffPost Courrier international La Vie L'Obs Codes promo Services Le Monde ▾ Partenaires Le Monde Annonces auto Annonces emploi Annonces immo Codes promo Citations Cours d’anglais Formation professionnelle Jardinage Modèles de lettres Orthographe Paroles de chansons Prix de l’immobilier Ventes aux enchères Boutique Le Monde Accueil Hors-Séries Livres DVD CD Unes du Monde S’abonner au Monde à partir de 1 € Rechercher Emploi Newsletters Intelligence artificielle, bêtise humaine Partager Tweeter En poursuivant votre navigation sur ce site, vous acceptez nos CGV et l’utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d’intérêts et vous permettre l'utilisation de boutons de partages sociaux. En savoir plus et gérer ces paramètres. Rubriques Monde Idées Intelligence artificielle, bêtise humaine Comment Tay, le programme testé par Microsoft sur Twitter, a craqué sous la pression des internautes. Le Monde | 07. 04. 2016 à 15h21 • Mis à jour le 07. 04. 2016 à 16h26 | Par Morgane Tual Tay, un programme créé par Microsoft pour discuter avec des adolescents sur les réseaux sociaux, a commis plusieurs dérapages. Microsoft a-t-il créé une intelligence artificielle raciste et nazie ? Tay, lancé sur Twitter le 23 mars pour discuter avec les internautes, a en tout cas dépassé les bornes. En moins de huit heures d’existence, ce programme a produit des propos racistes, conspirationnistes et révisionnistes avant d’être mise hors ligne à la hâte par ses créateurs. Tay avait pourtant l’allure innocente d’une adolescente s’exprimant à coups de « LOL », d’emojis et de gifs animés. Mais il n’aura fallu qu’une poignée d’internautes acharnés pour la faire craquer. Car Tay n’est pas qu’un vulgaire « bot », un robot automatisé produisant des messages préprogrammés. Elle est capable, dans une certaine mesure, de « comprendre » les questions des internautes et d’y répondre de façon pertinente. Alors, quand quelqu’un lui demande de répéter, elle s’exécute, quelles que soient les ignominies prononcées. Ses compétences (être capable de comprendre la demande de l’humain) mettent en lumière ses faiblesses (l’incapacité à saisir que le propos est problématique). Tay est aussi dotée d’une fonction d’apprentissage, et progresse au fur et à mesure de ses discussions. Elle apprend donc des internautes… Mais ces derniers sont-ils dignes de servir de base de données à ce type de programmes d’intelligence artificielle ? A l’évidence, non – même si la plupart des 100 000 tweets publiés par Tay n’avaient rien d’offensant. Lire aussi : A peine lancée, une intelligence artificielle de Microsoft dérape sur Twitter Imperfection des idées Ce n’est pas la première fois qu’un programme d’intelligence artificielle dérape à cause des contenus produits par les humains. A la question « Qui dirige Hollywood ?  », Google répondait à l’automne 2015  : « Les juifs.  » Son algorithme, qui se fonde sur les données de millions de pages Web, en était venu à cette conclusion en recoupant les informations de plusieurs contenus consacrés à ce sujet. Quelques mois plus tôt, à la question « Qu’est-il arrivé aux dinosaures ?  », Google reprenait les propos d’un site créationniste expliquant que ces animaux étaient « utilisés pour endoctriner les enfants et les adultes ». Autre exemple  : peu après les attentats du 13 novembre, il suffisait de taper « Daesh », l’acronyme arabe de l’organisation Etat islamique, dans Google Maps, pour que celui-ci le géolocalise… au Bataclan. Une erreur due, là encore, à la multitude de contenus en ligne associant ces mots-clés. La gigantesque base de données que représente Internet est une aubaine pour les chercheurs en intelligence artificielle  : leurs programmes y puisent de quoi engranger des connaissances et s’améliorer. C’est une des raisons pour lesquelles ces technologies ont connu un tel bond en avant ces dernières années. Mais ces quelques exemples montrent que la machine n’est pas toujours à même d’évaluer la pertinence de ces informations. Comment mieux sélectionner les savoirs sur lesquels doit se fonder une intelligence artificielle pour apprendre et donner des réponses ? L’ingénieur ou l’entreprise àl’origine du programme, s’ils se mêlent de ce choix en amont, ne risquent-ils pas d’inculquer à leur machine leurs propres biais, leur propre vision du monde ? De remplacer l’imperfection des idées du plus grand nombre par l’idéologie d’une seule entité ? L’intelligence artificielle n’est aujourd’hui qu’un reflet de l’intelligence humaine. Et aussi de ses limites. Sur le même sujet d’avancée en Europe » courre ! » Édition abonnés Contenu exclusif films financés par l’industrie du tabac » Abonnez-vous à partir de 1 € Le monde abonnements Profitez du journal où et quand vous voulez. Abonnements papier, offres 100 % numériques sur Web et tablette. S'abonner au Monde à partir de 1 € Déjà abonné au journal Le Monde ? Les rubriques du Monde. fr Les services du Monde Sur le web Les sites du Groupe Partenaires Le Monde Suivez-nous Suivez-nous sur Facebook Suivez-nous sur Twitter Suivez-nous sur Google Plus Suivez-nous sur Instagram Suivez-nous sur Mobile Abonnez-nous à nos flux RSS Recevez nos newsletters Index actualités A B C D E F G H I J K L M N O P Q R S T U V W X Y Z personnelles | Mentions légales | Qui sommes-nous ? | Charte groupe | Publicité | Aide (FAQ) Journal d'information en ligne, Le Monde. fr offre à ses visiteurs un panorama complet de l'actualité. Découvrez chaque jour toute l'info en direct (de la politique à l'économie en passant par le sport et la météo) sur Le Monde. fr, le site de news leader de la presse française en ligne. En Continu