REFRESH(900 sec): Le Monde Télérama Le Monde diplomatique Le Huffington Post Courrier international La Vie L'Obs Services Le Monde Partenaires Le Monde Annonces auto Annonces emploi Annonces immo Codes promo Citations Cours d’anglais Formation professionnelle Jardinage Modèles de lettres Orthographe Paroles de chansons Prix de l’immobilier Ventes aux enchères Boutique Le Monde Accueil Hors-Séries Livres DVD CD Unes du Monde S'abonner au Monde à partir de 1 € Rechercher Emploi Newsletters L’intelligence artificielle n’est pas raciste, mais pas neutre non plus Partager Tweeter En poursuivant votre navigation sur ce site, vous acceptez nos CGV et l’utilisation de cookies pour vous proposer des contenus et services adaptés à vos centres d’intérêts et vous permettre l'utilisation de boutons de partages sociaux. En savoir plus et gérer ces paramètres. Rubriques Monde Big Browser Un blog de la rédaction - Le Monde L’intelligence artificielle n’est pas raciste, mais pas neutre non plus Une expérience de concours de beauté où le jury était un programme d’intelligence artificielle a donné des résultats qui rappellent que « l’objectivité » de cette technologie ne sera jamais parfaite. Le Monde | 09. -- Un robot est-il capable de définir ce qu’est la beauté humaine ? Un groupe de scientifiques russes a tenté de répondre à la question en organisant un concours de beauté où le jury était une intelligence artificielle. Youth Laboratories, organisation financée par la Russie et Hongkong, a récolté, sur la base du volontariat, près de 600 000 portraits d’hommes et de femmes de plus de cent pays. -- Même si les trois quarts des participants à cette expérience étaient blancs, les résultats ont de quoi étonner. Théoriquement, l’intelligence artificielle, si elle n’est pas programmée pour prendre la couleur de peau comme un critère de beauté, devrait appliquer les critères choisis (symétrie, jeunesse) à toutes les photos, y compris celles de personnes à la peau foncée. Or, à voir les résultats, cela n’a pas été le cas. « Deep learning » et algorithmes biaisés Cela n’aurait aucun sens de dire que l’intelligence artificielle est « raciste ». Elle ne sait pas qu’elle regarde des photos d’êtres humains. -- Konstantin Kiselev, directeur de la technologie au Youth Laboratories, pense que l’algorithme a été « possiblement biaisé » par la présence trop importante de candidats blancs. Sur les 600 000 candidats, environ 40 000 étaient indiens et 9 000 africains, et aucun n’a été considéré comme « beau » par l'’intelligence artificielle. Celle-ci opère avec la technique du « deep learning », qui permet à un programme d’apprendre et de s’adapter en fonction des données qu’il a à sa disposition. -- Le programme fonctionne comme un « réseau de neurones », une machine virtuelle composée de milliers d’unités (les neurones) qui effectuent chacune de petits calculs simples. Lire sur Pixels : Comment le « deep learning » révolutionne l'intelligence artificielle Préjugés du monde réel dans l’intelligence virtuelle Cette expérience rappelle, une fois de plus, que l’intelligence artificielle, de plus en plus présente dans maints aspects de nos vies, n’est pas neutre par définition. Elle dépend d’une multitude de facteurs humains, notamment des banques de données qui lui sont mises à disposition par ses créateurs. -- « Ce sont les humains qui réfléchissent, même quand c’est présenté comme des algorithmes qui nous font croire que c’est neutre et scientifique », résume Bernard Harcourt, professeur de droit et de science politique à l’université Columbia. Dans une tribune publiée en juin, Kate Crawford, chercheuse chez Microsoft ayant travaillé pour la Maison Blanche sur les questions d’intelligence artificielle, rappelle qu’il faut rester vigilant et sceptique face à ces technologies dites « intelligentes », qui risquent de répéter les préjugés du monde réels : « Le sexisme, le racisme et d’autres formes de discrimination sont construites au sein même des algorithmes d’apprentissage automatique. Ces derniers sont au cœur des technologies qui donnent ces systèmes “intelligents”, qui nous catégorisent et décident de la les technologies qui l’ont précédée, l’intelligence artificielle reflétera les valeurs de ses créateurs. » On a récemment eu un aperçu des dérapages possibles des programmes d’intelligence artificielle, dont certains ont pu avoir des conséquences bien plus graves que la sélection douteuse de photos dans un concours de beauté : informatique, dit de « maintien de l’ordre préventif » et utilisé par de nombreux départements de police américains, avait deux fois plus de chances de prédire, à tort, qu’un individu noir était un « élément à risque » et qu’un individu blanc était « un élément à faible risque ». des publicités en ligne vantant des emplois avec un salaire annuel de 200 000 dollars apparaissaient bien plus souvent lorsque l’internaute était un homme. conspirationnistes et révisionnistes après huit heures d’existence. Il aura suffi qu’une poignée d’internautes lui posent sans cesse les mêmes questions (racistes, conspirationnistes et révisionnistes) pour que le programme d’intelligence artificielle les intègre de façon disproportionnée dans son fonctionnement. Comme l’expliquait Pixels à l’époque : « Ses compétences (être capable de comprendre la demande de l’humain) mettent en lumière ses faiblesses (l’incapacité à saisir que le propos est problématique).