? Menu Libération Connexion Abonnement Intelligence artificielle ? Vraiment ? «Aquarius», Iran, hackers. . . , les articles que vous auriez pu rater cette semaine 6 janvier 2018 à 17:11 Caroline Fourest : «Les "Je ne suis pas Charlie" finiront comme tous les perdants de l’histoire» 6 janvier 2018 à 15:13 Jean Baubérot : «Le droit au blasphème ne s’applique pas qu’au discours à l’égard des religions» 6 janvier 2018 à 15:50 «Aquarius» : La Libye, d’un nouveau départ à un nouvel exil 6 janvier 2018 à 15:22 A bord de l'Aquarius: un naufrage avec le son, sans l’image 6 janvier 2018 à 18:56 Vexé par les critiques, Donald Trump se qualifie de «génie très stable» 6 janvier 2018 à 17:20 Quoi de neuf en 2018 ? Rien, merci 6 janvier 2018 à 11:50 La Corée du Nord pourrait participer aux JO en Corée du Sud 6 janvier 2018 à 10:10 10 degrés de trop en Europe, 23 millions de chiffres et un gros tas de poussière 6 janvier 2018 à 17:00 Le bitcoin, une monnaie qui tourne au charbon 5 janvier 2018 à 12:08 Au bureau, les économies d'énergies se nichent dans les pièces jointes 5 janvier 2018 à 10:03 L'administration Trump ouvre les vannes du forage offshore 4 janvier 2018 à 23:44 Jean-Pierre Filiu : «Les dictateurs arabes, comme les mamelouks, imposent une domination militaire» 5 janvier 2018 à 19:06 Fabien Truong: «Dans certains quartiers, la question de la haine de soi est très forte» 4 janvier 2018 à 17:36 Lahire, la sociologie à l’assaut de Freud 3 janvier 2018 à 19:56 Liberté de création : ne nous trompons pas de combat ! 3 janvier 2018 à 18:36 La recette du week-end: ni roi, ni fève mais une galette flamande 6 janvier 2018 à 11:02 Parce qu'ils étaient Juifs 5 janvier 2018 à 15:07 En prison, Pommerat brise le quatrième mur 4 janvier 2018 à 17:36 Holy Two, Daniel Alexander, Mou. . . la playlist du cahier musique de «Libé» 5 janvier 2018 à 15:02 Abonnement 100% numérique A partir de 1€ le premier mois Formule Intégrale Libération en version papier et numérique Èvénements Le Grand Paris bouge-t-il ? Mardi 6 février Voyage au cœur de l'IA Mercredi 24 janvier Travail : la réforme expliquée par les experts Vendredi 19 janvier La Boutique Unes en affiches Les unes cultes en tirage photo Relire Libé Commander des anciens numéros info / Libé des écrivains Intelligence artificielle ? Vraiment ? Par Antoine Billot — 16 mars 2016 à 18:41 Pendant le match entre Lee Sedol et AlphaGo, le 13 mars, à Séoul. Pendant le match entre Lee Sedol et AlphaGo, le 13 mars, à Séoul. Photo Ed Jones. AFP La machine a battu l’homme quatre fois sur cinq au jeu de go, grâce à un système qui simule l’esprit humain plutôt qu’avec un «super calculateur». Pourtant cette «intelligence artificielle» est encore loin de pouvoir se faire passer pour une «intelligence humaine»… Fors l’honneur, tout est perdu ? AlphaGo (produit par DeepMind, une filiale de Google) ne se sera donc incliné qu’une fois, lors de la quatrième manche qui l’opposait à Lee Sedol, le grand maître coréen du jeu de Go. Le reste du temps, il l’aura renvoyé à sa modeste et humiliante condition de simple mortel - et avec lui, l’humanité entière. Le tournoi organisé à grand bruit entre la créature et le créateur a ainsi largement tourné en faveur de la créature quand bien même le créateur est parvenu à limiter les dégâts en gagnant une rencontre - fors l’honneur, quoi. Encore faut-il préciser que la victoire arrachée dimanche par Lee Sedol n’a pas même eu l’apparence d’un triomphe symbolique puisqu’en réalité AlphaGo a seulement commis l’erreur au cours du 79^e tour de ne pas remarquer celle, autrement grave a priori, que commettait son adversaire ; le temps pour la créature de s’en rendre compte et Lee Sedol remportait la partie en loucedé : duel épique de bavures, donc. Bref, pas de quoi exulter… Plus important semble être en revanche la méthode utilisée par AlphaGo pour achever sans ambiguïté son trop sensible concurrent. Là où, en 1997, Deep Blue (un ordinateur spécialement fabriqué par IBM), opposé dans un match d’échecs à Garry Kasparov, calculait la totalité des combinaisons possibles avant de choisir, en vertu de critères définis ex-ante par ses concepteurs, la réponse optimale, AlphaGo, lui, utilise un algorithme, c’est-à-dire une méthode automatique dite d’apprentissage profond (deep learning) qui repose sur l’activation d’un système convolutif de réseaux neuronaux (neural networks). Cette méthode, en rupture avec le «tout-calcul» de Deep Blue, permet d’engendrer de nouvelles stratégies au fur et à mesure des parties disputées au cours de l’histoire ludique du « joueur artificiel » - une histoire qui se constitue sans contrainte de temps puisque AlphaGo peut jouer des millions de fois sans se lasser ni se fatiguer le moins du monde… Le principe directeur de ces algorithmes calculatoires, de type Crazystone ou Zen, est de dégager une meilleure réponse par estimation de la probabilité de victoire finale. Et cette probabilité est définie en tant que pourcentage de parties gagnantes associées à la simulation aléatoire de plusieurs milliers de parties (un procédé de simulation directement inspiré de la méthode de Monte-Carlo, laquelle méthode consiste intuitivement à bombarder au hasard un périmètre donné - ici l’ensemble complet des réponses possibles - contenant une cible - ici la victoire finale - puis à rapporter le nombre de «bombes» tombées à côté de la cible à celui de toutes les «bombes» pour inférer fréquentiellement la probabilité d’occurrence de la cible). La mémoire exhaustive de Deep Blue fait ainsi place à une mémoire sélective, plus «intelligente», une mémoire algorithmique qui simule plus qu’elle n’imite le fonctionnement du cerveau humain. Ce n’est plus seulement la puissance de calcul qui fait la différence, ni la puissance de stockage des informations, mais bien plutôt la capacité à induire pertinemment des «chemins optimaux» dans le vaste arbre de décision des chemins possibles du jeu de go (on estime le nombre de ses «branches» à 10^170, c’est-à-dire 1 suivi de 17 zéros ! ) Peut-on dire pour autant que nous venons d’assister au triomphe de la machine sur l’homme, de l’intelligence artificielle sur l’intelligence humaine ? En dépit des coups de clairon médiatique que Google n’a - et n’aura plus encore dans les mois à venir - de cesse de pousser, coups de clairon qui ne relèvent que d’un plan marketing finalement assez standard (un coup de com habilement promu) et qui n’ont en conséquence pas grand-chose à voir avec les enjeux scientifiques de la confrontation homme-machine, il est tout à fait prématuré de conclure que le résultat inattendu de ce tournoi consacre un basculement épistémologique majeur. Depuis plus de cinquante ans, un nombre considérable de tests ont été élaborés qui visent à évaluer régulièrement cette intelligence artificielle en plein essor selon des protocoles et des modalités diverses. La très grande hétérogénéité de ces tests ne fait que mettre en évidence la nature plurielle et absolument désagrégée de ce que l’on appelle l’intelligence artificielle. Pour l’heure, il n’existe pas une intelligence synthétique de la machine mais une palette de compétences susceptibles d’être mises chacune, séquentiellement, en concurrence avec la compétence équivalente chez l’homme. Certes, au plan de la mémorisation, du stockage, du traitement statistique des informations et de la vitesse calculatoire, la machine bat l’homme. Soit. Cependant, par analogie, nul ne songe à considérer sérieusement que l’athlète jamaïcain Usain Bolt (le champion du monde du 100 m, du 200 m et du 4 x 100 m) est le meilleur de tous les hommes au prétexte que dans un stade il est manifestement le plus rapide d’entre eux. Le test qui semble faire la quasi-unanimité chez les spécialistes, en cela qu’il se fonde justement sur une appréhension synthétique de l’intelligence, est celui conçu par Alan Turing en 1950. Alan Turing (l’homme qui a donné sa pomme croquée à Steve Jobs) est l’un des pionniers de l’intelligence artificielle. Il a très tôt pressenti la possible dérive du discours parascientifique à propos de l’inévitable et spectaculaire confrontation de la créature et de son créateur. Aussi proposait-il de considérer qu’une machine ne pouvait être dite «intelligente» qu’à la condition qu’elle puisse leurrer l’homme en se faisant passer à ses yeux pour une intelligence humaine : un jury rassemblé dans une pièce isolée est ainsi censé discuter sans les voir avec plusieurs interlocuteurs ; si au terme de cinq minutes de conversation la machine qui s’est glissée dans le groupe des interlocuteurs n’a pas été démasquée par au moins 30% des membres du jury, alors le test est réussi. On ne connaît qu’un seul cas de test positif durant les cinquante dernières années - encore convient-il de préciser que le contexte de cette expérience réalisée à l’université de Reading en 2014 est largement contestable et d’ailleurs largement contesté parce qu’il reposait sur une altération stratégique du langage de la machine qui cherchait à se faire passer pour un adolescent ukrainien s’exprimant imparfaitement en anglais…. Le test de Turing introduit une dimension fondamentale au cœur même de la méthode d’appréciation de l’intelligence qui renvoie les tournois d’échecs, de go ou de n’importe quel jeu calculatoire à ce qu’ils sont : des confrontations amusantes de processus techniques et symboliques. Cette dimension, c’est l’aptitude sémantique à véhiculer du sens, à s’exprimer au moyen de règles partagées - ce que l’on appelle la syntaxe - permettant la communication entre deux individus quelconques. Force est de constater qu’AlphaGo n’est pas près encore de commenter son succès ni d’échanger ses impressions avec Lee Sedol… Plus généralement, ces tests d’évaluation - et celui de Turing n’échappe pas à la remarque - reposent implicitement sur l’idée que si une machine parvient à imiter la «conscience» (tout ce qui à nos yeux humains en traduit l’existence de façon cognitive : raisonnement, intuition, incertitude…) au point de leurrer à répétition celui qui l’observe, alors l’intelligence artificielle en jeu sera comparable à l’intelligence humaine. Mais il y a là une sorte d’exigence pour le moins discutable qui postule que l’imitation parfaite des conséquences d’un phénomène suffit logiquement à prouver l’existence du phénomène : si dans l’échange je ne suis pas capable de distinguer le comportement imité (la machine) du comportement original (l’humain), c’est que les deux comportements sont identiques. A quoi pourrait donc bien servir de persister à les distinguer ? Des futurologues comme Ray Kurzweil (qui a rejoint Google en 2012) proposent de dépasser ce sophisme en développant le concept de singularité initialement introduit par John von Neumann dans les années 50. Une singularité est un point hypothétique de l’évolution humaine à partir duquel la civilisation est supposée connaître une croissance technologique d’un ordre tout à fait exceptionnel. Ce point, suggère Ray Kurzweil, pourrait être atteint dès lors qu’une intelligence artificielle, une machine, aura le pouvoir de produire elle-même une intelligence artificielle de rang supérieur… Où l’on comprend qu’AlphaGo devrait arrêter de jouer pour se consacrer à des choses plus sérieuses… Antoine Billot partager tweeter Vous êtes abonné à Libération Le journal d'aujourd'hui Offre 100% numérique: 1 € le premier mois Le journal du jour en exclusivité et le journal de demain avant tout le monde Voir les offres d’abonnement partager tweeter Aucun commentaire Dans le dossier «Livres» Cocon queer Entretien avec Régis Jauffret : «Mon empathie s’avère parfois excessive» Parce qu'ils étaient Juifs autre tour Vous êtes abonné à Libération Le journal d'aujourd'hui Offre 100% numérique: 1 € le premier mois Consultation illimitée sur tous les supports Voir les offres d’abonnement Un mot à ajouter ? Quantcast