Search Direct User 100 Zoom Quiz ? Libération Diamond clock xml netvibes live anciens-numeros data desintox diapo edito election-2017 election essentiel generique idee jo next portrait radio son alerte top-100 star une video scroll Facebook Whatsapp Twitter insta vine later glass Mail print Facebook Instagram Twitter Calendar download cross zoom-in zoom-out previous next truck visa mastercard user-libe user-doc user-doc-list user-mail user-security user-settings user-shop user-star Ruban abo Losange orange List check Most read Ptit Libé sport blog voyage
    Stratégie

    Un algorithme de Google bat un humain au go : une question de confiance

    Par Camille Gévaudan
    Un algorithme de Google bat un humain au go : une question de confiance
    Un algorithme de Google bat un humain au go : une question de confiance Photo Chad Miller. CC BY SA

    La défaite de Fan Hui face à AlphaGo a fait l'objet d'une publication dans la revue «Nature». Une performance inédite.

    Il jouissait jusqu’à aujourd’hui d’une certaine célébrité chez les amateurs du jeu de go pour en être le champion d’Europe en titre, mais son dernier exploit en date va lui offrir une renommée mondiale et sans doute éternelle : Fan Hui, un français originaire de Bordeaux, est devenu le premier joueur professionnel à perdre une partie de go contre un ordinateur.

    L’événement est assez historique pour faire la couverture de Nature. Car si les échecs sont depuis longtemps maîtrisés par les programmes d’intelligence artificielle – le supercalculateur Deep Blue a battu Kasparov en 1997 – le go est d’une complexité toute autre, qui résistait encore bien aux algorithmes. Sur un plateau quadrillé appelé goban, il faut placer des «pierres» (noires pour un joueur, blanches pour l’autre) de façon à encercler l’adversaire, faire prisonniers ses pions et s’approprier des «territoires». «Les règles sont très simples mais il s’agit probablement du jeu le plus complexe inventé par l’homme, car le nombre de combinaisons possibles est supérieur au nombre d’atomes dans l’univers [soit environ 10170, NDLR]», estime Demis Hassabis. Ce neuroscientifique anglais en sait quelque chose : l’entreprise d’intelligence artificielle qu’il a fondée en 2011 et vendue à Google l’an dernier, DeepMind, a développé le programme de go qui a battu Fan Hui.

    L’affrontement entre l’humain et l’algorithme AlphaGo a eu lieu au mois d’octobre, à Londres. Fan Hui a accepté l’invitation de bon cœur, voyant l’ordinateur comme «un partenaire pour avancer et progresser ensemble» et sûr de sa victoire à venir. Pourtant, on ne peut même pas dire qu’il a été mis en difficulté par AlphaGo : il a été écrasé. Sur les cinq parties rapides qu’il a jouées au rythme de deux par jour, il en a perdu trois. Sur les cinq parties «normales», il n’a rien gagné. Ordinateur 5, humain 0. «AlphaGo joue comme un humain», explique le champion dans une interview au Monde. Sans faire ces coups «bizarres» dont se rendent d’habitude coupables les ordinateurs dont on ne comprend pas la stratégie. Le jeu d’AlphaGo paraît naturel, et en plus, le fourbe reste  imperturbable quand l’humain, lui, flanche du côté psychologique. «A la fin, j’ai perdu toute confiance face à lui et ça, c’est catastrophique. Lui n’a pas ce problème», se souvient Fan Hui. Il a gardé le secret de ses défaites jusqu’à la publication cette semaine de l’étude dans Nature.

    Google DeepMind se différencie des autres intelligences artificielles qui se frottent au jeu de go en combinant plusieurs approches. Il repose toujours sur la classique «méthode de Monte-Carlo» qui simule à l’avance des milliers de parties pour deviner quels coups ont le plus de chances de se solder par une victoire. Mais il ajoute à cela les possibilités offertes par le deep learning, une capacité d’apprentissage qui simule un réseau de neurones pour que l’ordinateur sache choisir la meilleure réponse possible aux paramètres qu’on lui donne. DeepMind a déjà fait la démonstration de son excellence en la matière en créant un programme capable de jouer aux jeux vidéo sans qu’on lui en explique les règles, et Google s’entraîne ainsi à reconnaître et décrire le contenu d’une photographie («un chien noir et blanc saute par-dessus une barre»). Il faut avoir à disposition une énorme base de données pour permettre à l’ordinateur d’ingurgiter des exemples et de s’améliorer. AlphaGo a étudié 30 millions de mouvements de joueurs professionnels, puis joué contre lui-même pour mettre sa technique à l’épreuve. C’est la combinaison de ces trois méthodes d’intelligence artificielle – Monte-Carlo, le deep learning et l’apprentissage par renforcement, qui est inédite (et apparemment dévastatrice) dans le domaine du go.

    Camille Gévaudan
    Un mot à ajouter ?