Search Direct User 100 Zoom Quiz ? Libération Diamond clock xml netvibes live anciens-numeros data desintox diapo edito election-2017 election essentiel generique idee jo next portrait radio son alerte top-100 star une video scroll Facebook Whatsapp Twitter insta vine later glass Mail print Facebook Instagram Twitter Calendar download cross zoom-in zoom-out previous next truck visa mastercard user-libe user-doc user-doc-list user-mail user-security user-settings user-shop user-star Ruban abo Losange orange List check Most read Ptit Libé sport blog voyage
    Etat des lieux

    Intelligence artificielle : hémisphères en surchauffe

    Par Christophe Alix et Erwan Cario
    «Freefall», de Cyril Diagne (en résidence à l’institut culturel de Google), réalisé à partir des œuvres d’art numérisées par le géant.
    «Freefall», de Cyril Diagne (en résidence à l’institut culturel de Google), réalisé à partir des œuvres d’art numérisées par le géant. Capture Google Arts and Culture Experiments

    Loin devant tous les autres, Facebook et Google investissent massivement dans l’intelligence artificielle et partagent leur connaissance pour permettre au secteur de progresser plus vite. Etat des lieux de la recherche fondamentale et appliquée.

    La course aux armements de l’intelligence artificielle (IA) est lancée. Les Gafa (Google, Apple, Facebook, Amazon) et, moins connus, le «BAT» chinois (Baidu, Alibaba, Tencent) s’y sont engouffrés : ils investissent et rachètent des start-up à tour de bras, recrutent à prix d’or des chercheurs et multiplient les laboratoires de recherche. Mais ces géants restent généralement plutôt discrets sur leurs activités de R&D dans cette discipline devenue l’objet de tous les fantasmes. Tout récemment, Google et Facebook ont pris les devants dans leurs antennes parisiennes afin d’expliquer où ils allaient et ce qu’ils cherchaient en matière d’IA. Au moment où la France, dans la foulée des Etats-Unis, de la Chine ou encore de la Corée du Sud, vient de se doter d’un plan «France IA» avec une enveloppe globale de 1,5 milliard d’euros sur dix ans dans le cadre du programme d’investissements d’avenir, les deux géants du numérique ont sorti de leurs labos leurs meilleurs chercheurs. Une opération de démystification afin d’exposer leurs applications nourries à l’IA qui tournent déjà sur des millions de machines sans que leurs utilisateurs le sachent et leur stratégie dans un domaine où même les plus puissants continuent de tâtonner.

    Impossible rattrapage. Premier constat, l’IA mobilise chez Google et Facebook des équipes de recherche fondamentale dont la taille croissante en fait des «mini-CNRS» éclatés à travers le globe. Google, où au total «2 000 ingénieurs travaillant de près ou de loin sur l’IA», compte deux grands labos d’intelligence artificielle en dehors des Etats-Unis à Zurich en Suisse et Bangalore, en Inde. Facebook qui a ouvert à Paris le «Fair», son laboratoire européen dédié à l’IA, compte également des équipes à New York et dans son siège de Menlo Park, dans la Silicon Valley. De nombreuses voix s’inquiètent déjà d’un rattrapage devenu impossible, tant les moyens déployés par les Gafa pour devenir les premières «IA compagnies» au monde (près de 10 milliards de dollars d’investissements en R&D et rachats en 2015) sont sans commune mesure avec ce qui se fait ailleurs. D’où le risque de constitution de nouvelles formes de monopoles intellectuels.

    Deuxième point commun, cette recherche fondamentale se veut «ouverte», autrement dit ses résultats sont en libre accès même si dans la pratique tout n’est pas partagé. «Notre but, explique Emmanuel Mogenet à la tête du labo d’IA de Google à Zurich, c’est de faire progresser la recherche mais aussi que les équipes produits de Google puissent s’acculturer à cette nouvelle donne.» Enfin, les deux géants dont les spectaculaires progrès récents sont rendus possibles par une conjonction de trois facteurs - accumulation de données disponibles, puissance de calcul à disposition et progrès méthodologiques dans la conception des algorithmes - ont en commun de travailler sur les mêmes sujets (à l’exception de la voiture autonome qui n’intéresse pas Facebook) : l’analyse d’images et la reconnaissance vocale, la robotique et surtout l’éverest qu’est la compréhension du langage naturel. De quoi ouvrir la voie à des assistants virtuels réellement intelligents et autonomes, dotés de ce «sens commun» qui fait encore toute la différence entre les humains et les machines.

    Alliance. Avec quelques autres géants de la tech (IBM, Microsoft, Amazon, Apple, etc.), Google et Facebook ont créé à la fin 2016 «l’alliance IA», une sorte de forum permanent ouvert à tous (assurent-ils), où l’on discute et réfléchit aux bonnes pratiques, notamment éthiques, à promouvoir dans l’IA. C’est ce que racontent ces chercheurs, qui, comme le dit Laurence Devillers, professeure à l’université Paris IV-Sorbonne et chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (Limsi) du CNRS, doivent se garder de jouer les apprentis sorciers. «Avec des données et des algorithmes pris sur étagères, on risque de faire de la bêtise artificielle», met-elle en garde.

    Passage en revue de l’état de l’art de l’intelligence artificielle, où l’on découvre que ce que l’on comprend et sait faire faire aux machines est encore infiniment petit à côté de ce que qui reste incompréhensible et inconnu.

    Reconnaissance visuelle et traduction : déjà des acquis

    L’IA est une réalité dans nombre de fonctionnalités de Google et Facebook. Chez le leader des réseaux sociaux, 1,5 milliard de photos sont moulinées chaque jour par ce biais. Même s’ils en sont à leurs balbutiements, les chatbots («agents conversationnels») déployés sur son application Messenger permettent de tester de nouveaux services comme la réservation de billets avec la SNCF. Depuis le début de l’année, Facebook propose aussi le sous-titrage automatique des vidéos grâce à la reconnaissance vocale. Sous la pression d’Amazon qui fait la course en tête dans le domaine des assistants personnels vocaux, Google met également les bouchées doubles pour passer, comme l’a dit son directeur général Sundar Pichai, d’un «monde centré autour du mobile à un monde centré autour de l’IA».

    Au sein du groupe, tous les produits utilisent du machine learning : d’abord pour la reconnaissance des messages indésirables dans Gmail, puis dans le moteur de recommandation pour suggérer des vidéos sur YouTube. Mais c’est avec son outil de traduction que Google a obtenu les résultats les plus spectaculaires. Comme le dit Olivier Bousquet, du laboratoire de recherche zurichois, «le programme a appris tout seul à passer d’une langue à l’autre. On ne lui a appris que quelques paires de langues et il en a déduit les autres, créant une sorte d’espéranto tout seul». En accès libre, le système d’intelligence artificielle de Google, TensorFlow, est notamment utilisé pour le moteur de recherche via «rank brain». Lorsqu’il fait face à une phrase qu’il ne connaît pas, cet algorithme peut en deviner le sens grâce à des phrases ou des mots similaires. Au lieu d’être préprogrammé pour répondre aux requêtes de manière prédéterminée, il s’enrichit avec le temps. En partageant ses travaux, Google fait le pari que les enrichissements apportés par des tiers permettront d’améliorer en retour ses produits. Grâce à l’IA du géant, Airbus a pu faire progresser la reconnaissance satellitaire : le taux d’erreur est tombé à 3 %, contre 10 % pour les humains.

    Un bond fulgurant dans l’apprentissage grâce au «deep learning»…

    L’intelligence artificielle est un domaine très vaste de l’informatique composé de multiples disciplines qui tendent toutes vers un but commun : permettre à la machine de résoudre des problèmes complexes mettant en jeu un grand nombre de données. Si l’IA est revenue ces dernières années sur le devant de la scène technologique, au point de devenir une obsession pour les grands groupes du numérique, c’est qu’une de ses disciplines a connu des progrès fulgurants : l’apprentissage profond, ou deep learning.

    Il s’agit de permettre à un réseau de neurones artificiels (profond, car composé de plusieurs «couches» de neurones) d’apprendre à effectuer une tâche en le faisant travailler sur un vaste ensemble de données. Les résultats sont spectaculaires lorsqu’il s’agit d’un apprentissage supervisé, c’est-à-dire que les données fournies sont organisées et renseignées au préalable. Pour apprendre à reconnaître un chat, on va donner des milliers d’images de chats ; pour apprendre à traduire d’une langue à une autre, on va apporter des textes déjà traduits dans les deux langues (comme les textes officiels des Nations unies) ; pour apprendre à jouer au go, on utilise des bases de données de parties de maîtres. La méthodologie existe depuis la fin du XXe siècle, notamment grâce aux travaux du Français Yann Lecun, en charge du sujet chez Facebook. Mais ce n’est qu’à partir de 2012, grâce à l’augmentation de la puissance de calcul venue de l’utilisation de processeurs généralement dédiés à l’affichage graphique (les GPU), que le deep learning a commencé à faire ses preuves. Son efficacité n’a fait que croître avec le temps, avec notamment la victoire d’AlphaGo, développé par la filiale de Google DeepMind, sur le champion de go coréen Lee Sedol.

     … au point qu’on ne parvient plus à suivre le fil des «pensées» de la machine

    Si les réseaux de neurones profonds fascinent autant, c’est bien sûr parce qu’ils obtiennent des résultats impressionnants. Mais c’est aussi parce que, à l’instar du cerveau humain, on ne sait dire avec exactitude comment ils fonctionnent. Quand il est en phase d’apprentissage, à chaque confrontation avec un nouvel ensemble de données, le réseau modifie sa propre configuration pour pouvoir faire correspondre les données en entrée (une image, par exemple) avec les éléments en sortie qu’on attend de lui (les éléments qu’on distingue dans cette image). Mais il ne s’agit pas d’un tableau Excel qu’on peut manipuler sur son ordinateur puisque ces matrices peuvent contenir plusieurs milliards de paramètres. Et il est impossible, même pour le développeur du réseau de neurones, de savoir à quel type d’information correspond tel ou tel paramètre. Une fois que le programme a fini son apprentissage et que l’on obtient les résultats escomptés, on est ravi mais on se trouve face à un ensemble de nombres qu’on ne peut pas déchiffrer. Une inconnue appelée la «boîte noire», qui n’a rien d’un sujet anodin car la fiabilité constatée des réseaux de neurones reste pour l’instant purement empirique et ne peut être validée de manière théorique.

    Quand il s’agit de reconnaître des robes de mariée sur une base de données, une erreur ne prête pas à conséquence, mais si on veut appliquer ces technologies dans des domaines plus sensibles, comme les voitures autonomes, il faut pouvoir garantir des réponses pertinentes, et, surtout, comprendre l’origine d’éventuelles erreurs. La boîte noire est donc la cible de toutes les attentions et de nombreux chercheurs essaient d’élaborer des outils d’analyse pour la décrypter. Pour Yann Le Cun, de Facebook, cette opacité n’est pas forcément un frein : «Entre un système explicable peu performant et un système non-explicable qui en a une meilleure, les gens vont toujours choisir le second. A la fin, on veut surtout mesurer la fiabilité au niveau statistique.»

    La conversation à ses balbutiements

    Depuis AlphaGo, le monde de l’économie numérique s’est emballé. L’intelligence artificielle semble être devenue l’alpha et l’oméga du progrès technologique. Au point même que Google se définit aujourd’hui comme une «société centrée sur l’IA». De quoi donner du grain à moudre aux transhumanistes qui fantasment sur l’avènement d’une intelligence artificielle supérieure. Pourtant, quand on y regarde de plus près, il y a du boulot ! Les résultats actuels, présentés à juste titre comme révolutionnaires, sont majoritairement issus de l’apprentissage supervisé, c’est-à-dire des algorithmes qui bossent sur des ensembles de données très précis devant être créés en amont par des petites mains humaines. Et le champ d’application d’un tel apprentissage est forcément restreint. Les systèmes de conversation intelligents, par exemple, auraient besoin, pour être performants et s’adapter, d’un apprentissage non supervisé ou semi-supervisé. Yann Lecun en a conscience : «C’est un des domaines dans lequel la science et la technologie sont très en retard par rapport à l’attente des gens. L’état des technologies est très en deçà de ce dont on aurait besoin. Les agents intelligents qui existent déjà fonctionnent avec des scénarios scriptés. On n’a pas de robots suffisamment intelligents pour interagir de manière non frustrante avec une personne. C’est un des gros défis des années qui viennent.»

    Mais il reste optimiste en tant que chercheur : «C’est à peu près clair qu’on réussira à produire des agents intelligents. Mais on ne sait pas combien de temps ça va prendre, et on ne connaît pas encore les obstacles qui se dresseront sur notre chemin. L’histoire de l’intelligence artificielle est une succession de promesses qui n’ont pas été tenues. On est donc devenus plus prudents.»

    Christophe Alix , Erwan Cario
    Un mot à ajouter ?