« Google a toujours été une entreprise d’intelligence artificielle »
Partager
Tweeter

« Google a toujours été une entreprise d’intelligence artificielle »

Greg Corrado, cofondateur du projet Google Brain, détaille les progrès importants des technologies d’apprentissage des machines et la façon dont elles changent Google et façonnent son avenir.

Le Monde | • Mis à jour le | Propos recueillis par

Greg Corrado, cofondateur du projet Google Brain.

L’Américain Greg Corrado a cofondé en 2011 le projet Google Brain, consacré à l’apprentissage des machines (« machine learning ») et plus particulièrement au « deep learning », une technologie qui a permis d’importants progrès ces dernières années dans le domaine de l’intelligence artificielle. Alors que Google vient d’annoncer, jeudi 16 juin, le lancement d’une équipe de recherche spécialisée dans le « machine learning » en Europe, à Zürich, Greg Corrado revient sur la façon dont ces avancées ont changé Google et façonnent son avenir.

Qu’est-ce que le deep learning a changé chez Google ? Y a-t-il eu un avant et un après ?

Greg Corrado : Google a toujours été une entreprise d’intelligence artificielle, dès le début. Sa mission d’organiser l’information mondiale, de la rendre accessible et utile, c’est un objectif d’intelligence artificielle. Ce que le deep learning a fait, c’est qu’il a changé la façon dont les machines apprennent. Si l’amélioration est relativement modeste pour la recherche, elle est immense pour la reconnaissance vocale ou la reconnaissance des images. Cela nous permet de proposer de nouveaux produits que nous n’aurions pas été en mesure d’offrir avant, comme Smart Replies [une fonctionnalité qui rédige automatiquement une réponse à la place de l’utilisateur].

Jusqu’où peut aller le « deep learning » ? Cette technologie a-t-elle des limites ?

Il y en a, c’est certain. Nous ne devons jamais faire l’erreur de croire que l’approche technologique qui fonctionne aujourd’hui fonctionnera toujours. C’est pourquoi il nous paraît si important de financer de nouveaux travaux de recherche, car nous ne savons pas quelles sont les idées qui se révéleront cruciales dans vingt ou trente ans. Il est peu probable que cela ressemble aux types de systèmes que nous avons aujourd’hui.

Google a réussi en mars l’exploit symbolique de battre l’humain au jeu de go, grâce à son programme AlphaGo, basé entre autres sur le « deep learning ». Quelle est la prochaine grande étape à laquelle on peut s’attendre ?

Celle que j’espère avec une grande excitation est la traduction automatique parfaite du langage naturel. J’adorerais voir arriver ce moment où l’on aurait le sentiment de pouvoir parler couramment n’importe quelle langue...

Lire aussi :   Le meilleur joueur mondial de go battu par une intelligence artificielle dans un match symbolique

Où en est-on concrètement aujourd’hui dans le domaine de la traduction automatique, et du langage en général ?

La reconnaissance vocale, quand il s’agit d’une langue très parlée, fonctionne très bien, même pour quelqu’un avec un accent, ce qui n’était pas le cas il y a deux ou trois ans. Aujourd’hui, nous travaillons sur les langues moins utilisées, et cela nous prend du temps, car nous avons moins de données à disposition. Quant à la traduction automatique, ce n’est pas mal, mais ce n’est pas encore génial.

Concernant la conversation, pour construire un assistant qui marche bien, il faut que vous puissiez lui parler de façon naturelle – et ça commence. Si vous lui demandez « de quelle longueur est cette rivière ? », il saura de quelle rivière vous parlez. Pour qu’il fonctionne parfaitement, ce système devrait être capable de poser des questions, de soulever des problèmes, comme quand vous lui demandez de faire une réservation mais que l’horaire demandé n’est plus disponible. Pour l’instant, c’est de la science-fiction, aucun système n’est capable de le faire. Mais on peut imaginer que ce sera possible d’ici à cinq ans.

Lire aussi :   Intelligence artificielle : une machine est-elle capable de philosopher ?

Que rêvez-vous de réaliser un jour dans le domaine de l’intelligence artificielle ?

C’est très difficile de l’imaginer aujourd’hui, car nous venons de traverser des bouleversements si fantastiques. Une grande partie des produits que nous utilisons maintenant, je n’en aurais jamais rêvé quand j’étais étudiant. C’est pourquoi je pense qu’avant de laisser libre cours à notre imagination, nous devrions peut-être d’abord prendre quelques années pour nous adapter à ces nouvelles possibilités. Je ne veux pas surestimer ce que nous pouvons faire.

Il y a des annonces tous les jours de Google, de Facebook, d’IBM... Ne redoutez-vous pas un nouvel « hiver de l’intelligence artificielle », cette période de déception et de coupes budgétaires qui avait suivi les grands espoirs des années 1970 et 1980 ?

Je pense qu’à l’époque, les gens avaient commencé à avancer sur certains problèmes de l’intelligence artificielle, mais qu’ils ont fait des promesses qu’ils n’ont pas pu tenir. Ils n’ont pas vu venir le problème de la puissance des ordinateurs, qui était très loin d’être suffisante pour les choses qu’ils avaient imaginées. Leurs idées étaient en avance sur leur temps. Il y a souvent une période de grands progrès, puis une période d’adaptation dans la technologie. Parfois les choses ne progressent pas comme on s’y attend. On ne veut pas faire les mêmes erreurs.

Vous pensez donc que les progrès de l’intelligence artificielle ralentiront ces prochaines années…

C’est possible, même si je pense qu’il est aussi très probable que cela continue à progresser. Je ne veux juste pas compter sur une accélération de ces progrès. La clé est maintenant, je pense, de faire en sorte que de plus en plus de personnes s’intéressent à ce domaine et l’explorent.

Certaines personnalités, comme Elon Musk ou Stephen Hawking, ainsi que de nombreux chercheurs en intelligence artificielle ont fait part de leurs inquiétudes concernant les dangers potentiels de ces technologies. Que fait Google pour répondre à ces interrogations ?

Le plus important, quand on en vient aux questions d’éthique et de securité, est d’avoir une discussion ouverte à ce sujet. C’est pour cela que chez Google nous publions nos articles, afin de travailler avec d’autres chercheurs sur des problèmes d’ingenierie, mais aussi pour être transparents vis-à-vis les décideurs politiques.

Lire aussi :   Des scientifiques américains s'inquiètent de l'évolution de l'intelligence artificielle

Ce n’est pas très concret...

Ce qui est concret, c’est de publier, de partager avec la communauté de chercheurs. Il y aura de plus en plus de publications avec le temps. Nous sommes des ingénieurs et des scientifiques : nous pouvons donner notre avis sur l’ingénierie et la science. Mais la politique, la législation ? Cela appartient à la société dans son ensemble. Nous voulons juste participer à cette discussion. C’est le rôle des gouvernements et des politiques d’observer ces choses et d’évaluer l’impact qu’elles auront sur la société. Le pouvoir de prendre ces décisions ne devrait jamais être concentré dans les mains d’une entreprise privée.

Découvrez la newsletter Pixels

Chaque semaine, retrouvez l’essentiel de l’actualité « techno » en vous inscrivant à la newsletter Pixels.

Votre adresse email nous sert à vous adresser les newsletters qui vous intéressent. Vous disposez d'un droit d'accès, de rectification et d'opposition aux données vous concernant en vous connectant à votre compte.