Search Direct User 100 Zoom Quiz ? Libération Diamond clock xml netvibes live anciens-numeros data desintox diapo edito election-2017 election essentiel generique idee jo next portrait radio son alerte top-100 star une video scroll Facebook Whatsapp Twitter insta vine later glass Mail print Facebook Instagram Twitter Calendar download cross zoom-in zoom-out previous next truck visa mastercard user-libe user-doc user-doc-list user-mail user-security user-settings user-shop user-star Ruban abo Losange orange List check Most read Ptit Libé sport blog voyage
    Machine

    Robots tueurs : soudés pour dessouder

    Par Erwan Cario
    Un système d'autodéfense laser autonome.
    Un système d'autodéfense laser autonome. Photo DR

    Après la publication d’une lettre ouverte d’experts de l’intelligence artificielle appelant l’ONU à agir pour encadrer le développement des robots armés, la question se fait de plus en plus pressante.

    Les robots tueurs, on les connaît bien. Ils ont une sale tête toute métallique, ils tirent sur les gentils et quoi qu’on fasse, ils reviendront. Ils peuplent notre imaginaire, et c’est peut-être parce qu’on ne conçoit pas qu’ils puissent un jour en sortir que la première lettre ouverte sur le sujet, en 2015, n’a pas suffi. Et ce, malgré l’aura intellectuelle et médiatique de signataires comme Stephen Hawking, Elon Musk, Noam Chomsky ou Steve Wozniak. Le week-end dernier, les acteurs du secteur de l’intelligence artificielle (IA) ont donc une nouvelle fois tiré le signal d’alarme. Et appelé à l’indispensable réglementation de ces machines officiellement dénommées «armes létales autonomes». Dans une lettre ouverte, cette fois spécifiquement adressée aux Nations unies, plus d’une centaine d’industriels et de chercheurs regrettent à ce sujet le retard pris par le groupement d’experts gouvernementaux qui devaient se réunir lundi sur le sujet mais dont la première réunion a été reportée à novembre.

    Les robots tueurs dont on parle n’ont bien sûr rien à voir avec le Terminator. Il s’agit plus simplement de machines armées capables de se déplacer et de prendre seules, en fonction d’un algorithme interne, la décision d’éliminer ou non une cible qui se présente à elle. Et pour les signataires du texte porté par le Future of Life Institute, il y a urgence à encadrer leur développement : «Une fois développées, ces armes permettront aux conflits armés d’avoir lieu à une échelle plus grande que jamais, et dans un temps trop rapide pour que les humains puissent l’appréhender. Elles peuvent devenir des armes de terreur, des armes que les dictateurs et les terroristes pourront utiliser contre des populations innocentes, et il sera possible de les pirater pour qu’elles se comportent de manière indésirable. Nous n’avons pas beaucoup de temps pour agir. Une fois cette boîte de Pandore ouverte, elle sera difficile à refermer.» Après la poudre et le nucléaire, ces armes pourraient «amorcer la troisième révolution de la guerre».

    «Échelle sans précédent»

    Charles Ollion, responsable scientifique et cofondateur de Heuritech, start-up parisienne qui applique la reconnaissance d’images au secteur de la mode, fait partie des signataires. Il s’alarme avant tout de cette délégation à la machine du pouvoir de tuer : «Il n’y a pas un danger propre à l’intelligence artificielle et je ne pense pas qu’on risque de voir débarquer des robots hors de contrôle dotés d’une volonté propre. Mais avec des armes autonomes, la décision de tuer pourrait devenir un acte presque banal. C’est scandaleux et ça peut arriver vite, et à une échelle sans précédent.» Pour Raphaël Cherrier, lui aussi signataire, l’urgence vient surtout de la différence d’échelle de temps entre le progrès technologique et la décision politique. «Entre le moment où le premier robot va arriver, et celui où la techno proliférera, ça ira extrêmement vite, explique le fondateur et PDG de Qucit, entreprise bordelaise d’intelligence artificielle appliquée à l’urbanisme. Et il faudra que la prise conscience politique au niveau internationale ait déjà eu lieu.» D’autant que, selon lui, il sera impossible d’endiguer la prolifération de ces robots : «On parle d’armes qui seront composées d’une partie logicielle, qu’on peut copier instantanément, et d’une partie matérielle qui ne sera pas très compliquée à produire.»

    Le compte à rebours à donc commencé, mais impossible de savoir combien de temps il reste aux Nations unies avant d’être dépassées par les événements. «Il y a un grand nombre d’obstacles technologiques et scientifiques à dépasser pour y arriver, analyse Raoul de Charette, chercheur en vision par ordinateur à l’Inria Paris. On en prend le chemin, mais ce n’est pas pour un futur extrêmement proche.» Et le scientifique de préciser : «Je vois surtout deux problèmes majeurs. D’une part la perception dans un environnement de guerre, détruit, avec une géométrie chaotique. On n’a pas encore la capacité de reconstruire et d’analyser tout ça. D’autre part, il va falloir gérer la fenêtre temporelle assez grande de ces opérations. C’est-à-dire que l’IA devra concevoir un vrai plan dans le temps, comme le fait d’entrer dans un bâtiment, d’explorer quelques pièces et de ressortir. C’est très complexe à échafauder pour une machine.»

    Jérôme Monceau a cofondé en 2005 Aldebaran Robotics (devenue Softbank Robotics après son rachat), société pionnière dans la robotique humanoïde. Il a ensuite créé Spoon.ai, start-up spécialisée dans les interactions humains-robots. Il a signé la lettre car il se passionne depuis longtemps pour l’aspect éthique du développement des robots et qu’il s’agit pour lui d’une dérive inacceptable : «Comment peut-on imaginer qu’une machine puisse ôter la vie sans intervention humaine !? La mise en place de cette technologie rendrait la guerre complètement irresponsable, dans le sens où on ne pourrait plus remonter la chaîne de responsabilité de la décision de tirer sur une personne. Sans même parler de toutes les situations de dysfonctionnement et de détournement qui ne manqueront pas de se produire.» On imagine assez bien la situation où une flotte de drones autonomes débarque sans qu’on puisse déterminer son origine. Qui poursuivre ? Qui condamner ?

    Angoisse bien connue

    Le sujet des robots tueurs n’est pas le seul sujet éthique qui agite le secteur de l’intelligence artificielle. Réunis début 2017 au sud de San Francisco, plusieurs dizaines de chercheurs renommés se sont réunis autour du thème de l’IA «bénéfique». Ils ont élaboré une charte appelée les «principes IA d’Asilomar» de vingt-trois points concernant les évolutions de la recherche. Aux côtés de grands axes, comme le bien commun, le respect des droits de l’homme et de la vie privée, le 18e point établit : «Une course à l’armement des armes létales autonomes doit être évitée.»

    Mais derrière ces appels à répétition et toute cette énergie déployée par de brillants cerveaux, on ne peut s’empêcher de lire une angoisse bien connue : celle du scientifique mû par un idéal de progrès qui redoute de voir sa créature lui échapper. Ce ne sera pas la première fois.

    «La lettre ouverte fait état d’une boîte de Pandore impossible à fermer, observe Raoul de Charette. Mais cette boîte est déjà ouverte. De nombreuses entreprises travaillent déjà sur ce sujet. Et la recherche sur les robots autonomes militaires est intimement liée à tous les autres aspects de l’autonomie en IA. En produisant les véhicules Tesla, Elon Musk aide l’armée à progresser sur ses propres armes.»

    Erwan Cario
    pas le temps de lire ?

    Recevez un débrief de la journée et un briefing tous les matins.

    Un mot à ajouter ?