? Menu Libération Connexion Abonnement Robots tueurs : soudés pour dessouder «Aquarius», Iran, hackers. . . , les articles que vous auriez pu rater cette semaine 6 janvier 2018 à 17:11 Caroline Fourest : «Les "Je ne suis pas Charlie" finiront comme tous les perdants de l’histoire» 6 janvier 2018 à 15:13 Jean Baubérot : «Le droit au blasphème ne s’applique pas qu’au discours à l’égard des religions» 6 janvier 2018 à 15:50 «Aquarius» : La Libye, d’un nouveau départ à un nouvel exil 6 janvier 2018 à 15:22 A bord de l'Aquarius: un naufrage avec le son, sans l’image 6 janvier 2018 à 18:56 Vexé par les critiques, Donald Trump se qualifie de «génie très stable» 6 janvier 2018 à 17:20 Quoi de neuf en 2018 ? Rien, merci 6 janvier 2018 à 11:50 La Corée du Nord pourrait participer aux JO en Corée du Sud 6 janvier 2018 à 10:10 10 degrés de trop en Europe, 23 millions de chiffres et un gros tas de poussière 6 janvier 2018 à 17:00 Le bitcoin, une monnaie qui tourne au charbon 5 janvier 2018 à 12:08 Au bureau, les économies d'énergies se nichent dans les pièces jointes 5 janvier 2018 à 10:03 L'administration Trump ouvre les vannes du forage offshore 4 janvier 2018 à 23:44 Jean-Pierre Filiu : «Les dictateurs arabes, comme les mamelouks, imposent une domination militaire» 5 janvier 2018 à 19:06 Fabien Truong: «Dans certains quartiers, la question de la haine de soi est très forte» 4 janvier 2018 à 17:36 Lahire, la sociologie à l’assaut de Freud 3 janvier 2018 à 19:56 Liberté de création : ne nous trompons pas de combat ! 3 janvier 2018 à 18:36 La recette du week-end: ni roi, ni fève mais une galette flamande 6 janvier 2018 à 11:02 Parce qu'ils étaient Juifs 5 janvier 2018 à 15:07 En prison, Pommerat brise le quatrième mur 4 janvier 2018 à 17:36 Holy Two, Daniel Alexander, Mou. . . la playlist du cahier musique de «Libé» 5 janvier 2018 à 15:02 Abonnement 100% numérique A partir de 1€ le premier mois Formule Intégrale Libération en version papier et numérique Èvénements Le Grand Paris bouge-t-il ? Mardi 6 février Voyage au cœur de l'IA Mercredi 24 janvier Travail : la réforme expliquée par les experts Vendredi 19 janvier La Boutique Unes en affiches Les unes cultes en tirage photo Relire Libé Commander des anciens numéros info / Machine Robots tueurs : soudés pour dessouder Par Erwan Cario — 24 août 2017 à 20:36 Un système d'autodéfense laser autonome. Un système d'autodéfense laser autonome. Photo DR Après la publication d’une lettre ouverte d’experts de l’intelligence artificielle appelant l’ONU à agir pour encadrer le développement des robots armés, la question se fait de plus en plus pressante. Les robots tueurs, on les connaît bien. Ils ont une sale tête toute métallique, ils tirent sur les gentils et quoi qu’on fasse, ils reviendront. Ils peuplent notre imaginaire, et c’est peut-être parce qu’on ne conçoit pas qu’ils puissent un jour en sortir que la première lettre ouverte sur le sujet, en 2015, n’a pas suffi. Et ce, malgré l’aura intellectuelle et médiatique de signataires comme Stephen Hawking, Elon Musk, Noam Chomsky ou Steve Wozniak. Le week-end dernier, les acteurs du secteur de l’intelligence artificielle (IA) ont donc une nouvelle fois tiré le signal d’alarme. Et appelé à l’indispensable réglementation de ces machines officiellement dénommées «armes létales autonomes». Dans une lettre ouverte, cette fois spécifiquement adressée aux Nations unies, plus d’une centaine d’industriels et de chercheurs regrettent à ce sujet le retard pris par le groupement d’experts gouvernementaux qui devaient se réunir lundi sur le sujet mais dont la première réunion a été reportée à novembre. Les robots tueurs dont on parle n’ont bien sûr rien à voir avec le Terminator. Il s’agit plus simplement de machines armées capables de se déplacer et de prendre seules, en fonction d’un algorithme interne, la décision d’éliminer ou non une cible qui se présente à elle. Et pour les signataires du texte porté par le Future of Life Institute, il y a urgence à encadrer leur développement : «Une fois développées, ces armes permettront aux conflits armés d’avoir lieu à une échelle plus grande que jamais, et dans un temps trop rapide pour que les humains puissent l’appréhender. Elles peuvent devenir des armes de terreur, des armes que les dictateurs et les terroristes pourront utiliser contre des populations innocentes, et il sera possible de les pirater pour qu’elles se comportent de manière indésirable. Nous n’avons pas beaucoup de temps pour agir. Une fois cette boîte de Pandore ouverte, elle sera difficile à refermer. » Après la poudre et le nucléaire, ces armes pourraient «amorcer la troisième révolution de la guerre». «Échelle sans précédent» Charles Ollion, responsable scientifique et cofondateur de Heuritech, start-up parisienne qui applique la reconnaissance d’images au secteur de la mode, fait partie des signataires. Il s’alarme avant tout de cette délégation à la machine du pouvoir de tuer : «Il n’y a pas un danger propre à l’intelligence artificielle et je ne pense pas qu’on risque de voir débarquer des robots hors de contrôle dotés d’une volonté propre. Mais avec des armes autonomes, la décision de tuer pourrait devenir un acte presque banal. C’est scandaleux et ça peut arriver vite, et à une échelle sans précédent. » Pour Raphaël Cherrier, lui aussi signataire, l’urgence vient surtout de la différence d’échelle de temps entre le progrès technologique et la décision politique. «Entre le moment où le premier robot va arriver, et celui où la techno proliférera, ça ira extrêmement vite, explique le fondateur et PDG de Qucit, entreprise bordelaise d’intelligence artificielle appliquée à l’urbanisme. Et il faudra que la prise conscience politique au niveau internationale ait déjà eu lieu. » D’autant que, selon lui, il sera impossible d’endiguer la prolifération de ces robots : «On parle d’armes qui seront composées d’une partie logicielle, qu’on peut copier instantanément, et d’une partie matérielle qui ne sera pas très compliquée à produire. » Le compte à rebours à donc commencé, mais impossible de savoir combien de temps il reste aux Nations unies avant d’être dépassées par les événements. «Il y a un grand nombre d’obstacles technologiques et scientifiques à dépasser pour y arriver, analyse Raoul de Charette, chercheur en vision par ordinateur à l’Inria Paris. On en prend le chemin, mais ce n’est pas pour un futur extrêmement proche. » Et le scientifique de préciser : «Je vois surtout deux problèmes majeurs. D’une part la perception dans un environnement de guerre, détruit, avec une géométrie chaotique. On n’a pas encore la capacité de reconstruire et d’analyser tout ça. D’autre part, il va falloir gérer la fenêtre temporelle assez grande de ces opérations. C’est-à-dire que l’IA devra concevoir un vrai plan dans le temps, comme le fait d’entrer dans un bâtiment, d’explorer quelques pièces et de ressortir. C’est très complexe à échafauder pour une machine. » Jérôme Monceau a cofondé en 2005 Aldebaran Robotics (devenue Softbank Robotics après son rachat), société pionnière dans la robotique humanoïde. Il a ensuite créé Spoon. ai, start-up spécialisée dans les interactions humains-robots. Il a signé la lettre car il se passionne depuis longtemps pour l’aspect éthique du développement des robots et qu’il s’agit pour lui d’une dérive inacceptable : «Comment peut-on imaginer qu’une machine puisse ôter la vie sans intervention humaine ! ? La mise en place de cette technologie rendrait la guerre complètement irresponsable, dans le sens où on ne pourrait plus remonter la chaîne de responsabilité de la décision de tirer sur une personne. Sans même parler de toutes les situations de dysfonctionnement et de détournement qui ne manqueront pas de se produire. » On imagine assez bien la situation où une flotte de drones autonomes débarque sans qu’on puisse déterminer son origine. Qui poursuivre ? Qui condamner ? Angoisse bien connue Le sujet des robots tueurs n’est pas le seul sujet éthique qui agite le secteur de l’intelligence artificielle. Réunis début 2017 au sud de San Francisco, plusieurs dizaines de chercheurs renommés se sont réunis autour du thème de l’IA «bénéfique». Ils ont élaboré une charte appelée les «principes IA d’Asilomar» de vingt-trois points concernant les évolutions de la recherche. Aux côtés de grands axes, comme le bien commun, le respect des droits de l’homme et de la vie privée, le 18^e point établit : «Une course à l’armement des armes létales autonomes doit être évitée. » Mais derrière ces appels à répétition et toute cette énergie déployée par de brillants cerveaux, on ne peut s’empêcher de lire une angoisse bien connue : celle du scientifique mû par un idéal de progrès qui redoute de voir sa créature lui échapper. Ce ne sera pas la première fois. «La lettre ouverte fait état d’une boîte de Pandore impossible à fermer, observe Raoul de Charette. Mais cette boîte est déjà ouverte. De nombreuses entreprises travaillent déjà sur ce sujet. Et la recherche sur les robots autonomes militaires est intimement liée à tous les autres aspects de l’autonomie en IA. En produisant les véhicules Tesla, Elon Musk aide l’armée à progresser sur ses propres armes. » Erwan Cario partager tweeter Vous êtes abonné à Libération Le journal d'aujourd'hui Offre 100% numérique: 1 € le premier mois Le journal du jour en exclusivité et le journal de demain avant tout le monde Voir les offres d’abonnement Après cet article 00] Edito Robots tueurs: Urgence partager tweeter Aucun commentaire pas le temps de lire ? Recevez un débrief de la journée et un briefing tous les matins. Edito Robots tueurs: Urgence La volonté d’épargner les hommes va-t-elle nous conduire à donner le pouvoir aux machines ? La question, aujourd’hui, ne relève plus de la science-fiction. . . . [1049471-hagel-is-briefed-on-the-defense-advanced-research-projects Cyberattaque Le spectre du robot incontrôlable Outre les problèmes philosophiques que posent les robots, la perspective d’un piratage effraie. [1049476-a-model-of-an-insect-size-us-air-force-drone-is-held-by-a- Robots tueurs Encadrement nécessaire ou prématuré ? Un groupe d’experts gouvernementaux discute d’un cadre pour l’utilisation des armes autonomes, avant même que celles-ci ne soient en service. Des travaux qui ont pris du retard mais sont pourtant indispensables, selon certains spécialistes. [1049474-afghan-residents-look-at-a-robot-during-a-road-clearance-p Robots tueurs L’armée américaine à l’avant-garde Convaincu que la guerre du futur se gagnera avec les armes autonomes, Washington met le paquet. Derrière, Pékin et Moscou tentent de suivre. Blind Date (7/7) Catherine Deneuve : «C’est si vivant et ancré dans le réel, un jardin ! » Intriguée par les méthodes de Perrine et Charles Hervé-Gruyer, pionniers de la permaculture, l’actrice à la main verte est partie à leur rencontre. Echange prolifique dans une forêt-jardin normande, entre cochons et tétragone cornue. Interview Orhan Pamuk : «Je suis Mevlut quand il marche seul au milieu de la nuit» Rencontre avec l'écrivain turc. Disparition Brian Aldiss, fin de l'escale L'écrivain et essayiste britannique, légende de la science-fiction, est mort le 19 août à 92 ans. Les frères d’arbres de Marie Darrieussecq Monologue venu de la forêt où humains et clones ont fui un nouveau Big Brother. Tribune La République en marche arrière La «révolution» de LREM semble mal partie. On assiste plus à une conduite vieillotte des affaires publiques qu’à une rénovation de la démocratie. [618988-apple-computer-shown-as-google-introduces-buzz-in-mountain- Tribune Discours haineux, liberté d'expression : la Silicon Valley sort de sa neutralité Sur les réseaux sociaux, faut-il réguler les propos incitant à la haine ou préserver la liberté d’expression ? La résolution de ce débat nécessite l’implication des géants du numérique. Vous êtes abonné à Libération Le journal d'aujourd'hui Offre 100% numérique: 1 € le premier mois Consultation illimitée sur tous les supports Voir les offres d’abonnement Un mot à ajouter ? Quantcast