? Menu Libération Connexion Abonnement Robots tueurs, carnage mécanique «Aquarius», Iran, hackers. . . , les articles que vous auriez pu rater cette semaine 6 janvier 2018 à 17:11 Caroline Fourest : «Les "Je ne suis pas Charlie" finiront comme tous les perdants de l’histoire» 6 janvier 2018 à 15:13 Jean Baubérot : «Le droit au blasphème ne s’applique pas qu’au discours à l’égard des religions» 6 janvier 2018 à 15:50 «Aquarius» : La Libye, d’un nouveau départ à un nouvel exil 6 janvier 2018 à 15:22 A bord de l'Aquarius: un naufrage avec le son, sans l’image 6 janvier 2018 à 18:56 Vexé par les critiques, Donald Trump se qualifie de «génie très stable» 6 janvier 2018 à 17:20 Quoi de neuf en 2018 ? Rien, merci 6 janvier 2018 à 11:50 La Corée du Nord pourrait participer aux JO en Corée du Sud 6 janvier 2018 à 10:10 10 degrés de trop en Europe, 23 millions de chiffres et un gros tas de poussière 6 janvier 2018 à 17:00 Le bitcoin, une monnaie qui tourne au charbon 5 janvier 2018 à 12:08 Au bureau, les économies d'énergies se nichent dans les pièces jointes 5 janvier 2018 à 10:03 L'administration Trump ouvre les vannes du forage offshore 4 janvier 2018 à 23:44 Jean-Pierre Filiu : «Les dictateurs arabes, comme les mamelouks, imposent une domination militaire» 5 janvier 2018 à 19:06 Fabien Truong: «Dans certains quartiers, la question de la haine de soi est très forte» 4 janvier 2018 à 17:36 Lahire, la sociologie à l’assaut de Freud 3 janvier 2018 à 19:56 Liberté de création : ne nous trompons pas de combat ! 3 janvier 2018 à 18:36 La recette du week-end: ni roi, ni fève mais une galette flamande 6 janvier 2018 à 11:02 Parce qu'ils étaient Juifs 5 janvier 2018 à 15:07 En prison, Pommerat brise le quatrième mur 4 janvier 2018 à 17:36 Holy Two, Daniel Alexander, Mou. . . la playlist du cahier musique de «Libé» 5 janvier 2018 à 15:02 Abonnement 100% numérique A partir de 1€ le premier mois Formule Intégrale Libération en version papier et numérique Èvénements Le Grand Paris bouge-t-il ? Mardi 6 février Voyage au cœur de l'IA Mercredi 24 janvier Travail : la réforme expliquée par les experts Vendredi 19 janvier La Boutique Unes en affiches Les unes cultes en tirage photo Relire Libé Commander des anciens numéros info / Récit Robots tueurs, carnage mécanique Par Pierre Alonso — 28 juillet 2015 à 19:56 Avec le prototype de drone de combat «Taranis» (ici sur une photo diffusée en 2010), les Britanniques ont fait un pas de plus vers les armes autonomes. Avec le prototype de drone de combat «Taranis» (ici sur une photo diffusée en 2010), les Britanniques ont fait un pas de plus vers les armes autonomes. Photo Bae Systems. Mod. AP Dans une lettre ouverte, des scientifiques et intellectuels, dont Stephen Hawking et Noam Chomsky, demandent l’interdiction des «armes autonomes». A quoi ressemblerait un champ de bataille sur lequel s’affronteraient des robots tueurs ? A de la science-fiction. Du moins pour l’instant. Mais demain ? Plus de mille chercheurs en intelligence artificielle et robotique voudraient que la réalité ne rattrape pas la littérature ou le cinéma dans les années à venir. A l’occasion de l’IJCAI, une conférence internationale sur l’intelligence artificielle qui se tient à Buenos Aires jusqu’à vendredi, ces scientifiques et intellectuels ont publié une lettre ouverte demandant «d’interdire préventivement les armes autonomes offensives sans contrôle significatif d’un être humain». «Comme les biologistes et les chimistes qui ne veulent pas fabriquer des armes biologiques et chimiques, la plupart des chercheurs en intelligence artificielle (IA) n’ont aucun intérêt pour les armes IA», écrivent les signataires, parmi lesquels figurent plusieurs personnalités comme le physicien britannique Stephen Hawking, Elon Musk, le fondateur de l’entreprise de voitures électriques Tesla, ou encore l’intellectuel américain Noam Chomsky. Les chercheurs prennent ainsi une position ferme dans un débat de moins en moins abstrait. Code de conduite Les systèmes d’armes autonomes, développés ces trente dernières années, sont aujourd’hui employés principalement comme des systèmes de défense, en conservant un être humain «dans la boucle». Une question de temps, et de temps court, alertent les scientifiques. Grâce aux progrès de l’intelligence artificielle, des armes autonomes pourront sélectionner et tirer sur des cibles sans intervention humaine dans «quelques années, et non décennies», s’inquiètent-ils. Ce qu’ils refusent, rejoignant les rangs déjà étoffés des opposants aux «robots tueurs». Dès 2012, des défenseurs des droits humains ont mis en garde contre leurs dangers potentiels. L’ONG Human Rights Watch (HRW) a propulsé le sujet dans le débat public en novembre 2012, en publiant un rapport : «Une arme inhumaine, les arguments contre les robots tueurs». Mary Wareham, de la division armement, nous expliquait alors se «concentrer sur ce qui se passe si l’humain sort de la boucle et qu’une arme fonctionne de façon autonome, sans aucune intervention». Une façon d’exclure les drones armés pilotés à distance par un soldat, aujourd’hui très prisés par les Etats-Unis, Israël, ou le Royaume-Uni, et sur lesquels louchent la plupart des grandes puissances. Dans ce rapport, HRW adressait des recommandations aux Etats et à ceux qui fabriquent ces armes. Aux premiers d’en interdire le développement et la production par des lois nationales et des instruments internationaux, de faire l’inventaire des technologies et composants qui mènent aux armes entièrement autonomes. Aux seconds d’adopter un code de conduite régissant la recherche en la matière pour prendre en compte les préoccupations légales et éthiques. La campagne s’inscrit dans la lignée des mouvements - victorieux - contre les mines antipersonnel dans les années 90 et les bombes à sous-munitions dans les années 2000. Elle est maintenant portée par un consortium d’ONG, dont Amnesty International, qui continuent ce travail de plaidoyer et d’expertise. Un deuxième rapport de HRW, consacré à la question de la responsabilité, est sorti au printemps. Soit quelques jours avant une réunion consacrée par les Nations unies à ce sujet. «Questions éthiques» Depuis 2014, un groupe d’experts gouvernementaux, réunis au sein de la Convention sur l’interdiction ou la limitation de l’emploi de certaines armes classiques, s’est emparé de la question des robots tueurs, sur proposition du représentant français. Le groupe a reconnu «le risque que de nouvelles technologies soient rapidement mises au point en matière d’armes autonomes et bouleversent ainsi radicalement les façons de faire la guerre». Au programme, «les questions techniques, éthiques et sociologiques, le droit international humanitaire et les aspects opérationnels et militaires». Aucune décision n’a encore été prise. «Il reste beaucoup à faire pour cerner correctement le concept avant d’aboutir à une compréhension commune du sujet, de ses enjeux et de l’éventualité même d’une régulation», souligne-t-on au ministère des Affaires étrangères. Cette agora, ouverte à la société civile, permet au moins de sonder les positions des Etats. Aucun n’a officiellement signifié vouloir acquérir de systèmes d’armes autonomes, même si les Etats-Unis et Israël «laissent la porte ouverte à l’acquisition future de ce genre d’armes». Pierre Alonso partager tweeter Vous êtes abonné à Libération Le journal d'aujourd'hui Offre 100% numérique: 1 € le premier mois Le journal du jour en exclusivité et le journal de demain avant tout le monde Voir les offres d’abonnement partager tweeter Aucun commentaire Dans le dossier «EcoFutur» Chauffeur de car, «pas auxiliaire de police» A Marange, un commando anti-déluge à domicile Vous êtes abonné à Libération Le journal d'aujourd'hui Offre 100% numérique: 1 € le premier mois Consultation illimitée sur tous les supports Voir les offres d’abonnement Un mot à ajouter ? Quantcast