? Menu Libération Connexion Abonnement Terminator est déjà encadré par les lois «Aquarius», Iran, hackers. . . , les articles que vous auriez pu rater cette semaine 6 janvier 2018 à 17:11 Caroline Fourest : «Les "Je ne suis pas Charlie" finiront comme tous les perdants de l’histoire» 6 janvier 2018 à 15:13 Jean Baubérot : «Le droit au blasphème ne s’applique pas qu’au discours à l’égard des religions» 6 janvier 2018 à 15:50 «Aquarius» : La Libye, d’un nouveau départ à un nouvel exil 6 janvier 2018 à 15:22 A bord de l'Aquarius: un naufrage avec le son, sans l’image 6 janvier 2018 à 18:56 Vexé par les critiques, Donald Trump se qualifie de «génie très stable» 6 janvier 2018 à 17:20 Quoi de neuf en 2018 ? Rien, merci 6 janvier 2018 à 11:50 La Corée du Nord pourrait participer aux JO en Corée du Sud 6 janvier 2018 à 10:10 10 degrés de trop en Europe, 23 millions de chiffres et un gros tas de poussière 6 janvier 2018 à 17:00 Le bitcoin, une monnaie qui tourne au charbon 5 janvier 2018 à 12:08 Au bureau, les économies d'énergies se nichent dans les pièces jointes 5 janvier 2018 à 10:03 L'administration Trump ouvre les vannes du forage offshore 4 janvier 2018 à 23:44 Jean-Pierre Filiu : «Les dictateurs arabes, comme les mamelouks, imposent une domination militaire» 5 janvier 2018 à 19:06 Fabien Truong: «Dans certains quartiers, la question de la haine de soi est très forte» 4 janvier 2018 à 17:36 Lahire, la sociologie à l’assaut de Freud 3 janvier 2018 à 19:56 Liberté de création : ne nous trompons pas de combat ! 3 janvier 2018 à 18:36 La recette du week-end: ni roi, ni fève mais une galette flamande 6 janvier 2018 à 11:02 Parce qu'ils étaient Juifs 5 janvier 2018 à 15:07 En prison, Pommerat brise le quatrième mur 4 janvier 2018 à 17:36 Holy Two, Daniel Alexander, Mou. . . la playlist du cahier musique de «Libé» 5 janvier 2018 à 15:02 Abonnement 100% numérique A partir de 1€ le premier mois Formule Intégrale Libération en version papier et numérique Èvénements Le Grand Paris bouge-t-il ? Mardi 6 février Voyage au cœur de l'IA Mercredi 24 janvier Travail : la réforme expliquée par les experts Vendredi 19 janvier La Boutique Unes en affiches Les unes cultes en tirage photo Relire Libé Commander des anciens numéros info / Tribune Terminator est déjà encadré par les lois Par Didier Danet, Responsable du pôle action globale et forces terrestres du Centre de recherches des éc — 1 novembre 2015 à 17:16 «Terminator 3» «Terminator 3» Une pétition demandant l’interdiction des «robots tueurs» a recueilli des milliers de signatures et a reçu le soutien de personnalités imminentes, de Stephen Hawking à Noam Chomsky en passant par le cofondateur d’Apple, Steve Wozniak. Pourtant, selon Didier Danet, spécialiste de cybersécurité, cet appel ne méritait pas tant. La pétition visant à l’interdiction des «robots tueurs»a connu un succès aussi spectaculaire qu’inattendu. Lancée dans la torpeur estivale, lors d’une conférence internationale sur l’intelligence artificielle, elle a reçu le soutien de chercheurs spécialisés, de personnalités éminentes du monde scientifique et de magnats de la Silicon Valley. Plus de 1 000 signataires demandaient l’interdiction des «armes autonomes offensives sans contrôle significatif d’un être humain». Cette pétition ne brille pourtant ni par la limpidité des finalités qu’elle poursuit ni par l’argumentation qu’elle déploie. Comment dès lors expliquer les milliers de signatures enregistrées si ce n’est par le fait que le texte n’a été ni vraiment lu ni vraiment compris ? Les robots tueurs : trop ou pas assez humains ? En première apparence, la pétition de juillet 2015 réalise une sorte d’union sacrée pour obtenir l’interdiction des programmes de recherche et développement susceptibles d’aboutir à la création de robots tueurs que les auteurs de la pétition définissent comme des «armes autonomes offensives dépourvues de contrôle humain significatif». Mais, derrière cette unité apparente se dissimulent des divergences profondes. Pour comprendre l’esprit de la pétition, il faut en retracer la généalogie. Ce texte s’inscrit dans la continuité de publications émanant des auteurs ou de certains signataires (Stephen Hawking) de la pétition. Selon eux, les progrès de l’intelligence artificielle risquent d’entraîner le dépassement de l’homme par la machine, la «singularité» dans les termes de Ray Kurzweil, philosophe préféré des entrepreneurs californiens. Mais la pétition n’est pas exempte de corporatisme. C’est ainsi que le texte insiste, in fine, sur le risque de voir l’apparition de robots tueurs entacher la réputation de l’intelligence artificielle et amoindrir le soutien de l’opinion publique avec les conséquences budgétaires que l’on peut imaginer. Enfin, sur le fond, la demande d’interdiction met en avant une argumentation tout à fait spécifique. Superintelligents, les robots tueurs seraient également très peu coûteux, ce qui en ferait les «kalachnikovs» du XXI^e siècle. Aux mains des dictateurs ou terroristes de tout poil, ils deviendraient les outils privilégiés de l’épuration ethnique, des massacres de masse et de l’oppression des peuples. Mais si l’interdiction se justifie par la crainte que les armes autonomes ne tombent entre de mauvaises mains, a contrario, elle ne devrait pas viser les utilisateurs «légitimes» que sont les forces armées des pays démocratiques. L’argumentation et la conclusion sont ainsi très différentes, pour ne pas dire plus, de celles des ONG qui portent traditionnellement la demande d’interdiction des robots tueurs. Pour ces organisations, Human Rights Watch notamment, le rejet des armes autonomes procède de la conviction que l’intelligence artificielle, en dépit de ses progrès, sera toujours incapable d’intégrer et de mettre en œuvre les principes élémentaires du droit international humanitaire. Ce n’est pas parce que l’intelligence artificielle est trop avancée qu’elle est condamnable mais parce qu’elle ne le sera jamais assez. L’interdiction demandée doit être totale et ne supporte pas d’exception. Loin de réaliser l’union sacrée autour de l’interdiction des robots tueurs, la pétition est génératrice de confusion en ce qui concerne l’esprit, les principes et les modalités des demandes formulées dans ce sens. Peut-on faire du bon droit avec de bons sentiments ? Nul ne conteste aux spécialistes de l’intelligence artificielle le droit à prendre parti contre les applications qu’ils jugent non désirables des progrès scientifiques auxquels ils contribuent. Encore faut-il bien se rendre compte que le passage de la pétition à la loi suppose un processus de création normative dans lequel les bons sentiments et les connaissances scientifiques ne suffisent pas. Concevoir un cadre juridique suppose, en premier lieu, que l’on sache quel en est l’objet. Or, les systèmes d’armes létaux «pleinement autonomes» n’existent pas, et il est hautement improbable qu’ils puissent exister un jour. L’autonomie véritable, c’est-à-dire l’existence d’une volonté indépendante qui se donne à elle-même ses propres fins, n’est pas envisageable en l’état actuel ni même futur de la technique. Ce que celle-ci autorise, c’est une autonomie réduite à la mise en œuvre de certaines fonctions dans le cadre d’instructions prédéfinies ou améliorables par des processus d’interaction avec l’environnement. Il y a donc abus de langage manifeste lorsque l’on veut ériger le robot en quasi-sujet doué de raison. Cet abus est d’autant plus inopportun que Terminator est déjà encadré par les lois. Un cadre juridique adapté existe en effet pour ces robots doués d’une autonomie fonctionnelle. Ils sont des objets de droit, conçus par des industriels et mis en œuvre par des militaires dans le cadre d’un conflit où les forces armées sont tenues de respecter les principes du droit international humanitaire. L’emploi de systèmes robotisés s’inscrit dans ce contexte et les éventuels dommages causés par eux ne sauraient faire échapper leurs concepteurs et leurs utilisateurs à leurs obligations et à leurs responsabilités, qu’elles soient civiles ou pénales. L’emploi d’une machine, même dite «intelligente», suppose nécessairement un auteur dont la responsabilité peut être engagée. La question n’est ni difficile dans son principe ni nouvelle dans l’histoire du droit. Elle se trouvait déjà posée aux premiers temps de la révolution industrielle lorsque le recours massif aux machines à vapeur s’est accompagné d’accidents dans l’industrie métallurgique ou textile. La parution de la pétition a engendré plus de questions qu’elle n’a apporté de réponses. La solution qu’elle préconise, l’interdiction des «armes autonomes offensives dépourvues de contrôle humain significatif», ne recouvre pas la définition habituelle des robots tueurs. Quel est alors le véritable champ de l’interdiction et ses modalités ? Faut-il bannir, par principe et préventivement, tout programme de recherche et développement susceptible d’aboutir à la production de robots tueurs ou, une fois les applications advenues, réguler leur commercialisation pour éviter que ces robots ne tombent entre de «mauvaises mains» ? Faut-il faire une distinction entre armes dites «offensives» et «défensives», à supposer que l’on puisse établir une frontière claire entre les deux ? Comment définir et mesurer précisément la notion «d’autonomie» ? Faut-il prendre en considération le caractère civil ou militaire des programmes de recherche ou faut-il les interdire de manière générale pour éviter les effets de transfert de recherches qui sont nécessairement «duales» ? Sur tous ces points, plusieurs visions incompatibles existent maintenant dans le camp de ceux qui demandent l’interdiction des robots tueurs. On peut douter que leur position en sorte renforcée. Didier Danet Responsable du pôle action globale et forces terrestres du Centre de recherches des éc partager tweeter Vous êtes abonné à Libération Le journal d'aujourd'hui Offre 100% numérique: 1 € le premier mois Le journal du jour en exclusivité et le journal de demain avant tout le monde Voir les offres d’abonnement partager tweeter Aucun commentaire Dans le dossier «High-tech» «La créativité devient un objet d’étude en soi» Hackers : «Chacun de nous a des raisons différentes de douter» Vous êtes abonné à Libération Le journal d'aujourd'hui Offre 100% numérique: 1 € le premier mois Consultation illimitée sur tous les supports Voir les offres d’abonnement Un mot à ajouter ? Quantcast