La question, aujourd’hui, ne relève plus de la science-fiction. Conscients de la nécessité de préserver au maximum la vie des combattants et forts des progrès phénoménaux de l’intelligence artificielle, les grandes puissances militaires sont en train de nous préparer un avenir dans lequel une machine pourra, seule, prendre l’initiative de tuer. Quand on sait les ravages - collatéraux notamment - que font déjà les drones actionnés à distance par des humains, on imagine sans mal les dégâts provoqués par ces robots tueurs autonomes. Et surtout le monde que ce «progrès» nous promet, avec toutes les questions d’éthique que cela pose. Cet avenir est considéré comme assez proche et inquiétant pour que des patrons d’entreprises spécialisées dans l’intelligence artificielle et la robotique - ils savent donc de quoi ils parlent - tirent la sonnette d’alarme, dans une lettre ouverte envoyée en début de semaine à l’ONU. Le plus flippant, c’est qu’ils avaient déjà alerté la communauté internationale sur le même sujet en 2015 et que cela n’avait été suivi d’aucun effet.