Un système d'autodéfense laser autonome. Photo DR Après la publication d’une lettre ouverte d’experts de l’intelligence artificielle appelant l’ONU à agir pour encadrer le développement des robots armés, la question se fait de plus en plus pressante. Les robots tueurs, on les connaît bien. -- Et ce, malgré l’aura intellectuelle et médiatique de signataires comme Stephen Hawking, Elon Musk, Noam Chomsky ou Steve Wozniak. Le week-end dernier, les acteurs du secteur de l’intelligence artificielle (IA) ont donc une nouvelle fois tiré le signal d’alarme. Et appelé à l’indispensable réglementation de ces machines officiellement dénommées «armes létales autonomes». -- «Échelle sans précédent» Charles Ollion, responsable scientifique et cofondateur de Heuritech, start-up parisienne qui applique la reconnaissance d’images au secteur de la mode, fait partie des signataires. Il s’alarme avant tout de cette délégation à la machine du pouvoir de tuer : «Il n’y a pas un danger propre à l’intelligence artificielle et je ne pense pas qu’on risque de voir débarquer des robots hors de contrôle dotés d’une volonté propre. Mais avec des armes autonomes, la décision de tuer pourrait devenir un acte presque banal. -- » Pour Raphaël Cherrier, lui aussi signataire, l’urgence vient surtout de la différence d’échelle de temps entre le progrès technologique et la décision politique. «Entre le moment où le premier robot va arriver, et celui où la techno proliférera, ça ira extrêmement vite, explique le fondateur et PDG de Qucit, entreprise bordelaise d’intelligence artificielle appliquée à l’urbanisme. Et il faudra que la prise conscience politique au niveau internationale ait déjà eu lieu. -- Qui condamner ? Angoisse bien connue Le sujet des robots tueurs n’est pas le seul sujet éthique qui agite le secteur de l’intelligence artificielle. Réunis début 2017 au sud de San Francisco, plusieurs dizaines de chercheurs renommés se sont réunis autour du thème de l’IA «bénéfique».