« Le seul moyen de s’opposer aux robots tueurs, c’est de les interdire »

L’ONG Human Rights Watch appelle Emmanuel Macron à s’opposer au développement des armes létales autonomes en adoptant un traité d’interdiction international.
« Le seul moyen de s’opposer aux robots tueurs, c’est de les interdire »

Mené par Human Rights Watch, un groupe d’ONG appelle Emmanuel Macron à s’opposer au développement exponentiel des armes létales autonomes. Ces « robots tueurs » font aujourd’hui l’objet d’un rapport alarmant, qui prône l’adoption d’un traité d’interdiction international.

De robots-chiens qui traquent les derniers représentants de l’humanité dans un épisode de Black Mirror à la mythologie qui entoure Terminator, dont un nouvel opus est en préparation : pas de doute, les robots-tueurs restent une valeur sûre de la fiction. Mais dans la réalité, les armes létales autonomes sont aussi légion : drones, robots mitrailleurs ou encore mitrailleuses intelligentes investissent déjà des champs de bataille bien réels sur notre planète. Pour endiguer leur prolifération, l’ONG de défense des droits de l’homme Human Rights Watch en appelle aujourd’hui à Emmanuel Macron.

Il faut dire que la question inquiète les spécialistes, mais pas seulement. Il y a quelques mois, Elon Musk lançait notamment cet avertissement : «  Une fois cette boîte de Pandore ouverte, elle sera difficile à refermer. »  Plusieurs campagnes internationales, dont celle baptisée «  Stop Autonomous Weapons », alertent depuis des années sur cette nouvelle course à l’armement dopée à l’intelligence artificielle. La campagne «  Stop Killer Robots  », que Human Rights Watch coordonne, promeut quant à elle l’adoption d’un traité d’interdiction préventif des robots tueurs. On a parlé de tout ça avec Bénédicte Jeannerod, directrice France de l’ONG Human Rights Watch.

Usbek & Rica : Est-il vraiment urgent d’interdire les robots tueurs ?

Bénédicte Jeannerod: Plus que jamais. Depuis 2012, on publie des rapports sur le sujet, ce qui nous a permis de documenter les différents aspects du sujet, tant juridiques et techniques qu’éthiques. Human Rights Watch a également lancé et coordonné en 2013 la campagne internationale «  Stop Killer Robots  », qui est destinée à faire pression sur l’ensemble des gouvernements. On essaye donc de faire pression sur les dirigeants et les industriels au sein de cette campagne, qui réunit aujourd’hui 85 membres.

« D’ici 2030, on pourrait assister au déploiement d’armes entièrement autonomes » 

Aujourd’hui, on lance cet appel à Emmanuel Macron parce qu’il y a danger, et qu’il y a urgence. Les degrés d’autonomie déjà présents dans l’armement ne font qu’augmenter grâce au développement de l’intelligence artificielle : d’ici à 2030, on pourrait assister au déploiement d’armes entièrement autonomes. Le risque de leur existence fait peser le risque de la prolifération. Et notre appel est justement destiné à empêcher le développement de ces armes et leur profiléraiton, qui est un vrai risque si elles ne sont pas encadrées et interdites.

Le terme robots-tueurs recouvre l’ensemble des machines capables de s’adapter à leur environnement, de réagir à des dangers et de faire le choix de changer de mission de façon autonome. Quand on sait que la France fait partie des principaux vendeurs d’armes dans le monde, qu’est-ce qui vous fait penser qu’Emmanuel Macron pourrait saisir le problème à bras le corps ?

Il y a sur la question de l’interdiction des robots tueurs un véritable momentum. Il y a une opportunité politique également, pusique va bientôt se tenir la réunion des États parties à la Convention sur certaines armes classiques (CCAC). Ce serait, selon nous, l’occasion idéale pour entamer les négociations sur un traité d’interdiciton préventive. Le président Macron s’est par ailleurs dit catégoriquement opposé au développement des armes létales autonomes. Les déclarations, c’est bien, mais c’est insuffisant. La meilleure garantie de s’opposer aux robots tueurs, c’est de commencer des négociations sur un traité d’interdiction contraignant. Même si un traité n’est pas une fin en soi, puisqu’il y aura un énorme enjeu autour de sa mise en application et de son respect. Et puis, il ne faut pas oublier qu’il existe un autre niveau d’action, au niveau national, qui pourrait empêcher le développement des armes létales autonomes.

Le président Macron doit donc prendre le problème à bras-le-corps si il veut promouvoir le multilatéralisme et protéger les générations futures. Il est aussi important de préciser que l’on peut décider l’interdiction d’armes qui n’existent pas encore. C’est le cas pour les lasers aveuglants, qui ont été interdits avant qu’ils n’existent : quand il y a des volontés politiques, on peut interdire préventivement. 

Êtes-vous vraiment optimiste sur la possible adoption d’un traité d’interdiction ? Des Etats interdisent-ils déjà aujourd’hui le développement de ces armes ?

26 pays se sont prononcés contre le développement des robots tueurs. Lors de la dernière réunion du groupe d’experts gouvernementaux sur les armes létales autonomes, une majorité d’États s’est dite favorable à l’ouverture de négociations autour d’un traité d’interdiction. Il est donc tout à fait possible d’entamer dès à présent ces négociations.

« La perspective de donner le pouvoir de vie ou de mort à une machine sans contrôle humain terrifie tout le monde »

La communauté scientifique est par ailleurs extrêment mobilisée. Les scientifiques spécialistes de l’intelligence artificielle lancent régulièrement des appels à leur interdiction : ils refusent de voir leurs travaux utilisés à ces fins. Et ce refus du développement des robots tueurs est général : la perspective de donner le pouvoir de vie ou de mort à une machine sans contrôle humain terrifie tout le monde.

Vous évoquez dans votre rapport une « ligne rouge morale ». En quoi l’éthique appliquée aux robots tueurs diffère-t-elle de celle qui s’impose aux soldats humains ?

Ce n’est pas parce qu’aujourd’hui on parle des armes qu’on ne se moblise pas également sur les programmes qui utilisent déjà l’intelligence artificielle à des fins de surveillance. Mais dans ce rapport, on s’intéresse à des armes qui peuvent choisr leur cible et décider de l’attaquer sans intervention humaine. Et cela défie intrinsèquement les lois humaines puisque l’être humain n’aurait plus sa part de jugement.

« Donner à une machine un pouvoir de vie et de mort sur un humain est par nature immoral »

Le droit international humanitaire repose sur plusieurs principes : distinction, proportionnalité et protection des civils. Ces principes ne peuvent pas être mis en oeuvre par des machines, qui ne peuvent pas faire preuve de discernement. Donner à une machine un pouvoir de vie et de mort sur un humain est par nature immoral. Par ailleurs, il existe un énorme problème d’ordre juridique : qui sera responsable en cas de crime et de violation ? Le programmeur, l’ingénieur, la hiérarchie militaire, l’éditeur du logiciel ? Ces questions sont très importantes, tant une telle situation priverait  les victimes de tout recours juridique. En définitive, les risques sur la sécurité internationale son évidents : une machine reste une machine. Quelle que soit la qualité de programmation qu’elle représente, une machine peut se tromper ou bien se faire pirater. Appliquez cela à des armes létales, et cela peut conduire à des ravages innommables.

  

SUR LE MÊME SUJET : 

La vidéo qui vous donnera envie d’interdire les robots tueurs

Les robots tueurs, « une boîte de Pandore » qu’il sera difficile de refermer, alerte Elon Musk

> «  Il faut désenfumer le débat sur l’intelligence artificielle »

> Intelligence artificielle : Elon Musk appelle à réagir « avant qu’il ne soit trop tard »

 

Image à la Une : Un soldat américain avec le robot MUTT, 7 novembre 2016. Marine Corps photo/Levi Schultz. 

et aussi, tout frais...