Armes létales autonomes : les doctrines des Etats

Publicité

Armes létales autonomes : les doctrines des Etats

Par
La Chine pourrait être l'un des 1ers pays à utiliser les armes létales autonomes. Ici, le drone GJ-2 (Wing Loong II) de l'armée de l'air chinoise exposé à Airshow China 2018, à Zhuhai, le 6 novembre
La Chine pourrait être l'un des 1ers pays à utiliser les armes létales autonomes. Ici, le drone GJ-2 (Wing Loong II) de l'armée de l'air chinoise exposé à Airshow China 2018, à Zhuhai, le 6 novembre
© Getty - Wang Xu /China Space News / VCG

La réunion annuelle de la Convention sur certaines armes classiques (CCAC) vient d'ouvrir à Genève. En jeu : un mandat que les pays membres pourraient donner à la CCAC pour négocier un traité sur les armes autonomes. Retour sur la doctrine des grandes puissances concernant ces "robots tueurs".

Les armes létales autonomes seront-elles interdites un jour ? C'est en tout cas ce que demandent 85 ONG réparties dans 48 pays, à l'occasion de l'ouverture ce mercredi de la réunion annuelle de la Convention sur certaines armes classiques (CCAC) à Genève, au siège de l'ONU. Ces armes sont également qualifiées de "robots tueurs" par certaines ONG qui participent à la campagne Stop Killer Robots. "Ce sont des armes qui n'existent pas encore, elles n'ont pas encore été déployées, mais elles auraient la possibilité de sélectionner et d'engager une cible sans contrôle humain suffisant", définit Anne-Sophie Simpere, coordinatrice de la campagne française contre les robots tueurs. Jusqu'au 23 novembre, les pays membres de la convention onusienne vont discuter notamment d'un mandat qui pourrait être accordé à un groupe d'experts sur les armes létales autonomes. Si le mandat est adopté par la CCAC, les experts pourraient alors plancher dès l'année prochaine sur un traité sur le sujet. Pourtant, aujourd'hui, les négociations autour des armes autonomes semblent être dans l'impasse puisque plusieurs pays refusent de signer un traité d'interdiction. Seuls 26 pays demandent explicitement une interdiction des armes autonomes, comme l'Autriche, le Brésil et l'Egypte.  Lors de la réunion à Genève du 21 au 23 novembre 2018, le Maroc est devenu le 27è à "demander explicitement l'interdiction des armes autonomes", selon Anne-Sophie Simpere. Parmi les puissances réfractaires à un texte contraignant, les Etats-Unis, la Russie, la Chine mais également la France. "La militarisation de l'intelligence artificielle est un grave danger", a de son côté très récemment  affirmé le secrétaire général de l'ONU António Guterres. Décryptage de la doctrine de ces Etats sur l'utilisation d'armes autonomes.

Pour afficher ce contenu Twitter, vous devez accepter les cookies Réseaux Sociaux.

Ces cookies permettent de partager ou réagir directement sur les réseaux sociaux auxquels vous êtes connectés ou d'intégrer du contenu initialement posté sur ces réseaux sociaux. Ils permettent aussi aux réseaux sociaux d'utiliser vos visites sur nos sites et applications à des fins de personnalisation et de ciblage publicitaire.

La Chine, leader en intelligence artificielle militaire

La Chine pourrait être l'un des premiers pays à utiliser les armes létales autonomes. Pour l'instant, aucune arme de ce type n'existe dans le monde, les modèles existant sont des armes semi-autonomes, qui nécessitent encore l'intervention humaine. Le gouvernement chinois mise sur l'intelligence artificielle, notamment dans le domaine militaire. "La doctrine chinoise consiste à ne pas se mettre de barrière sur le développement de systèmes autonomes. Il y a des campagnes de recherche très importantes sur l'autonomie, sur la dronification du matériel existant ou sur l’autonomisation à la fois des matériels armés ou d’observation", explique Thierry Berthier, chercheur associé au Centre de recherche des écoles de Saint-Cyr Coëtquidan en cyberdéfense.

Publicité

La Chine n’a pas de limite au niveau stratégique et éthique. Elle n'a qu'un objectif : devenir la première puissance mondiale de l'intelligence artificielle face aux Etats-Unis                                                                  
Thierry Berthier - chercheur au sein de la Chaire de cyberdéfense et cybersécurité Saint-Cyr

La position de la Chine est claire, selon Thierry Berthier :  "Le gouvernement chinois met des milliards de dollars dans le développement des capacités en intelligence artificielle et y compris en intelligence militaire". La Chine fait partie des pays "traditionnellement grands exportateurs d'armes", comme le rappelle Denis Jacqmin, chercheur au GRIP à Bruxelles, le groupe de recherche et d’information sur la paix et la sécurité. Cela explique en partie la position de Pékin aujourd'hui.  "Des pays comme les Etats-Unis, la Chine ou la Russie ne veulent pas être contraints dans leur développement technologique, ils ne veulent pas envisager un traité qui interdirait ce type de système a priori", précise-t-il. 

Du Grain à moudre
38 min

La Chine n'a donc aucun intérêt à signer un traité d'interdiction des armes autonomes en général si elle veut continuer à investir dans le domaine de l'intelligence artificielle militaire. Difficile de connaître le niveau d'avancée technologique de la Chine en la matière, le "gouvernement chinois ne communique pas beaucoup à ce sujet puisque les systèmes ne sont pas encore au point pour être déployés", comme l'affirme Thierry Berthier. Cependant, certaines informations filtrent de temps en temps - volontairement - sur la doctrine chinoise en matière d'armes autonomes. C'est le cas dans un article du South China Morning Post daté du 8 novembre : "Des élèves chinois les plus brillants recrutés pour développer l'intelligence artificielle des robots tueurs". "27 garçons et 4 filles, âgés de 18 ans maximum, ont été sélectionnés parmi 5 000 candidats pour un programme expérimental de 4 ans sur le développement de systèmes d'armes autonomes, par l'Institut de Technologie de Beijing (...) Le lancement de ce nouveau programme met en évidence l'importance donnée au développement de l'intelligence artificielle dans le domaine militaire", peut-on lire dans l'article.

Si la Chine signe un traité d'interdiction, il ne concernera qu'un type d'armes autonomes en particulier. "La Chine ne signera jamais aucune interdiction parce qu'elle n’a aucune garantie que les Etats-Unis feront de même, c’est un peu comme la dissuasion nucléaire", souligne Thierry Berthier. La Chine pourrait donc jouer sur la notion même d'armes létales, car il existe aujourd'hui un flou autour de sa définition. "Nous sommes en train de tâtonner sur la question de la définition : qu'est-ce qu’on entend par létal, quand une arme blesse ou neutralise est-ce que c’est létal, quel type de système, est-ce qu’il y a un système embarqué ?", analyse Denis Jacqmin, chercheur au GRIP à Bruxelles, groupe de recherche et d’information sur la paix et la sécurité.

Le revirement des Etats-Unis

Face à la doctrine chinoise, les Etats-Unis ont revu leur positionnement il y a quelques mois. Ils étaient jusque là plus "discrets", plus "mesurés" mais ils ont commencé à changer de doctrine. "La course à l'armement est lancée entre les deux champions", analyse Thierry Berthier, chercheur associé au Centre de recherche des écoles de Saint-Cyr Coëtquidan en cyberdéfense.

Le département de la défense américain a récemment communiqué sur l'évolution de la doctrine américaine. "Dans les réflexions doctrinales américaines, il serait éventuellement plus éthique d’utiliser des systèmes robotiques autonomes pour protéger ses propres combattants. Si dans certaines situations, les soldats sont confrontés à une grave menace, selon les Américains, il faut envisager le cas où utiliser ses machines pour préserver ses propres soldats serait plus éthique", détaille Gérard de Boisboissel, ingénieur au Centre de recherche des écoles de Saint-Cyr Coëtquidan (CREC).

Un changement doctrinal récent que confirme Thierry Berthier : "Les Américains étaient réservés sur la partie autonomie (des armes). Ils étaient favorables à ce qu’il y ait un humain dans la boucle, le chef doit commander le feu. Ils se sont aperçus que les Chinois n’étaient pas dans cette doctrine là, donc ils sont en train de changer depuis quelques mois. Ce qui ne serait pas éthique désormais, ce serait de ne pas utiliser ces systèmes autonomes et d'envoyer des soldats américains sur un champ de bataille devant des unités autonomisées des autres armées".

Les Etats-Unis possèdent déjà des armes autonomes sophistiquées. Elles n'entrent pas dans la catégorie d'armes létales puisqu'elles ne sont pas utilisées sur les champs de bataille. Certains navires américains sont déjà équipés de C-Ram (counter rocket artillery and mortar) en surface : "Ils détectent des missiles, pointent automatiquement un canon vers ces missiles et tirent. C’est de l’automatisme", comme l'explique Gérard de Boisboissel. Thierry Berthier rappelle que les Américains sont en train de tester "le Sea Hunter".  

"C'est un navire transocéanique de 45 mètres, un navire autonome armé, chasseur de sous-marins sans équipage. C’est un gros objet technologique, il n’est pas télé-opéré, ce ne sont pas des gens qui le pilotent à distance, mais il a une forte capacité d’autonomie. Il est capable de respecter la réglementation de navigation en fonction des zones géographiques qu’il traverse et il est capable de mener des actions de lutte anti-sous-marine de manière autonome. Le Sea Hunter est appelé à être armé", précise Thierry Berthier.

La Russie, en voie d'autonomisation

La Russie participe également à cette course à l'armement. "Vladimir Poutine l’a dit à plusieurs reprises en 2017, il mise beaucoup sur l’intelligence artificielle et souhaite à l’horizon 2022 qu'un tiers de ses unités soient semi-autonomes. La doctrine, c’est de retirer le soldat humain dans la zone d’immédiate conflictualité, là où le combat a eu lieu en première instance. Il faut que ce soit des machines qui arrivent sur le terrain, quitte à envoyer après des soldats humains. Les équipages des chars sont retirés, on les délocalise, on les déporte à un ou deux kilomètres pour qu’ils ne soient pas sur la zone de risque maximale", affirme Thierry Berthier.

Pour afficher ce contenu Youtube, vous devez accepter les cookies Publicité.

Ces cookies permettent à nos partenaires de vous proposer des publicités et des contenus personnalisés en fonction de votre navigation, de votre profil et de vos centres d'intérêt.

Gérard de Boisboissel rappelle de son côté que l'entreprise Kalachnikov a clairement annoncé en juillet 2017 qu'elle travaillait sur "des réseaux (d'armes) autonomes" : "La directrice de la communication, Sofia Ivanova, affirme que le groupe s’engage dans la production de drones de combats autonomes dotés des capacités d’apprentissage par réseau de neurones, capables de reconnaître les cibles et de prendre des décisions autonomes dont celles de l’engagement du feu".

La position ambiguë de la France

La position de la France est moins claire sur le sujet, comme le regrette Anne-Sophie Simpere, coordinatrice de la campagne française contre les robots tueurs : "D’un côté, la ministre des Armées, Florence Parly, dit que la France ne laissera pas émerger les armes autonomes, le président Macron a dit qu’il y était catégoriquement opposé. Mais de l’autre côté, la France n’a pas une position claire pour demander un traité d’interdiction à Genève". La France serait en fait plus favorable à l'adoption d'une déclaration politique sur le sujet, soit "un texte non-contraignant, qui n'empêcherait pas l'émergence d'un système d'arme".

Drône Reaper, fourni par les Etats-Unis et acheté par l'armée française pour des missions de surveillance, ici posé dans une base de la force Barkhane à Niamey, au Niger en 2017.
Drône Reaper, fourni par les Etats-Unis et acheté par l'armée française pour des missions de surveillance, ici posé dans une base de la force Barkhane à Niamey, au Niger en 2017.
© AFP - Ludovic Marin

En avril 2018, Emmanuel Macron s'est en effet positionné contre l'utilisation d'armes létales autonomes, dans une interview accordée au magazine américain Wired. "Techniquement parlant, dans certains cas, il sera possible d’avoir une certaine automatisation, mais l’automatisation, ou la possibilité donnée à des machines de prendre cette décision, aboliraient toute responsabilité, ce qui constitue pour moi un problème crucial. Par conséquent, c’est absolument impossible. _C’est pourquoi il faut toujours un contrôle humain__. Et à certains égards, un dernier ressort humain. A un moment, la machine peut tout préparer, réduire les incertitudes jusqu’à les éliminer, et c’est une amélioration impossible sans elle, mais à un moment donné, la décision de donner le feu vert doit être prise par un être humain parce qu’il faut quelqu’un qui en prenne la responsabilité_", explique le président de la République dans cette interview.

Pour Aymeric Elluin, responsable de plaidoyer armes à Amnesty International, il s'agit d'un "glissement de la position française". "En 2013, lorsque les premières discussions ont été lancées sur les armes autonomes, la France était plutôt avenante vis-à-vis d'un encadrement du développement de ce type d’armes", analyse-t-il. Aujourd'hui, la France n'est plus favorable à "une interdiction stricto sensu de ce type d’arme". "La France part du principe qu’à partir du moment, où elle conserve un humain dans la boucle, elle empêchera le développement des armes autonomes. Mais comment fixe-t-on la frontière sur le développement d’armes autonomes avec un homme dans la boucle permettant de dire que la situation est sous contrôle et que l’arme autonome ne décidera pas par elle-même finalement ?", s'interroge Aymeric Elluin, inquiet "vis-à-vis de la position française".

Pour afficher ce contenu Twitter, vous devez accepter les cookies Réseaux Sociaux.

Ces cookies permettent de partager ou réagir directement sur les réseaux sociaux auxquels vous êtes connectés ou d'intégrer du contenu initialement posté sur ces réseaux sociaux. Ils permettent aussi aux réseaux sociaux d'utiliser vos visites sur nos sites et applications à des fins de personnalisation et de ciblage publicitaire.

Thierry Berthier compare la doctrine française à celle des Etats-Unis, il y a un ou deux ans, avant "qu'ils ne fassent volte-face". Difficile pour la France de signer un traité d'interdiction de ce type d'arme alors que la France "a des ambitions d'existence en termes militaires".

La France n’est pas la seule à être un peu gênée aux entournures. Tous les pays qui ont une industrie d’armement sont confrontés à ce dilemme : il y a eu de grosses campagnes pour diaboliser l’autonomie en général donc c’est compliqué. L’ambiguïté, elle est partout, chez les Américains, chez les Français, chez les Canadiens, elle est chez tout le monde.                                                        
Thierry Berthier - chercheur au sein de la Chaire de cyberdéfense et cybersécurité de Saint-Cyr

Au regard de la course à l'armement lancée par les autres puissances, la France n'aura pas d'autres choix que de suivre le mouvement. "A titre personnel, en tant que chercheur, je pense que la position de la France sera intenable d’ici quelques années", souligne Thierry Berthier. Ce que confirme Aymeric Elluin d'Amnesty International : "L’enjeu français est de rester dans la course puisque le développement des armes autonomes est intimement lié au développement de l’intelligence artificielle. Elle est largement instillée dans le développement d'applications militaires. L’intelligence artificielle est au cœur du débat, c’est le domaine à ne pas louper pour rester économiquement fort".

Gérard de Boisboissel pointe, lui, "un changement sur la vision de l’armement des drones qui s’est opéré en septembre 2017" : "La ministre des Armées, Florence Parly, a donné son feu vert pour que la France puisse armer ses drones Reaper fournis par l’armée américaine et achetés par la France. Pour l’instant, ils font des missions de surveillance, ils ne sont pas armés, mais le seront d’ici un an en 2019. C'est un changement notable qui est apparu avec ce nouveau gouvernement", retrace-t-il. Une fois qu'ils seront armés, les drones resteront semi-autonomes, comme le rappelle Gérard de Boisboissel. "Ces armes n’ont aucune autonomie sur le plan létal, il y a toujours un opérateur qui constamment pilote l’avion, un opérateur qui est à côté du pilote et qui gère tout ce qui concerne les capteurs, les caméras et qui demain pourra éventuellement gérer les missiles pour le déclenchement du feu, sous réserve que l’ordre en ait été donné. Il s'agit d'une chaîne militaire, c’est une décision militaire validée par des officiers formés spécialement, sous le respect du conflit armé", insiste l'ingénieur au CREC.

Pour Gérard de Boisboissel, il y aura toujours un homme qui interviendra dans la décision de tirer sur une cible : "La machine ne va pas complètement remplacer l’homme. Le robot sera toujours au service du chef militaire, il devra toujours être un pion tactique pour l’armée, mais il est complètement utopique de croire que des robots pleinement autonomes puissent être utiles à des militaires. Ils veulent avoir des engins sur lesquels compter pour faire certaines actions éventuellement létales mais tout en pouvant donner des ordres, des contre ordres, avoir des comptes rendus et reprendre la main", détaille l'ingénieur. Avant de conclure : "Nous pouvons gagner une bataille grâce à la technologie mais nous ne pouvons pas gagner une guerre avec des machines. Il faut des hommes pour gagner la guerre".