Publicité

Robots tueurs, un laisser-faire inacceptable

ÉDITORIAL. C’est la grande inquiétude des humanitaires. L’avènement des systèmes d’armes létales autonomes pourrait saper le droit international humanitaire. L’être humain doit rester maître des robots tueurs

Les algorithmes et l’intelligence artificielle ont le potentiel d’affranchir les belligérants de choix éthiques fondamentaux et de déléguer la conduite des hostilités à des machines. — © Alexander Becher/EPA via Keystone
Les algorithmes et l’intelligence artificielle ont le potentiel d’affranchir les belligérants de choix éthiques fondamentaux et de déléguer la conduite des hostilités à des machines. — © Alexander Becher/EPA via Keystone

Des robots tueurs pour mener la guerre? La perspective d’un déploiement de systèmes d’armes létales autonomes sur le champ de bataille devrait faire se retourner dans leurs tombes Henry Dunant et Gustave Moynier. En fondant la Croix-Rouge au XIXe siècle, ces derniers avaient jugé nécessaire d’atténuer les souffrances en limitant la capacité destructrice des belligérants et en protégeant les populations civiles.

Lire aussi l'article lié:  Les Etats incapables de cadrer les robots tueurs

Le progrès ne peut avoir pour seule dimension la technologie

Pour l’heure, ces armes d’un nouvel âge n’existent pas vraiment ou de manière partielle. Mais le jour où elles entreront de plain-pied dans l’arsenal militaire – une perspective probable – il paraît impératif qu’elles obéissent à des règles contraignantes robustes qui prescrivent un contrôle humain permanent. C’est ce à quoi les Etats parties à la Convention sur certaines armes classiques, réunis du 13 au 17 décembre à Genève, devraient s’atteler. A ce stade toutefois, les signaux en provenance du Palais des Nations ne portent pas à l’optimisme. L’intérêt commun semble peu peser face au cynisme et aux égoïsmes nationaux.

L’effectivité du droit international humanitaire (DIH), codifié dans les Conventions de Genève, pourrait être gravement menacée. Le CICR l’a bien compris en en faisant l’un de ses combats prioritaires. Le DIH pourrait courir un risque existentiel si rien n’est fait pour cadrer, voire interdire, les robots tueurs.

Les algorithmes et l’intelligence artificielle ont le potentiel d’affranchir les belligérants de choix éthiques fondamentaux et de déléguer la conduite des hostilités à des machines. Cette perspective doit nous interroger sur ce qu’est le progrès, qui ne peut avoir pour seule dimension la technologie. Il doit impérativement intégrer des considérations philosophiques et éthiques propres à l’être humain. Sans ces principes, le DIH n’est plus le DIH.

On l’a vu au fil des dernières décennies. Des enquêtes ardues et fastidieuses sont souvent nécessaires pour tenter d’établir la responsabilité de crimes de guerre. Avec des robots tueurs pleinement autonomes, comment l’établir? Impossible d’incriminer l’auteur des algorithmes, ni l’utilisateur qui se retrouverait dans l’incapacité de prévoir les effets d’un robot tueur. Or un droit humanitaire sans mécanisme efficace d’attribution des responsabilités pénales est un droit émasculé.

Un laisser-faire face aux armes autonomes serait inacceptable. Il ouvrirait le champ de bataille à des hostilités par procuration, à une déresponsabilisation de l’acte guerrier et en fin de compte à une inhumanité numérisée aux conséquences dévastatrices. A Genève, siège du CICR et capitale de l’humanitaire, on espère néanmoins que la raison l’emportera.