Publicité

On a assisté au vrai procès (fictif) de deux robots policiers et voici ce qu'il faut en retenir

  • proces_robot.jpg

    robot-rouge
    Deux robots tirent sur un suspect, innocent, lors d'une manifestation. Sont-ils coupables ? (Pixabay/EntretenimientoIV)
  • Les robots sont-ils des êtres dotés d'une liberté qui permette les juger ? S'agit-il de personnes qui peuvent, si elles sont responsables, justifier de leur innocence ? S'agit-il enfin d'objets, ou d'un groupe d'une nouvelle nature, à la fois animés, intelligents, illimités sur certains points, plus limités sur d'autres, et plus sûrs de durer que nous le sommes nous-mêmes ?

    "L'audience est ouverte. Asseyez-vous !". L'atmosphère est solennelle. Silencieux, le public retient sa respiration, suspendu aux paroles du maître des lieux, Christian Charrière-Bournazel. Ancien Président du Conseil National des Barreaux et ancien Bâtonnier de Paris, c'est lui qui présidera l'audience. Sa stature et son coffre ajoutent de la dramaturgie à une séance déjà on ne peut plus inhabituelle. Car l'heure est grave : c'est à un procès que nous assistons. Et à un procès indédit : celui de deux robots. 

    "Objets inanimés avez-vous donc une âme ?"

    De sa voix de stentor, Christian Charrière-Bournazel rappelle les faits reprochés à R1 et R2, des robots policiers. Présents dans la salle, ils ne réagissent pourtant pas lorsque le président les interpelle. Empruntant des mots prophétiques à Alphonse de Lamartine, il questionne : "Objets inanimés avez-vous donc une âme ?" Point de réponse des deux intéressés, qui d'après le président de l'audience, semblent s'en remettre à leur avocat. Quelques rires discrets s'élèvent dans le public.

    Les faits

    Les faits remontent au 4 juillet 2028, lors d'une manifestation. Mandatés par le ministère de l'Intérieur, chargés de la surveillance de l'événement, de l'encadrement et de la sécurité des personnes, R1 et R2 ont ce jour-là, en plein défilé, identifié un individu suspect, fiché S, parmi la foule.

    "Dans un contexte post-terroriste, le comportement de l'individu, inhabituel, semble avoir interpellé les deux robots, explique Christian Charrière-Bournazel ; les capteurs et les algorithmes d'R1 et R2 ont pris les tressautements et les signes d'anxiété de l'individu pour suspects et l'ont perçu comme une menace". Coordonnant leur intervention, les robots lui ont chacun tiré dans un coude, le blessant gravement, et irrémédiablement. L'individu, qui ne représentait en réalité aucune menace ce jour-là, restera handicapé à vie. 

    Les robots personnes morales

    "Face à cette catastrophe, qui aurait pu se transformer en drame, le parquet à décidé de saisir la justice et de citer les robots en correctionnelle", explique le Président. La chaîne de responsabilités étant extrêmement compliquée, les deux robots sont jugés ce jour-là en tant que personnes morales. C'est un cyber procès au coeur de nos problématiques sociétales qui se déroule sous nos yeux : ce tribunal va devoir caractériser les infractions, en désigner les responsables et imaginer, le cas échéant, la sanction adéquate. 

    "Ils se sont pris pour des robots tueurs"

    Myriam Quémener, magistrate, docteur en droit et experte pour le Conseil de l'Europe en matière de cybercriminalité, représente ce jour-là les intérêts de la société et de l'Etat. Elle prend à son tour la parole pour commenter les faits reprochés aux deux robots : "Ce sont des robots policiers qui se sont pris pour des robots tueurs, déclare-t-elle ; ils n'ont pas compris leur environnement et ont pris la ville pour un champ de bataille". Rappelant les performances de ces policiers "augmentés" ("jamais malades", "jamais en grève"...), l'avocat général les accuse de manquer de subtilité et de discernement. "On leur avait pourtant appris l'éthique !", s'insurge-t-elle.

    Autonomie ?

    Suivant le choix procédural de cette audience, et considérant donc les robots comme des personnes morales, Myriam Quémener poursuit : "Je pense que les robots sont des personnes qui ont des droits et des devoir précis, y compris ceux de réparer les dommages causés à des tiers. R1 et R2 ont bien pris une décision et ils avaient un libre arbitre. Il ont été formés par le ministère de l'Intérieur, ce qui leur conférait une autonomie.

    Selon la magistrate, les deux robots ont donc bien violé la toute première loi de la robotique énoncé par l'auteur de science-fiction Issac Asimov : "un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger".

    Rétrogradation numérique

    Myriam Quémener pose ensuite la question de la peine infligée aux deux robots, une peine "qui doit être comprise par l'accusé, par la société et qui évite la récidive". Ecartant l'idée d'une peine de prison, la magistrate annonce vouloir proposer une peine qui tiennent compte de la personnalité des accusés et de la gravité des actes : " Je souhaite proposer une peine juste, une peine numérique... une cyber-peine", déclare-t-elle. L'avocat général plaide donc pour une peine de rétrogradation numérique afin qu'ils "redeviennent de simples objects connectés dépendants des humains". 

    Personnalité robot

    La parole est ensuite donnée à Alain Bensoussan. Avocat à la cour et président du cabinet Alain Bensoussan Avocats Lexing, il est le président fondateur de l’Association Française de Droit des Robots (ADDR), spécialiste du droit des technologies avancées et militant depuis plusieurs années pour une existence jurudique des robot et la notion de "personnalité robot". "Les hommes et les robots devront apprendre à survivre de manière paisible" affirme-t-il en préambule de sa plaiedoirie. Et d'ajouter : "Ma conviction est qu'ils ne sont pas coupables. Et c'est l'analyse de la prise de la décision et de la réalisation de l'intervention qui me permet de le prouver". 

    La prise de décision

    Concernant la prise de décision, l'avocat insiste sur le fait que les deux robots ont pris la mesure de la sitution grâce à leur technologie et leurs capteurs : "Le niveau d'information pour la prise de décision était bien supérieur à ce qu'aurait pu faire des humains, affirme-t-il ; il leur a suffit de prendre l'empreinte biométrique de l'individu à distance pour s'apercevoir qu'il était fiché S !" Selon lui, la prise de décision a été donc été prise bien plus raisonnablement que celle d'un humain.

    Par ailleurs, Alain Bensoussan rappelle le comportement éthique des robots, "by design". C'est à dire que dès leur conception, le code des robots a été programmé pour être éthique. Enfin, leur capacité d'apprentissage, leur histoire et leur existence font qu'ils ont une expérience réellement riche : rappelons-le, les robots sont capables d'intégrer bien plus de connaissances et de données qu'un humain. "Les deux robots étaient donc en capacité de comprendre la situation, insiste-t-il ; et c'est à partir d'une multitude d'informations, toutes exactes, qu'ils ont pris la décision de tirer". 

    La réalisation de l'intervention

    Concernant la réalisation de l'intervention, Alain Bensoussan insiste : "Nous n'avons rien à leur reprocher !" Il rappelle que R1 et R2 avaient bien pour mission de protéger tous les humains en minimisant les risques. "Ils se sont coordonnés, explique-t-il ; ils ont programmé leur intervention en vérifiant que les dommages collatéraux soient nuls. Leurs tirs étaient d'une qualité irréprochable. Des humains auraient probablement tué l'individu ou réalisé des dommages bien plus déplorables, sur la victime ou sur les personnes autour".

    Selon leur avocat, les deux robots ont pris la décision de blesser les coudes de l'individu pour l'empêcher d'appuyer sur un éventuel détonateur. "Ils ont agi avec dissernement, martelle-t-il ; ils n'ont pas commis de faute au regard du code 'ethique by design' et au regard du code des humains. Ils ont agi avec humanité pour protéger une foule dans un contexte d'attentats". 

    Science sans conscience...

    Selon Alain Bensoussan, les robots sont dotés de conscience. Si l'on admet de penser que la conscience c'est avoir conscience de son histoire (ils l'ont), la maîtrise de leur expérience (celle-ci est même bien meilleure que celle des humains puisqu'ils apprennent et ne se dégradent pas dans le temps) et la perception de leurs sensation (qu'ils ont en copiant les humains), alors R1 et R2 ont bien agi en conscience.

    Le verdict

    Terminant sa plaidoierie, Alain Bensoussan réagit au sujet de la peine encourue par ses "clients" : "Une société grandit quand une société est capable de ne pas tuer, affirme-t-il ; Il doit en aller de même pour les robots. Ils doivent être sur des fondements identiques. Et d'ajouter : "Ce qui compte, ce sont les valeurs qui sont prônées. Le droit n'est que l'écume des valeurs". 

    Après de longues minutes de délibération, le verdict est rendu : "Nous avons été un peu saisis d'effroi", explique Christian Charrière-Bournazel, avant d'annoncer que l'affaire sera finalement renvoyée après qu'une expertise ait eu lieu, confiée à trois experts humains et trois experts robots.

    Vide juridique

    Un verdict qui prouve à quel point notre société est pour le moment incapable de répondre à des questions permettant de juger, en l'état, des robots : s'agit-il d'êtres dotés d'une liberté qui permette les juger ? S'agit-il de personnes qui peuvent, si elles sont responsables, justifier de leur innocence ? S'agit-il enfin d'objets, ou d'un groupe d'une nouvelle nature, à la fois animés, intelligents, illimités sur certains points, plus limités sur d'autres, et plus sûrs de durer que nous le sommes nous-mêmes ?

    En la matière, nous nageons pour le moment en plein vide juridique. Rappelez-vous : en juillet 2015, un ouvrier de l’usine Volkswagen près de Kassel, en Allemagne, a été tué par un robot alors qu’il effectuait des travaux d’installation. Frappé à la poitrine puis propulsé contre une plaque métallique, l’intérimaire de 21 ans a été réanimé sur place avant de succomber à ses blessures.

    Un accident industriel comme les autres ?

    Le constructeur automobile a expliqué que l’accident n’était pas dû à un dysfonctionnement de la machine mais à une erreur humaine. Le robot était un ancien modèle qui avait été isolé dans une cage de sécurité pour éviter ce genre de drame. Si ce type d'accident est très rare, il avait tout de même relancé alors le débat sur la robotisation croissante des entreprises. Surtout que les nouveaux automates, appelés "collaborative robots", travaillent sur la même ligne de production que les humains. Ils sont cependant moins dangereux et s’arrêtent automatiquement lorsqu’on les bouscule grâce à leurs capteurs. 

    Cela n'a pas empêché la peur de certains d'un scénario à la I, Robot de se réveiller. Les réseaux sociaux se sont alors enflammés et ont baptisé l’événement comme "le premier meurtre par un robot". Mais un robot peut-il être considéré comme un meurtrier ? 

    Des robots de plus en plus indépendants

    "Aujourd’hui, dans l’Etat de droit, la réponse est non", indique l'avocat Alain Bensoussan ; mais demain, la réponse sera oui". Et d'ajouter : "il faut appliquer le droit des humains aux droits des robots".

    La responsabilité juridique est aujourd’hui celle du propriétaire, ce qui est illogique pour ce spécialiste du droit informatique. Il prend l’exemple des enfants qui, à 16 ans, deviennent pénalement responsables car jugés maîtres de leurs actes.

    Les robots deviennent de plus en plus indépendants et nos interactions avec les machines croissent de façon exponentielle. Ce n’est plus une simple relation objet-utilisateur. Grâce au développement de l’intelligence artificielle, ils sont maintenant capables de prendre des décisions de manière autonome et d’apprendre par eux-mêmes (machine learning). "Le robot interprète l’environnement grâce à ses capteurs et prend des décisions grâce à sa plateforme d’IA", précise l’avocat.

    Vers la création d’un droit de la robotique

    Pour combler ce vide juridique, Alain Bensoussan milite pour la création d’un droit de la robotique et particulièrement la mise en place d’une "personnalité robot". Basé sur le modèle de la "personnalité morale" des entreprises, elle rendrait responsable pénalement et civilement les actes commis par les robots.

    Le droit de la robotique devra aussi répondre à des questions éthiques comme dans toutes les technologies avancées. "Une personne âgée est dans une Google Car. Derrière, un humain conduit une voiture avec deux enfants à l’arrière. L’ordinateur de bord a le temps de freiner pour éviter un accident contrairement à l’humain, au risque de tuer les deux enfants derrière. Qui doit-il choisir ?", donne en exemple l’avocat.

    De la fiction à l'urgence

    C'est pour signaler l'urgence de préparer la société à de tels procès, tels qu'ils se dérouleront sûrement demain, que ce procès fictif a été organisé dans le cadre de l'événement Technolex 2018, qui s'est déroulé le 28 novembre dernier à Paris : le premier procès fictif d’un système robotique. Car la réalité dépassera bien vite la fiction, et il faudra rapidement déterminer "qui sera responsable ?". S'agira-t-il de l'utilisateur, personne physique ? Du constructeur ? Du logiciel ? Du codeur ? Des capteurs ? Un pan entier du droit reste encore à écrire...

    Ce sujet vous intéresse ? Découvrez le guide pratique Archimag consacré à l'intelligence artificielle :

    guide-pratique-Archimag

    Pour commander le guide pratique, le recevoir en quelques instants et lire l'article en intégralité ou pour consulter le sommaire du guide, cliquez-ici

    Data, intelligence artificielle et objets connectés

    L’intelligence artificielle et le machine learning donnent un coup d’accélérateur aux technologies de l’information. Parallèlement, l’internet des objets suppose un pilotage intelligent et génère quantités de nouvelles données qu’il faut traiter. Les algorithmes sont au coeur des systèmes. Emergent des questions d’aide à la décision, de responsabilité, d’éthique, de valorisation des données, de risques de piratage. Des régulations s’imposent ; services et solutions ont besoin de repères.

    Feuilletez quelques extraits du guide en cliquant ici.

    À lire sur Archimag
    Les podcasts d'Archimag
    Pour cet épisode spécial Documation, nous nous sommes penchés sur une autre grande tendance de l'année 2024 : la cybersécurité, et plus particulièrement la sécurité dans le domaine de la gestion des données. La protection des données contre les menaces internes et externes est non seulement cruciale pour garantir la confidentialité, l'intégrité et la disponibilité des données, mais aussi pour maintenir la confiance des clients. Julien Baudry, directeur du développement chez Doxallia, Christophe Bastard, directeur marketing chez Efalia, et Olivier Rajzman, directeur commercial de DocuWare France, nous apportent leurs éclairages sur le sujet.

    Serda Formations Data 2023