Cet article vous est offert
Pour lire gratuitement cet article réservé aux abonnés, connectez-vous
Vous n'êtes pas inscrit sur Le Monde ?

Des milliers d’experts en intelligence artificielle s’engagent à ne pas participer à la création d’armes

Elon Musk, les dirigeants de Google DeepMind et des milliers de chercheurs ont promis qu’ils ne s’impliqueraient pas dans le développement d’armes létales autonomes.

Le Monde

Publié le 18 juillet 2018 à 10h06, modifié le 18 juillet 2018 à 10h06

Temps de Lecture 1 min.

« La décision de prendre une vie humaine ne devrait jamais être déléguée à une machine. » Dans une lettre ouverte publiée mercredi 18 juillet, plus de 2 400 chercheurs, ingénieurs et entrepreneurs dans le secteur de l’intelligence artificielle (IA) se sont engagés à « ne jamais participer ou soutenir le développement, la fabrication, le commerce ou l’usage d’armes létales autonomes ».

Parmi les signataires, le PDG de Tesla, Elon Musk (connu pour ses déclarations alarmantes sur les dangers de l’IA), les dirigeants de Google DeepMind (l’entreprise de pointe à l’origine de la victoire de la machine sur l’humain au jeu de go), et d’éminentes personnalités du secteur, telles que Stuart Russell, Yoshua Bengio ou encore Toby Walsh.

« Nous appelons les gouvernements à bâtir un avenir encadré par des normes, des règles et des lois internationales solides contre les armes létales autonomes. Etant donné que cela n’existe pas encore, nous avons décidé de nous en tenir à ce principe. »

Le précédent Google

Les signataires appellent les entreprises du secteur à signer à leur tour cette lettre. Si les signatures de quelques employés de Google, d’Amazon et de Microsoft apparaissent, aucune ne vient de ceux de Facebook ou d’Apple.

La question de l’implication des chercheurs en intelligence arficielle, et notamment des entreprises du secteur, dans le développement d’armes, est revenue sur le devant de la scène en mars, quand les employés de Google ont appris que leur entreprise collaborait avec le Pentagone sur un projet d’analyse d’images filmées par les drones. Sous la pression, l’entreprise avait finalement mis un terme à ce projet, et annoncé dans la foulée une série de principes éthiques. Elle s’engageait notamment à ne pas mettre ses technologies d’IA au service de l’armement. Les autres se sont gardées de lui emboîter le pas.

Cette lettre, publiée sur le site du Future of Life Institute, un organisme états-unien à but non lucratif habitué aux mises en garde sur l’IA, vise à accentuer la pression, alors que se tient à Stockholm l’IJCAI, une grande conférence sur l’intelligence artificielle.

Le Monde

L’espace des contributions est réservé aux abonnés.
Abonnez-vous pour accéder à cet espace d’échange et contribuer à la discussion.
S’abonner

Voir les contributions

Réutiliser ce contenu

Lecture du Monde en cours sur un autre appareil.

Vous pouvez lire Le Monde sur un seul appareil à la fois

Ce message s’affichera sur l’autre appareil.

  • Parce qu’une autre personne (ou vous) est en train de lire Le Monde avec ce compte sur un autre appareil.

    Vous ne pouvez lire Le Monde que sur un seul appareil à la fois (ordinateur, téléphone ou tablette).

  • Comment ne plus voir ce message ?

    En cliquant sur «  » et en vous assurant que vous êtes la seule personne à consulter Le Monde avec ce compte.

  • Que se passera-t-il si vous continuez à lire ici ?

    Ce message s’affichera sur l’autre appareil. Ce dernier restera connecté avec ce compte.

  • Y a-t-il d’autres limites ?

    Non. Vous pouvez vous connecter avec votre compte sur autant d’appareils que vous le souhaitez, mais en les utilisant à des moments différents.

  • Vous ignorez qui est l’autre personne ?

    Nous vous conseillons de modifier votre mot de passe.

Lecture restreinte

Votre abonnement n’autorise pas la lecture de cet article

Pour plus d’informations, merci de contacter notre service commercial.