Publicité

Pour une intelligence artificielle responsable et sans danger pour l’humanité

Google, Amazon, Facebook, IBM et Microsoft vont créer ensemble une organisation à but non lucratif.

Par Benoît Georges

Publié le 28 sept. 2016 à 23:01

On connaissait les GAFA, voici désormais les GAFIM. Google, Amazon, Facebook, IBM et Microsoft ont dévoilé mercredi soir leur premier partenariat autour d’un thème majeur : l’intelligence artificielle (IA). Ces cinq géants de l’Internet et de l’informatique vont créer ensemble une organisation à but non lucratif « qui oeuvrera à améliorer la compréhension du public sur les technologies d’intelligence artificielle et à formuler les meilleures pratiques sur les défis et les opportunités de cette discipline », ont-ils indiqué dans un communiqué commun.

L’organisation, qui portera le nom ambitieux de «  Partnership on Artificial Intelligence to benefit people and society » (« partenariat sur l’intelligence artificielle au bénéfice des gens et de la société ») doit rassembler à la fois des représentants des cinq fondateurs mais aussi des universitaires, des spécialistes de l’éthique et des affaires publiques, et éventuellement des experts d’autres entreprises. Comme son nom l’indique, elle vise à promouvoir une pratique de l’IA responsable et sans danger. Sa création constitue une réponse à la montée des inquiétudes face aux progrès récents – et spectaculaires – des algorithmes.

Huit engagements

En janvier 2015, dans une lettre ouverte à l’initiative du think tank Future of Life Institute, le physicien Stephen Hawking, le patron de Tesla Elon Musk et des dizaines de chercheurs avaient alerté sur les dangers d’une intelligence artificielle mal maîtrisée - Hawking estimant même, au cours de différents entretiens qu’elle pourrait « aboutir à l’extinction de l’humanité ». Quelques mois plus tard, une autre lettre ouverte de scientifiques appelait à l’interdiction mondiale des « robots tueurs », les systèmes d’armes autonomes capables de faire feu sans intervention humaine.

Publicité

Le partenariat annoncé mercredi soir tente de répondre à la montée de ces craintes. Il s’accompagne d’une liste de huit engagements, plus ou moins précis : par exemple, les signataires « chercheront à garantir que les technologies d'IA bénéficient au plus grand nombre  » , « s’engageront dans une recherche ouverte et un dialogue sur les implications éthiques, sociales, économiques et légales de l’IA » ou « s’assureront que la recherche et la technologie sont robustes, fiables et dignes de confiance ». Ils s’opposent également à une utilisation de l’intelligence artificielle qui serait « contraire aux conventions internationales sur les droits de l’homme. »

Plusieurs initiatives

Si ce nouveau partenariat impressionne par le poids économique des cinq signataires, il ne s’agit pas de la première initiative. Fin 2015, le patron de Tesla, Elon Musk, et le cofondateur de l’incubateur californien Y Combinator, Sam Altman, avaient déjà lancé une entreprise à but non lucratif, Open AI, pour développer une intelligence artificielle « open source » bénéfique à l’humanité. En parallèle de cette initiative, plusieurs chercheurs de grands groupes indiquaient régulièrement réfléchir à une charte ou un à organisme pour promouvoir l’éthique. « Je ne suis pas surpris, estime Bertrand Braunschweig, directeur du centre de recherche Inria de Saclay et coordonnateur du livre blanc que l'institut vient de consacrer à l’IA . En janvier dernier, à New York, il y a eu une conférence sur le futur de l’intelligence artificielle organisée par la New York University avec le soutien de Facebook, Google, Microsoft, etc. Les thèmes de l'éthique et de la responsabilité y étaient déjà très présents. On sentait que les industriels se disaient qu’ils devaient travailler sur l’éthique et sur l’impact sociétal de leurs techonologies, mais que le raisonnement n’avait pas encore abouti. »

Le chercheur français Yann LeCun , organisateur de la conférence de janvier et responsable de Facebook Artificial Intelligence Research, fait partie des experts qui siègeront au conseil d’administration de la nouvelle entité, aux côtés notamment d’Eric Horvitz, de Microsoft Research, ou de Mustafa Suleyman, cofondateur de DeepMind, filiale de Google dont un logiciel a battu le meilleur joueur mondial de jeu de go en mars dernier. Pour Bertrand Braunschweig, « cette initiative-là est crédible, car elle vient des grands acteurs, ceux qui ont les données dont se nourrit l’IA aujourd’hui. Il ne faut pas être naïf  : ils sont obligés de prendre position pour des raisons commerciales, car sinon ils seront accusés de tous les maux. Ils sont aussi assez sincères, parce que les personnes qui s’occupent de la recherche en IA dans ces entreprises étaient les meilleurs chercheurs académiques il y a quelques années, et ils ont l’habitude de s’intéresser à l’impact de leurs travaux. »

Benoît Georges

MicrosoftTeams-image.png

Nouveau : découvrez nos offres Premium !

Vos responsabilités exigent une attention fine aux événements et rapports de force qui régissent notre monde. Vous avez besoin d’anticiper les grandes tendances pour reconnaitre, au bon moment, les opportunités à saisir et les risques à prévenir.C’est précisément la promesse de nos offres PREMIUM : vous fournir des analyses exclusives et des outils de veille sectorielle pour prendre des décisions éclairées, identifier les signaux faibles et appuyer vos partis pris. N'attendez plus, les décisions les plus déterminantes pour vos succès 2024 se prennent maintenant !
Je découvre les offres

Nos Vidéos

xx0urmq-O.jpg

SNCF : la concurrence peut-elle faire baisser les prix des billets de train ?

xqk50pr-O.jpg

Crise de l’immobilier, climat : la maison individuelle a-t-elle encore un avenir ?

x0xfrvz-O.jpg

Autoroutes : pourquoi le prix des péages augmente ? (et ce n’est pas près de s’arrêter)

Publicité