Intelligence artificielle : "Le danger, c'est que la peur masque les vrais risques politiques"

Publicité

Intelligence artificielle : "Le danger, c'est que la peur masque les vrais risques politiques"

Par
Jean-Gabriel Ganascia, spécialiste de l'intelligence artificielle, en mai 2016
Jean-Gabriel Ganascia, spécialiste de l'intelligence artificielle, en mai 2016
© Radio France - Eric Chaverou

Entretien. État, éthique, histoire et avenir de l'intelligence artificielle, en particulier en France, avec Jean-Gabriel Ganascia, expert en la matière, informaticien, philosophe, et membre du comité d'éthique du CNRS. Alors que Facebook agrandit ces jours-ci à Paris son unique laboratoire européen en IA.

Professeur à l'Université Pierre et Marie Curie, expert en apprentissage machine, sciences cognitives, philosophie computationnelle, humanités numériques, éthique des nouvelles technologies, Jean-Gabriel Ganascia nous a longuement confié sa vision d'hier, d'aujourd'hui et de demain. Écoutez l'intégralité de cette conversation (en amont de notre Magazine de la rédaction de vendredi), dont voici les développements clés.

Grand entretien sur l'intelligence artificielle avec Jean-Gabriel Ganascia

44 min

  • Les traditions historiques, culturelles, religieuses interfèrent-elles dans les recherches en intelligence artificielle en France ?

"C'est vrai que le début de l'intelligence artificielle en France a été assez particulier. Il se trouve que la discipline est née d'une part au Royaume-Uni, avec entre autres bien sûr Turing, et des écoles à Glasgow, en Écosse, qui étaient très précoces, et bien sûr aux États-Unis où le terme est né.

Publicité

En France, il y a eu des errements tout au début dans la fabrication des machines, avec une volonté très précoce de faire des calculateurs, et en même temps l'idée que l'on avait une voie originale, une avance conceptuelle sur les anglo américains. Quelques années plus tard, on s'est rendu compte que la machine française en était encore à l'étape des plans, alors que la machine américaine était réalisée. Ensuite, il y a eu tout un tas de réflexions, mais on peut dire que c'est une discipline essentiellement pragmatique. Avec dans l'idée d'étudier l'intelligence dans ses manifestations empiriques avec des machines. C'est-à-dire de prendre les différentes fonctions qui sont comprises sous le terme d'intelligence, et puis chacune essayer de les simuler avec une machine. En France, souvent on a eu une vision plus totalisante. Et l'on s'est dit, non, la pensée est plus complexe que cela, et donc il y a eu quand même une crainte. Avec de bons mathématiciens qui avaient une certaine méfiance de l'intelligence artificielle et des oppositions enflammées.

Il s'agissait vraiment à chaque fois de la pensée pascalienne, entre l'esprit de géométrie et l'esprit de finesse.

Mais dans les années 70 et surtout 80, tout ceci s'est arrêté pour des raisons pratiques, en particulier les questions de développement industriel. Et aujourd'hui, il y a un grand développement de l'intelligence artificielle en France lié à l'apport de notre très grande école de mathématiques."

- Christos Georghiou
  • Vous travaillez sur les humanités numériques, la philosophie computationnelle, l'éthique des technologies, n'est-ce pas une spécificité française ?

"La notion d'humanité numérique a été introduite plutôt à l'étranger. Cela s'inscrivait dans la continuité de ce que l'on appelait en anglais "computing and humanities", et ce champ disciplinaire qui mettait les ordinateurs au service des humanités traditionnelles s'était développé dans beaucoup de pays : en Italie, au Royaume-Uni, en Allemagne, aux États-Unis, et en France. Aux États-Unis, beaucoup de gens s'intéressaient par exemple à la reconnaissance de la paternité de textes.

En France, les gens ont travaillé dans les questions stylistiques, de lexicométrie. Et aujourd'hui, on a depuis 4, 5 ans des projets originaux parce que l'on a à la fois dans le laboratoire (OBVIL) que je co dirige des littéraires, vraiment inscrits dans la tradition la plus classique, et des informaticiens bien sûr. Le but étant une osmose entre les deux.

Pour afficher ce contenu Youtube, vous devez accepter les cookies Publicité.

Ces cookies permettent à nos partenaires de vous proposer des publicités et des contenus personnalisés en fonction de votre navigation, de votre profil et de vos centres d'intérêt.

Par exemple, on a travaillé sur Pascal Quignard et l'évolution de ses textes, avec des avalanches sémantiques. On a vu qu'il y avait des phases de réécriture avec toutes les transformations qui allaient dans le même sens : en rajoutant des éléments qui donnent davantage de somptueux, de beau, ou de passion.

Il ne s'agit pas d'une machine qui se substitue à la critique littéraire ou aux philosophes. La machine nous aide dans l'interprétation. Autre question : comment un auteur en influence un autre ou quelles sont les citations, les références utilisées. Manuellement, c'était beaucoup plus fastidieux à faire.

Et j’insiste : il ne s'agit pas de faire disparaître ces disciplines en les remplaçant par des machines, je crois justement que la modernité est beaucoup plus passionnante, elle nous permet d'être plus intelligents avec les machines. D'ailleurs, l'intelligence artificielle, je crois que c'est essentiellement l'augmentation de l'intelligence humaine. (...)

Il peut y avoir une complémentarité, une forme de compagnonnage, d'accompagnement de la machine, qui fait des choses mieux que nous."

  • Mais comment "encadrer" ces machines ?

"Il faut rajouter à ces machines un certain nombre de contraintes pour que, certes, elles essayent d'être plus efficaces, mais qu'elles respectent quand même un certain nombre de normes que l'on a introduites. Et donc nous avons un programme de quatre ans financé par l'Agence nationale de la Recherche qui s'appelle EthicAa, Éthique et agents autonomes, justement sur ces questions. Cela nous conduit avec des philosophes et des spécialistes de différents champs de l'intelligence artificielle à réfléchir à la conception de systèmes d'IA dans lesquels on fait intervenir des valeurs, qui ne sont pas simplement liées à l'efficacité, mais qui sont des valeurs qui peuvent être morales. Comme le respect de la vie, le respect de l'intimité individuelle ou celui de la volonté. (...)

Avec des situations sur lesquels on travaille où il y a un conflit entre l'homme et la machine. Par exemple, dans une cabine de pilotage, si un automate veut prendre une décision et le pilote une autre, qui doit avoir l'autorité sur l'autre ? Bien sûr, l'idée initiale, c'est que l'homme doit toujours l'emporter sur la machine. Or, les études rétrospectives des accidents d'avion montrent que ceux-ci sont dus en grande partie à l'homme !

Du point de vue international, il n'existe pas d'autre programme qui allie de façon si intime différentes parties de l'intelligence artificielle et de la philosophie sur des questions qui nous semblent vraiment tout à fait essentielles pour le futur."

Capture d'écran du site d'EthicAa
Capture d'écran du site d'EthicAa
  • Avec quel positionnement des militaires ?

"On a eu des contacts avec eux sur la prise de décision en situation, en prenant en compte bien sûr tous les facteurs éthiques. On sait que lorsque dans les armées européennes on s'engage à tirer, il faut obéir à tout un tas de règles. Et il y a eu un certain nombre de questions qui ont fait beaucoup polémique l'an dernier sur les drones autonomes sur lesquelles justement on a réfléchi. Et d'après nous, la question a été mal posée lorsqu'un certain nombre de spécialistes de l'intelligence artificielle ont signé une pétition car les militaires nous ont confirmé qu'il n'y a pas pour l'instant de volonté de mettre en place des drones autonomes, parce qu'il faudrait qu'il puisse déterminer de lui-même ce que va être sa cible. (...)

En revanche, la question que se posent souvent les militaires, c'est qu'ils ne souhaitent pas qu'il y ait un moratoire sur les armes autonomes. Parce qu'ils ne voudraient pas que si certains se mettaient à en développer, il y ait une infériorité technique des pays qui se seraient engagés à ne pas les développer.

Mais sur l'éthique avec les militaires, on a quelques contacts, mais ce sont plus des réflexions générales que des applications immédiates."

Lisez " Pourquoi Stephen Hawking et Bill Gates ont peur de l'intelligence artificielle"

  • Et les industriels ?

"Je pense qu'aujourd'hui les enjeux financiers qui sont liés à un certain nombre d'industries, comme celle des jeux vidéo ou des industries grand public, sont beaucoup plus considérables. Et donc ce sont de grands acteurs comme Facebook, Google, Apple ou d'autres qui vont avoir un rôle central. Et bien sûr, eux-mêmes ont tellement de moyens qu"ils sont capables de développer en interne les choses sans faire appel aux laboratoires. Ils font appel aux meilleurs d'entre les jeunes étudiants diplômés et ils leur offrent des conditions fabuleuses qui fait qu'il est difficile de les retenir."

Lisez " Mais pourquoi Facebook investit dans l'intelligence artificielle à Paris ?"

"Donc le problème aujourd'hui est plus lié à la souveraineté et au fait que ces grands acteurs prennent de plus en plus dans le monde à leur charge ce qui relevait des attributs traditionnels des états, les fonctions régaliennes. Cela risque de conduire à une reconfiguration politique majeure dans les années à venir. Par exemple pour la sécurité et la reconnaissance faciale. Quels acteurs peuvent le faire aujourd'hui ? Les réseaux sociaux puisqu'on leur donne toutes les photos, les données. (...) Et je crois que ce sont cela les enjeux majeurs à venir, et il ne faut pas se tromper.

Il y a toutes sortes de Français, mais des gens pas avertis peuvent être effrayés face à l'intelligence artificielle. Et en particulier face à des contes, des histoires, des fables reposant notamment sur la singularité technologique et des robots devenus plus intelligents que nous et qui prennent le pouvoir, ou des fables positives dans lesquelles on nous promet l'immortalité. Toutes ces fables peuvent enthousiasmer, surtout elles font peur. Et je crois que le danger, c'est que la peur masque les vrais risques. Et c'est pour cela qu'il est important aujourd'hui qu'il y ait des débats publics pour expliquer quels sont les véritables enjeux, qui me semblent aujourd'hui de nature politique."