Publicité

Le projet d'intelligence artificielle de Google en santé inquiète son comité éthique

L'entreprise fait partie des pionniers dans le domaine de l'intelligence artificielle et de la santé. Les bureaux de Deepmind / Deepmind

Les huit experts s'inquiètent du risque de monopole «excessif» que l'entreprise pourrait acquérir, notamment dans le secteur sensible de la santé.

Deepmind était d'abord connue pour ses prouesses au jeu d'AlphaGo. Aujourd'hui, l'entreprise d'intelligence artificielle de Google se fait surtout un nom dans les débats éthiques liés aux technologies. Un comité indépendant de huit experts reconnus dans le domaine médical, mandaté par Deepmind, s'inquiète en effet de la place grandissante qu'est en train de prendre la société, notamment dans le domaine de la santé avec sa branche DeepMind Health.

Le rapport explique ainsi que «même en dehors de ses liens avec [la maison mère de Google, Alphabet, DeepMind Health] pourrait se trouver en position d'exercer un monopole excessif». Les établissements de santé pourraient théoriquement ne plus pouvoir se passer des services de DeepMind Health une fois qu'ils s'y sont essayés et ce, même s'il n'est plus financièrement ou cliniquement intéressant de poursuivre la relation. La raison tiendrait à des caractéristiques techniques contraignantes, qui empêchent de passer d'un système à un autre facilement.

Importante controverse

DeepMind Health a été un pionnier de la recherche dans l'intelligence artificielle appliquée au diagnostic des patients. Elle a été fondée en 2016, après que la société a commencé à travailler avec la Royal Free London NHS Foundation (qui dépend du service de santé public britannique). Elle compte déjà quelques percées cliniques importantes dans le champ de la détection automatique de pathologies oculaires notamment.

Deepmind Health a également très tôt affirmé qu'elle avait créé un comité éthique indépendant pour examiner son travail chaque année. Les membres du panel ne sont pas tenus de signer des accords de non-divulgation et sont en mesure de commander des analyses et des avis externes. La démarche est assez inhabituelle dans le secteur privé mais plutôt utile en termes de communication: cela permet de se faire une place dans le secteur sensible qu'est la santé en offrant à l'opinion des gages de son sérieux.

Malgré ces précautions, DeepMind a aussi fait face dans la pratique à une importante controverse dès 2016, lors de la signature d'un accord avec le NHS pour obtenir des données d'1,6 million de patients britanniques. Les données des patients sont essentielles pour explorer le plein potentiel de l'IA dans les soins de santé, mais la décision de DeepMind Health d'utiliser ces données afin de tester son application médicale Streams a été jugée illégale en juillet dernier par le régulateur des données personnelles britannique.

Enjeux de confidentialité

En plus de traiter ces sujets de préoccupation soulignés l'an dernier, le rapport du comité éthique de 2018 examine de plus près les modèles économiques de la société mère de DeepMind, Alphabet et sa perception dans l'espace public. «L'opinion s'est fortement retournée contre les géants de la technologie. Ils sont considérés comme des monopoles qui ne jouent pas leur juste part dans la société, que ce soit en payant suffisamment d'impôts ou en gardant le contenu de leurs plates-formes», notent ainsi les experts. «Leurs motifs sont maintenant considérés avec une suspicion croissante».

Bien que Deepmind n'ait pas indiqué clairement qu'elle envisageait de vendre des données ou qu'elle les utilisait pour personnaliser la publicité (son site Web indique que «les données ne seront jamais connectées à des comptes ou services Google»), la question de la confidentialité est l'autre enjeu qui ressort des 40 pages d'expertise. «Les enjeux de la protection de la vie privée à l'ère du numérique sont plus préoccupants aujourd'hui qu'ils ne l'étaient il y a un an et le point de vue du public sur les géants de la technologie a considérablement changé» ajoute le Dr Julian Ruppert en référence au scandale récent de Cambridge Analytica et à son utilisation abusive de vastes quantités de données sur les utilisateurs de Facebook. Pour lui, le public se demandera toujours si ces promesses de confidentialité de DeepMind Heath seront tenues sur le long terme.

L'entreprise doit donc être soumise à un niveau de règles de sécurité encore plus élevé que ne l'est Facebook, préconisent les experts dans leurs conclusions. Ceux-ci introduisent au total 12 principes éthiques permettant de mesurer la progression de l'entreprise. Cette décision fait suite à la publication par Google d'un ensemble de 7 grands principes pour le développement éthique de l'IA, suite aux critiques généralisées sur son implication dans les contrats de défense, qui ont conduit les employés et les universitaires à pétitionner contre lui.




Big Bang Santé, Maison de la Chimie à Paris, le 18 octobre 2018, de 9h à 17h30

» Découvrez la 3ème édition 2018


Le projet d'intelligence artificielle de Google en santé inquiète son comité éthique

S'ABONNER
Partager

Partager via :

Plus d'options

S'abonner
8 commentaires
  • Nitchevo.45

    le

    Google IS Evil !

  • le_droit_à_l_errance

    le

    ah parce que GOOGLE A UN COMITÉ ETHIQUE ......
    PREMIERE NOUVELLE ...

  • BCE 106 6

    le

    Google a un comité éthique !
    -
    Mort de rire !

À lire aussi