Elon Musk a dit « Skynet ? On risque rien, enfin ça n’arrivera pas avant 2025 maximum ! ».

L’intelligence artificielle pourrait faire de grands progrès en 2017. Les nouvelles avancées signifient que nous pouvons créer une intelligence qui peut passer le test de Turing et donc « out-think human ». C’est-à-dire le dépassement de la pensée humaine. Mais en même temps, les gourous de la tech sont préoccupés par les complications éthiques qui pourraient résulter de la mise au point de l’IA.

La Fondation Knight, une association à but non lucratif, dédiée aux activités telles que la promotion du journalisme et l’innovation. Elle fait équipe avec les stars de la technologie. Reid Hoffman le fondateur de LinkedIn et Pierre Omidyar le fondateur d’eBay ont également créé un fonds appelé “Ethics and Governance of Artificial Intelligence Fund”. Dans un communiqué de presse, la Knight Foundation a déclaré : « le fonds sera utilisé pour appliquer les sciences humaines, les sciences sociales et d’autres disciplines dans le développement de l’IA. »

Le fonds travaillera avec les établissements d’enseignement comme le MIT Media Lab et Berkman Klein Center de Harvard et veillera à ce que les technologies construites soient éthiques et profiteront à la société.

De la programmation naît la conscience artificielle

Quand la plupart des gens pensent à la façon dont l’IA pourrait être une menace, on pense souvent à des machines sans âme qui détruisent l’humanité. Bien que ce scénario reste du domaine de la science-fiction, les problèmes éthiques derrière le développement de l’IA existent bel et bien.

Une réalisation importante dans le domaine de l’IA est le Machine Learning. Où l’IA peut tirer des conclusions indépendantes en regardant des ensembles de données. Dès lors elles peuvent tirer des conclusions auxquelles les humains n’ont pas pensé (peut-on parler de « conscience artificielle » ?). Quoiqu’il en soit, elles sont toujours liées par les paramètres que nous leurs programmons. Alberto Ibarguen, le président de la Fondation Knight, a observé : «Étant donné que les algorithmes ont des parents et les parents ont des valeurs qu’ils insufflent dans leur descendance algorithmique, nous voulons influencer le résultat en assurant un comportement éthique. »

Microsoft en a fait les frais

La race est un exemple important de la façon dont nous pouvons imprimer nos préjugés conscients ou inconscients sur l’IA. Le tristement célèbre Tay, débâcle de l’année dernière, un chatbot crée par Microsoft a été enseigné par des trolls. Résultat : Tay tweetait des propos racistes et sexistes tels que « Hitler avait raison, je déteste les Juifs ». Microsoft l’a donc « débranché » en moins de 24 heures.

Cette catastrophe a été intentionnellement créée par des racistes en ligne. Certes, mais nos préjugés inconscients aussi peuvent créer des IA racistes. Ainsi, en septembre, un concours de beauté jugé par une IA, a majoritairement choisi les individus blancs ou à la peau plus claire. Étonnant car les programmeurs n’avaient pas programmé l’IA pour favoriser la peau claire ! Mais ils avaient montré à l’IA plus de photographies de modèles blancs comme des exemples de la beauté. Par conséquent l’IA a appris que les femmes à la peau claire ont été « plus belles ». Des résultats similaires ont surgi dans le domaine de la recherche d’emploi ; sous cette même intention inconsciente de la programmation d’une IA.

Une IA raciste est une goutte dans un océan

L’IA raciste est juste un petit problème sur le plan éthique. Il y a des préoccupations sur la façon dont l’IA pourrait mettre la plupart des humains hors du travail. De quelle façon notre système économique fonctionnerait dans ces circonstances ? Comment protéger les IA contre les pirates et les criminels ? Et puis il y a le problème inévitable des droits des robots.

L’IA n’est pas seulement une préoccupation technologique

Le développement de l’IA a été laissé entre les mains d’entreprises technologiques qui se concentrent pour en tirer le meilleur parti. Mais compte tenu des préoccupations susmentionnées, les économistes et les éthiciens travaillent pour faire en sorte que l’IA sera un avantage net positif pour la société.

La Fondation Knight n’est pas le seul groupe à essayer d’examiner les implications éthiques de l’intelligence artificielle. Elon Musk le PDG de Tesla a fait don de 10 millions de dollars pour financer l’avenir de Life Institute, une organisation visant à atténuer le risque existentiel que l’IA pourrait poser à l’humanité.

Malheureusement, il n’y a pas d’étapes faciles pour élaborer une éthique à l’intelligence artificielle. La technologie a été adoptée dans tous les aspects du commerce, de l’optimisation des moteurs de recherche à la négociation d’actions à Wall Street. Bref tout y passe et tout est déjà sous contrôle de l’IA. La Knight Foundation espère favoriser un débat public autour de l’IA. Et de veiller à ce que les scientifiques, les entreprises technologiques et les fondations travaillent ensemble. Ce dernier examine les implications sociétales de nouveau développement d’intelligence artificielle en mettant en garde les problèmes potentiels. Le fonds soutiendra également un programme de bourse qui favorise les discussions relatives à l’éthique de l’IA.

Débarrasser de Skynet ?

Les craintes au sujet de la destruction pure et simple de l’humanité à la main des machines sont exagérées. Mais le développement de l’IA aura des effets dramatiques pour la société dans son ensemble. Des organisations telles que « Ethics and Governance of Artificial Intelligence Fund » et « Life Institute » sont nécessaires pour garantir une utilisation de l’IA bénéfique pour la société et dans son ensemble. Et non pas amplifier les pires parties comme le racisme/sexisme ou l’inégalité des revenus. Le fait que les gourous de la technologie comme Hoffman, Omidyar ou encore Elon Musk travaillent à faire en sorte que l’IA reste éthique, est un signe que la société a besoin d’avoir une discussion sérieuse sur l’IA et comment nous adapter.
Pensez-vous qu’il y ait une nécessité de se protéger des algorithmes de consciences artificielles ?