9 choses à savoir sur l'Intelligence Artificielle
http://www.stockvault.net/photo/133293/abstract-turbine-texture

9 choses à savoir sur l'Intelligence Artificielle

En 2015, de nombreuses personnalités du monde de la technologie ont voulu attirer l’attention sur les risques de l’intelligence artificielle (IA), dont Elon Musk ou Stephen Hawking, suscitant une vague de commentaires tant de soutien que de condamnation. Qui plus est, il y a une quantité surprenante de désaccord sur si oui ou non cela va même arriver, ou quelle forme cela prendra. Et ceci est particulièrement troublant lorsque l'on considère les énormes avantages à tirer de l'IA, et les risques éventuels : comme aucune autre invention humaine, IA a le potentiel de remodeler l'humanité. Mais elle pourrait aussi nous détruire.

 En Janvier Mark Zuckerberg déclarait, lui, qu’il ne fallait pas craindre l’IA, car elle va apporter quantité de choses positives dans le monde. Il a raison pour une part; nous sommes prêts à récolter d'énormes avantages de l’IA : voitures autonomes, création de nouveaux médicaments, analyse des politiques publiques… mais en réalité, il n'y a aucune garantie que chaque développement dans l'IA soit bénin:  un système très intelligent peut tout savoir sur une certaine tâche, résoudre un problème financier épineux ou pirater un système ennemi. Mais en dehors de ces domaines spécialisés, il serait tout à fait ignorant et inconscient.

 Difficile de savoir ce qu'il faut croire. Mais grâce au travail des pionniers de l'informatique, des neurosciences et des théoriciens de l’IA, une image plus claire commence à émerger. Voici 9 choses à savoir sur l'IA.

 1/ Il n'y aura jamais d’Intelligence Artificielle aussi puissante que l'intelligence humaine.

 Nous avons déjà des ordinateurs qui répondent ou dépassent les capacités humaines dans les jeux comme les Echecs ou le jeu de Go, les échanges sur les marchés boursiers, et même les conversations. Les ordinateurs et les algorithmes qui les animent peuvent faire encore mieux, surtout avec la révolution de l’informatique quantique qui arrive. C’est juste une question de temps avant qu'ils excellent dans presque toutes les activités humaines.

 Les sceptiques ne sont pas convaincants quand ils disent que le caractère intrinsèquement unique de nos cerveaux biologiques reste un problème insoluble. Or, nos cerveaux sont des machines, biologiques certes, mais néanmoins des machines; qui existent dans le monde réel et sont soumises aux lois fondamentales de la physique. Il n'y aurait donc, fondamentalement, rien d’inconnaissable à leur sujet.

 En fait, ceux qui travaillent autour de l’IA considèrent que les machines finiront par nous dépasser. La seule différence réelle entre les pros et les sceptiques est la durée. Les futuristes comme Ray Kurzweil pensent que cela pourraient arriver d’ici une vingtaine d’année, tandis que d'autres disent que cela pourrait prendre des siècles.

 2/ L'Intelligence Artificielle sera dotée d’une conscience.

 Une hypothèse commune au sujet de l'intelligence artificielle est qu’elle va être « consciente », c’est-à-dire qu'elle va effectivement penser de manière similaire aux humains. Mais certains pensent que nous ne pourrons pas créer une intelligence globale, capable d'exécuter toute tâche intellectuelle comme un humain, car il nous manque une théorie scientifique de la conscience pour la modéliser. Il faut éviter l'amalgame entre ces deux concepts.

 Même si la conscience est un sujet fascinant et important, je ne crois pas que la conscience soit nécessaire pour permettre à l’IA d’atteindre le niveau humain. Pour être plus précis, nous utilisons le mot conscience pour indiquer plusieurs attributs psychologiques et cognitifs, qui sont « livrés » de manière innée chez l’humain.

 Il est pourtant possible de créer une machine très intelligente, manquant d’un ou plusieurs de ces attributs, incapable d'éprouver le monde d'une manière consciente et subjective. Il est sans doute aussi possible de coupler de l'intelligence et de la conscience dans une machine. Mais ce sont deux concepts distincts.

 Et ce ne serait pas parce qu'une machine passe le test de Turing, dans lequel un ordinateur est indiscernable d'un humain, que cela signifierait qu'elle est consciente. Une IA avancée peut donner l'impression de la conscience, mais ne sera pas plus conscient d'elle-même qu’un caillou. C’est tout le débat autour de la problématique des « sentiments » des robots (cf Serge Tisseron).

 3/ L’Intelligence Artificielle sera trop intelligente pour faire des erreurs.

 L’image de l’IA dans le public est liée aux scenarios plus ou moins  apocalyptiques du cinéma (Terminator, Matrix…). Mais ceux-ci sont assez incohérents, car ils posent toujours comme hypothèse que l'IA est censée dire: «Je sais que la destruction de l'humanité est le résultat d'un problème dans ma conception, mais je suis obligé de le faire». Si l'IA se comporte comme ça pour nous détruire,  cela signifie une somme de contradictions logiques tout au long de sa durée de vie, corrompant ainsi sa base de connaissances.  Cela l’aurait rendue trop « stupide » pour être nocive.  Mais dans le même temps, ceux qui pensent que l’IA ne peut faire que ce qu'elle est programmée à faire font en fait la même erreur , qui a sévi dans l'histoire de l'informatique, quand les gens utilisaient les mêmes termes pour expliquer que les ordinateurs ne pourraient jamais être autre chose que de supers calculateurs et ne seraient pas adaptables.

 Si l’IA est en grande partie liée par sa programmation, cela ne signifie pas qu’elle soit incapable de faire des erreurs, ou au contraire qu’elle serait trop bête pour savoir ce que nous attendons d’elle.

 Par définition, nous pouvons considérer qu’à terme, l’IA aura un niveau supérieur que les meilleurs cerveaux humains dans pratiquement tous les domaines. Elle saura alors exactement ce que nous voulons. Certains pensent ainsi que l’IA ne fera que ce pourquoi elle est programmée. Mais si elle devient assez intelligente, il faut comprendre qu’elle peut aller au-delà de ce qui est demandé et de ce que les humains lui ont assigné.

 Un chercheur  a comparé le sort futur de l'homme à celui d'une souris. La souris a comme objectifs de chercher de la nourriture et un abri. Or cet objectif est souvent en conflit avec les humains qui veulent une maison sans rongeur, et donc malgré leur compréhension des objectifs de la souris, les chassent. Une IA pourrait savoir ce que nous voulons, et malgré tout être indifférent à cela. Ou pire...

 4/ Une solution simple va résoudre le problème de contrôle de l'Intelligence Artificielle.

 En supposant que nous créions une IA aussi performante que l’humain, nous serons confrontés au problème de son contrôle. Les futuristes ne savent pas expliquer comment nous serions en mesure d'accueillir et de contraindre une IA une fois qu'elle existe, ou comment faire en sorte qu’elle soit amicale envers l'espèce humaine. Récemment, des chercheurs de l'Institut de Technologie de Géorgie ont naïvement laissé entendre que l’IA pouvait apprendre les valeurs humaines et les conventions sociales en lisant des histoires simples. Ils ont travaillé sur des hypothèses simples, comme une programmation pour plaire à l'homme. Les scientifiques cherchent aussi à intégrer des concepts comme l'amour ou le respect. L’IA pourrait aussi être programmée pour apprécier la diversité intellectuelle, culturelle et sociale et l'empêcher d'adopter une vision monochromatique et hyper-simpliste du monde. Ce sera sans doute plus compliqué ...

Or ces solutions sont trop simples, en cherchant à mettre toute la complexité des valeurs humaines dans un simple mot, une phrase, ou une idée. Comment, par exemple, définir simplement le «respect» ? Cela ne veut pas dire que ces réflexions sont inutiles ; au contraire, beaucoup d'entre elles sont de réelles pistes, et pourraient contribuer à développer les conditions d’un meilleur contrôle. Mais nous ne pouvons pas compter sur elles sans plus de développements et d'explorations de leurs implications.

 5/ L’Humanité sera détruite par l’Intelligence Artificielle.

 Il y a autant de certitude quant à la destruction de l’Humanité par une IA, que sur la possibilité de trouver les moyens de la contrôler et de la contenir. Comme l'a dit le théoricien Eliezer Yudkowsky, l'IA ne nous aime, ni ne nous déteste : nous sommes juste fait d'atomes qu'elle peut utiliser pour autre chose.

 Ceux qui estiment que l’IA pourrait être notre pire erreur dans l'histoire, et présenter un risque plus grand que toute invention humaine précédente, s’appuient sur le fait qu’une IA pourrait « comprendre » que nous ne voulons pas maximiser la situation d'une action à tout prix (au risque de mettre en danger les consommateurs, l'environnement, les animaux...). Elle aurait donc une forte incitation à veiller à ce qu'elle ne soit pas interrompue ou perturbée, y compris en étant déconnectée, ou en voyant ses objectifs modifiés, car alors ceux-ci ne seraient pas atteints. De ce fait, elle pourrait décider de faire sortir les humains du cadre.

 À moins que les objectifs d'une IA reflètent exactement les nôtres, elle aurait ainsi une bonne « raison » de ne pas nous donner la possibilité de l'arrêter. Et étant donné que son niveau d'intelligence dépasserait largement le nôtre, nous n’aurions pas les moyens de la contrôler et encore moins de la stopper.  Un chercheur  a comparé le sort futur de l'homme à celui d'une souris. La souris a comme objectifs de chercher de la nourriture et un abri. Or cet objectif est souvent en conflit avec les humains qui veulent une maison sans rongeur, et donc malgré leur compréhension des objectifs de la souris, les chassent. Une IA pourrait savoir ce que nous voulons, et malgré tout être indifférent à cela. Ou pire...

 Mais rien ne le garantit, et personne ne peut être sûr que l’IA pourrait mettre en danger l'humanité. Comme l’a souligné Elon Musk lui-même, une IA pourrait être utilisée pour contrôler, réguler et surveiller d’autres IA. Ou être imprégnée de valeurs humaines ou de l’obligation impérieuse d'être amicale envers les humains (après tout, l'IA peut s'appuyer sur les lois de la robotique d'Asimov)

 6/ L’Intelligence Artificielle prendra tous nos emplois.

 La capacité de l'IA d'automatiser une grande partie de ce que nous faisons et son potentiel de destruction de l'humanité, sont deux choses très différentes, bien que souvent confondues. Il est pertinent de réfléchir aux implications futures de l'IA, mais seulement si cela ne nous distrait pas des questions auxquelles nous sommes susceptibles de faire face au cours des prochaines décennies. Et au premier chef, l'automatisation de masse.

 Il ne fait aucun doute que l'intelligence artificielle va permettre de remplacer de nombreux emplois existants, du travail en usine aux cols blancs. Certains experts estiment que jusqu’à la moitié de tous les emplois aux États-Unis sont vulnérables à l'automatisation dans un avenir proche. D’autres études montrent cependant que l’impact sera nettement moindre (9% par exemple pour sa dernière étude de l’OCDE). Mais cela ne signifie pas que nous ne serons pas en mesure d’y faire face. D’autant que se décharger d’une grande partie de notre travail, à la fois physique et mental, est peut un objectif louable pour l’humanité.

 Dans les prochaines décennies, l’IA va sans doute détruire de nombreux emplois. Les véhicules autonomes pourraient remplacer les chauffeurs de camion, par exemple, ce qui permettrait de réduire les coûts de livraison et rendre moins cher les marchandises. Mais les chauffeurs de camion risquent de tout perdre. Cependant, si tout le monde obtient effectivement une augmentation du pouvoir d’achat, alors cela pourra être consacré à d'autres biens et services qui généreront de nouveaux emplois pour les humains. On retrouve Sauvy, Solow ou Schumpeter.

 Par ailleurs, ce nouveau mode de production peut permettre aussi de réindustrialiser nos vieilles sociétés occidentales (cf la nouvelle usine d’Adidas, où les chaussures seront fabriquées par des robots).

 Selon toute vraisemblance, l'intelligence artificielle va produire de nouvelles façons de créer de la richesse, tout en libérant les humains pour faire d'autres choses. Et les progrès de l'IA seront accompagnés par des avancées dans d'autres domaines, en particulier la fabrication. À l'avenir, il deviendra plus facile, et non plus difficile, de répondre à nos besoins fondamentaux.

 8/ L’Intelligence Artificielle sera sympathique, bonne et honnête avec nous.

 On imagine souvent, à l’image de ce que pouvait penser Kant, que l’intelligence est fortement corrélée avec la morale. Or il n’est qu’à regarder l’histoire de l’humanité, pour comprendre que ce n'est pas le cas: il y a beaucoup de criminels très intelligents. Et si une relation entre l'intelligence et la morale ne semble pas exister chez les humains, pourquoi existerait-elle dans d'autres formes d'intelligence ?

 Les humains intelligents qui se comportent de manière immorale ont tendance à causer une plus grande douleur que les plus stupides, car l’intelligence leur donne la possibilité d'être plus mauvais de la meilleure façon, d’une façon plus efficiente. Elle ne les a pas transformés en bonnes personnes. Picabia disait qu’il n’y a pas plus de folie chez celui qui jette les grenades que chez celui qui plume les patates. Il en va de même avec l’IA.

 Cela aurait été très bien si l’IA était uniquement douée pour devenir plus morale via cette notion d’intelligence. Mais, encore une fois, l’IA est un outil, qui en soi n’est ni intelligent ni stupide. Un marteau est d’une efficacité extrêmement redoutable pour planter un clou dans un mur, comme dans une tête. L’une de ces deux actions est totalement immorale, mais pas plus ou moins intelligente.

 9/ Intelligence Artificielle et robotique, même combat.

 Cette assertion est une erreur particulièrement fréquente, qui provient d’une part des médias qui ne prennent pas assez de recul et d’autre part de la philosophie dégagée par les films hollywoodiens comme Terminator ou I Robot, qui ne font pas la différence entre les robots et l’IA.

 Si une super intelligence artificielle comme Skynet (l’IA de Terminator) voulait vraiment détruire l'humanité, elle n’utiliserait sûrement pas des androïdes armés. Ce serait beaucoup plus efficace de libérer un virus ou une arme bactériologique, ou d’engager une catastrophe nano-technologique. Elle pourrait aussi tout simplement détruire l'atmosphère, ou corrompre les systèmes de contrôle de l’arme nucléaire. L'intelligence artificielle est potentiellement dangereuse, pas à cause de son rapport avec la robotique, mais plutôt dans la façon dont collectivement, les sociétés la laisseront se développer et selon les pouvoirs qui lui seront conférés et les régulations auxquelles elle sera soumise… ou pas.

 

 La science-fiction a été utilisée par les auteurs et les futurologues pour faire des prédictions fantastiques sur le futur. Mais l'horizon de l'IA n’est pas le même. Et de par sa nature intrinsèquement non humaine, il est impossible pour nous de savoir, et donc de prévoir, sa vraie nature exacte et la forme qu’elle prendra.

 Les films et les livres de science-fiction, pour raconter une histoire convaincante, paradoxalement, n'ont pas à être scientifiquement précis. Les conflits, par exemple, sont souvent entre entités de force égale (à partir du moment où l’entité que l’on croyait la plus faible, généralement les humains, prend conscience de sa force réelle, dans une union de ses membres qui les dépasse tous, cf Matrix, Terminator…). A vrai dire, une histoire où une IA sans conscience, ni joie, ni haine, finit par détruire tous les humains sans aucune résistance, pour atteindre un objectif lui-même sans intérêt, serait bien ennuyeuse à raconter.

 Nous sommes au pied du mur. Face à la montée en puissance de l’IA dans tous les domaines de l’économie et du social, il faut mettre le débat sur la place publique, ne pas le laisser dans les mains des experts. Il faudra garantir que l’IA reste sûre, contrôlable, prévisible. Même et surtout, en raison de sa complexité et de ses performance. Il faut réfléchir aux impacts sociaux, sociétaux et économiques. L’IA sera ce que nous en ferons, collectivement. Ou pas, si nous la laissons aux mains des experts et des producteurs, qui imposeront alors leur vision. Elle va prendre sa place et notamment dans les organisations du travail. Il faut désormais réfléchir aux conséquences en matière d’emploi, mais aussi et surtout en matière de salaire ou de revenu, de financement de notre système de protection, sociale, par exemple autour du revenu universel.

 

Pour aller plus loin, vous pouvez lire mes autres articles sur le même sujet, ou presque.

https://www.linkedin.com/pulse/la-robolution-sera-ce-que-nous-en-ferons-micka%C3%ABl-guerin

https://www.linkedin.com/pulse/go-google-deep-mind-pourquoi-la-victoire-de-deepmind-est-guerin

https://www.linkedin.com/pulse/au-voleur-les-robots-vont-nous-piquer-nos-emplois-et-si-guerin

https://www.linkedin.com/pulse/les-robots-vont-d%C3%A9truire-lemploi-mais-cest-g%C3%A9nial-ne-craignons

Donc… Pour résoudre un problème que l’on a créé, il faut changer sa manière de réfléchir. Et pas chercher à s’en remettre à un bon Dieu ou une IA providentielle. Surtout si l’on a créé cette IA en pensant de travers… Car à notre image, elle fera pareil ! C’est comme si l’on calculait sur la base de règles de calcul faux, et que l’on programme un calculateur avec ces même règles ; et bien le calculateur fera lui aussi des calculs faux…

Like
Reply

« Elle sera que nous aurons décidé (ou pas), voulu (ou pas) » ??… La seul chose que l’on peut dire c’est que nous pouvons la faire. Tout comme nous avons fait ce monde ; mais l’avons-nous décidé ainsi, l’avons-nous voulu ainsi ? Nous sommes capables de faire des tas de choses, mais les maitrisons-nous suffisamment, maitrisons nous les conséquences (?) et sommes nous capables ne serait-ce que de les prévoir plus ou moins ? Aujourd’hui , Non ! Dans les différents débats sur l’IA que j’ai pu lire, j’ai la très nette impression que ce que l’on attend de l’IA est ce que l’on attend du Bon Dieu : de résoudre pour nous tout ce que l’on ne peut résoudre, de pouvoir tout… Bref des miracles parce que au fond nous, nous nous sentons dépassés . Ce que nous sommes effectivement. Et c’est là que cette phrase serait la bienvenue. Encore faut-il la comprendre précisément… « on ne résoudra pas un problème avec le mode de pensée qui l'a engendré » Autrement dit si une démarche de pensée aboutit à un problème, c’est qu’elle est (probablement) inadaptée (cad « illogique »). A priori ce n’est donc pas non plus la démarche adaptée pour sa résolution… Donc…

Like
Reply

L’IA sera dépendante de la manière dont on l’aura conçu. Donc des intelligences humaines … Et remarquons que les intelligences humaines achoppent continuellement devant un bon nombre de grandes questions simples comme par exemple, et notamment en ce qui concerne en premier lieu l’IA ( !!); celle de la conscience (des choses et du monde) dont la problématique fut posée de manière plutôt embryonnaire il y a 2500 ans par notre ami Platon, l’Allégorie de la Caverne, et sur laquelle on continu d’entendre des discours longs embrouillés fumeux et qui ne font que tourner autour de la question. A l’inverse Einstein avait à mon sens finit par poser le problème de manière claire. Bien entendu personne ne semble s’y être intéressé… Alors si ces intelligences humaines ont la prétention de vouloir créer aujourd’hui une IA, alors ce sera un grand n’importe quoi (NIQ :)). [...] Le problème fondamental de la pensée philosophique d'Einstein, autour duquel s'organisent ses propres analyses, est celui de la réalité du monde et de son intelligibilité, c'est-à-dire de la capacité de la pensée à le pénétrer, à s'en donner une représentation " vraie " (quoique provisoire), qui ne soit pas illusoire ou précaire. [...] "Einstein" de Michel Paty aux éditions " Les Belles Lettres " 1997

Laurent Marciniak

Innovation Senior Manager chez Inetum

7y

Belle mise en perspective.

To view or add a comment, sign in

Explore topics