Des galaxies qui explosent, des flashs aveuglants, des immensités étoilées et des figures géométriques qui s’imbriquent, se superposent, se forment et se déforment… Cette oeuvre vidéo à donner le tournis est actuellement projetée au Studio, un espace créé au sein de l’Atelier des lumières, nouveau lieu artistique parisien inauguré en avril dans une fonderie du XIXe siècle. Signées de l’agence de création numérique turque Ouchhh, ces animations n’ont pas été créées par des infographistes devant leurs écrans mais par… des algorithmes d’intelligence artificielle (IA). D’où le nom de l’oeuvre, Poetic AI (pour artificial intelligence). Nourris de millions de lignes issues de livres, de citations ou d’articles scientifiques concernant la lumière, l’espace-temps, l’astronomie ou la mécanique quantique, ces algorithmes ont produit leurs propres textes en les associant à des effets visuels et sonores. « Nous avons utilisé principalement un réseau neuronal récurrent. La différence, comparé à un réseau de neurones artificiel standard, réside dans ce qu’il est capable d’apprendre et de produire des données séquentielles telles que du texte - qui consiste en des séquences de lettres et de mots - et de la musique - c’est-à-dire des séquences de notes », détaille Tugce Arugün, cheffe de projet chez Ouchhh.
Une IA qui se mettrait à l’art ? Le fantasme est ancien. « Les algorithmes de réseaux de neurones existent depuis les années 1980, rappelle Marie-Paule Cani, professeure d’informatique à l’École polytechnique, mais les puissances de calcul étaient alors trop faibles et donnaient des résultats mitigés ». Depuis les années 2011-2012, les progrès du deep learning (système d’apprentissage profond pour les algorithmes) ont libéré les initiatives, de plus en plus performantes.
Ainsi, en avril 2016, des chercheurs néerlandais dévoilaient un tableau ressemblant à s’y méprendre à un Rembrandt… mais produit par un algorithme après une analyse fine de 346 oeuvres du maître hollandais du XVIIe siècle. Deux mois plus tard, le réalisateur britannique Oscar Sharp et le chercheur américain en IA Ross Goodwin ont mis en ligne le court-métrage Sunspring tourné à partir d’un scénario écrit par un programme d’IA.
Et en 2017, les algorithmes de Google parvenaient à écrire des « poèmes » (assez mièvres) en se fondant sur quelque 11 000 recueils et plus de 2800 romans à l’eau de rose. Dans le registre musical, les Flow Machines du laboratoire d’informatique de Sony ont fait sensation à l’automne 2016 en composant des chansons « à la manière » des Beatles ou du musicien américain Cole Porter. La technologie a depuis été utilisée pour Hello World, un album entier paru en 2018 sur la plate-forme d’écoute de musique Spotify.
Pourtant, malgré des résultats impressionnants, parfois troublants, les limites de ces projets apparaissent vite. Ainsi de Sunspring : si le scénariste est un algorithme, le tournage, avec acteurs et réalisateur, a été des plus classiques. « Le coup de génie, c’est qu’on peut le visionner, estime Rémi Ronfard, chercheur en cinématographie et graphisme 3D à Inria. Mais si l’informatique est capable depuis longtemps d’interpréter une partition, l’informatique graphique n’est pas encore capable de générer un film d’animation à partir d’un scénario. Et nous travaillons sur ce sujet. »
Créer des musiques de manière autonome
En la matière, la Britannique Anna Ridler, experte en apprentissage automatique issue du Royal College of Art de Londres, est partie d’images fixes, soit 200 dessins à l’encre reproduisant les quatre premières minutes du film La Chute de la maison Usher (1929). Elle les a présentées à un algorithme qui a « appris » le style graphique de l’artiste tout en s’initiant au langage cinématographique. Résultat : une animation de douze minutes, pas toujours intelligible il est vrai !
À l’École polytechnique fédérale de Lausanne (EPFL), en Suisse, le chercheur Florian Colombo travaille, lui, à améliorer la génération de partitions originales dans un large éventail de styles musicaux. Présenté au début de l’année, le projet BachProp permet ainsi à l’algorithme de décrypter la structure d’un corpus musical donné (Mozart, Haydn, Bach ou un répertoire d’airs traditionnels) pour créer ensuite des musiques de manière autonome. « En tant que musicien, je suis incapable de composer comme l’algorithme. De plus, les nouvelles partitions imaginées par BachProp sont tout à fait jouables », précise le chercheur, par ailleurs violoncelliste.
Lors d’une séance test, des auditeurs ont évalué une sélection de morceaux issus de BachProp et d’oeuvres originales ayant servi de sources. Leur préférence est allée équitablement aux deux types de musique. « Mais la création par l’algorithme n’est pas complète, il reste toujours la liberté d’interprétation du musicien. Et nous sommes encore très loin des compétences d’un compositeur humain car nous restons dans le domaine de l’imitation. »
Le commentaire vaut pour la plupart des IA « artistes » : elles ne créent qu’en fonction du corpus d’oeuvres (musique, peinture, écriture) qu’on leur soumet. « On peut très bien apprendre à une IA à créer, comme on apprend à un perroquet à parler. Ce sera une bonne copiste mais je n’appelle pas cela de l’art, prévient Marie-Paule Cani. En revanche, il est possible d’automatiser les tâches répétitives pour de l’aide à la création. » Lancé en avril par la start-up française Hexachords, le logiciel Orb Composer fournit ainsi automatiquement des orchestrations. « L’IA a d’abord appris les règles de composition et est capable d’écrire en fonction de choix artistiques indiqués par l’utilisateur en entrée (rythme, intensité, nombre de musiciens) », explique son fondateur Richard Portelli, ingénieur issu de l’École normale supérieure (ENS). Le but ? Faire gagner du temps à un compositeur en lui évitant d’avoir à réunir un orchestre à chaque fois qu’il souhaite tester une idée.
Aucune garantie que le résultat soit intéressant
Pour se rapprocher davantage d’une créativité « autonome », les chercheurs testent désormais une technique en vogue : les réseaux génératifs antagonistes (GAN). Celle-ci fait interagir deux algorithmes de deep learning, l’un « critiquant » l’autre pour le pousser à modifier ce qu’il produit, sans intervention humaine (lire l’encadré ci-dessous). Avec parfois pour résultat des oeuvres au style original, comme ces nus qu’un lycéen américain, Robbie Barrat, a obtenus et publiés sur Internet en mars. À la grande surprise de l’adolescent lui-même, aucun n’avait de visage ! Les algorithmes auraient-ils trouvé leur style ? Ce serait leur prêter une intention dont un programme informatique est loin d’être capable. « On peut entraîner un modèle sur des données qu’il a lui-même générées, pour lui fournir une “expérience”, un “vécu”, qui lui permettra de développer de nouvelles approches musicales par exemple, souligne Florian Colombo. En revanche, il n’y a aucune garantie que le résultat soit intéressant. » Une seule certitude pour l’heure : en matière de faux en art et de manipulation de textes ou d’images, l’IA n’a pas fini d’intriguer… sinon d’inquiéter.
Entraînement : quand deux algorithmes se rencontrent
Il a réalisé deux tableaux au début de l’année 2018 et signe \min G \max D \mathbb{E}_{x\sim p {data}(x)} [\log D(x))] + \ mathbb{E}_{z\sim p z(z)} [\ log(1-D(G(z)))]. Ce n’est pas un pseudonyme. L’artiste est une intelligence artificielle (IA) mise au point par un collectif français appelé Obvious, désireux de prouver que la créativité n’est pas réservée aux humains. Le projet exploite la méthode des « réseaux génératifs antagonistes » (GAN) inventée en 2014 par un doctorant de l’université de Montréal (Canada), Ian Goodfellow - aujourd’hui chercheur chez Google -, à l’issue d’une discussion dans un bar. Cette architecture met en concurrence deux algorithmes. Le premier, appelé le « générateur », produit un premier jet aléatoire, sans entraînement préalable. Le second, le « discriminateur », juge cette création en fonction, cette fois, d’un corpus qui lui a été soumis et dont il connaît les caractéristiques. Le discriminateur amène peu à peu le générateur à créer « quelque chose » pouvant apparaître comme une oeuvre authentique. Les deux algorithmes s’entraînent ainsi l’un l’autre, sans assistance humaine, même si une phase d’apprentissage sur base de données persiste, avec les biais cognitifs que cela implique. En 2017, une équipe de l’université Rutgers (États-Unis) et le réseau social Facebook ont poussé la logique plus loin. Le générateur a continué à créer jusqu’à ce que le discriminateur - entraîné à reconnaître 81 700 tableaux du xve au xxe siècle - ne sache plus identifier de style précis et considère avoir affaire à une oeuvre innovante… Les chercheurs ont soumis ces créations à 18 personnes : 75 % d’entre elles ont cru être en présence de tableaux de réels artistes.
« The Next Rembrandt » a été réalisé grâce à un algorithme qui, après analyse de 346 œuvres du peintre hollandais, en a retenu les principales caractéristiques.
Ce nu a été créé par une IA entraînée à partir de la vision de nombreux classiques de nus. Un résultat quelque peu étonnant !
« Le comte de Belamy » est dû à une IA mise au point par le collectif Obvious, basée sur la technique des réseaux génératifs antagonistes.
Ce tableau, créé par une IA, a été jugé comme une œuvre innovante lors d’une étude car son style n’imite pas celui d’un artiste répertorié.
L’installation numérique Poetic_ AI associe formes, lumière et mouvements générés par un algorithme à partir d’écrits scientifiques.
Cette vidéo représente une tulipe prenant des formes inédites produites par un algorithme (générateur) entraîné par un autre (discriminateur).
© Anna Ridler / Microsoft / ING / Delf University of Technology - Robbie Barrat - Obvious - Ahmed ElGammal