Du 25 au 28 juin 2018, se tenait sur le campus de Marne-la-Vallée le congrès scientifique RFIAP/CFPT (Reconnaissance de formes, image, apprentissage et perception, et Conférence française de photogrammétrie et de télédétection, deux conférences distinctes regroupées pour la première fois, et co-organisées par l'IGN). À cette occasion intervenait Yann LeCun, chercheur français en deep learning désormais directeur de la recherche en intelligence artificielle (IA) de Facebook. Une discipline qui, pour progresser, doit relever un nouveau défi : celui de l'apprentissage non supervisé (ou "autosupervisé"). État des lieux et explications.
"Il y a 15 ans, personne ne voulait miser sur le deep learning"
Le deep learning (ou apprentissage machine profond) est une discipline qui revient de loin. "Au début des années 2000, personne n'y croyait, et certaines revues scientifiques refusaient même de publier des travaux sur le sujet !", se souvient Yann LeCun, qui travaille sur l'apprentissage automatique depuis les années 1980. "Ce qui m'a le plus surpris, c'est la difficulté initiale à convaincre les gens que le deep learning était une bonne idée." Une question qui ne se pose plus, si l'on en croit l'amphithéâtre comble auquel il s'adresse. Et pour cause, ces méthodes ont réalisé un bond prodigieux en quelques années. Le taux d'erreur des algorithmes de reconnaissance d'image sur la base de données ImageNet est passé d'environ 28 % en 2010 à moins de 3 % en 2016.
Du 25 au 28 juin 2018, se tenait sur le campus de Marne-la-Vallée le congrès scientifique RFIAP/CFPT (Reconnaissance de formes, image, apprentissage et perception, et Conférence française de photogrammétrie et de télédétection, deux conférences distinctes regroupées pour la première fois, et co-organisées par l'IGN). À cette occasion intervenait Yann LeCun, chercheur français en deep learning désormais directeur de la recherche en intelligence artificielle (IA) de Facebook. Une discipline qui, pour progresser, doit relever un nouveau défi : celui de l'apprentissage non supervisé (ou "autosupervisé"). État des lieux et explications.
"Il y a 15 ans, personne ne voulait miser sur le deep learning"
Le deep learning (ou apprentissage machine profond) est une discipline qui revient de loin. "Au début des années 2000, personne n'y croyait, et certaines revues scientifiques refusaient même de publier des travaux sur le sujet !", se souvient Yann LeCun, qui travaille sur l'apprentissage automatique depuis les années 1980. "Ce qui m'a le plus surpris, c'est la difficulté initiale à convaincre les gens que le deep learning était une bonne idée." Une question qui ne se pose plus, si l'on en croit l'amphithéâtre comble auquel il s'adresse. Et pour cause, ces méthodes ont réalisé un bond prodigieux en quelques années. Le taux d'erreur des algorithmes de reconnaissance d'image sur la base de données ImageNet est passé d'environ 28 % en 2010 à moins de 3 % en 2016.
Une prouesse rendue possible par la multiplication des couches de neurones artificiels (d'où l'idée de profondeur propre au deep learning). "Pour Facebook, 100 couches de neurones artificiels, c'est la norme", poursuit le directeur de la recherche. De quoi expliquer la puissance de frappe du réseau social. "Chaque jour, 2 milliards de photos sont mises en ligne par les utilisateurs. Chacune passe par 10 réseaux neuronaux, moins de 3 secondes après avoir été mise en ligne", poursuit le chercheur. Une artillerie lourde qui permet de reconnaître vos amis sur les photos, ou encore de proposer des contenus personnalisés sur le fil d'actus. La tendance dépasse celle du seul réseau social : "Bientôt, on trouvera un circuit électronique dédié au deep learning sur chaque appareil, mobile, caméra, appareil connecté", ce qui lui permettra de réaliser ses calculs en temps réel sans passer par le cloud, prédit encore Yann LeCun.
Ci-dessous, retrouvez l'interview vidéo exclusive de Yann LeCun pour Sciences et Avenir.
Les limites de l'approche classique
Pourtant, malgré ses succès, l'IA doit se réinventer pour surmonter certaines faiblesses. Une problématique contemporaine de l'avènement des véhicules autonomes, qui peuvent provoquer des accidents... et des morts. "Dans la vraie vie, toute erreur peut tuer". Il faut en réalité distinguer les trois approches technologiques qui président au deep learning afin de les combiner au mieux : "La question de l'apprentissage est comme un gâteau à étages. L'apprentissage par renforcement, où l'on récompense la machine lorsqu'elle réalise une prédiction exacte, ce n'est que la cerise sur le gâteau, car on n'a qu'un contrôle très faible en cas d'erreur de prédiction. C'est comme cela qu'AlphaGo a été entraîné, c'est une approche qui fonctionne bien pour les jeux." L'apprentissage supervisé (où la machine apprend à partir d'exemples annotés) permet un meilleur contrôle, reste insuffisant. "La génoise du gâteau, c'est l'apprentissage auto-supervisé (aussi appelé "non supervisé", lorsqu'une machine sait prédire quelque chose à partir de la seule observation de son environnement."
Pour concevoir l'apprentissage auto-supervisé, les chercheurs s'inspirent des intelligences humaines et animales. "L'IA a aujourd'hui moins de sens commun qu'un chat de gouttière ou même qu'un rat", rappelle Yann LeCun. "Disposer d'un assistant vocal vraiment intelligent comme celui du film HER est aujourd'hui hors de portée. Ce qui leur manque, c'est la capacité à apprendre par elles-mêmes sans données au préalables étiquetées (par exemple, lorsqu'un être humain a au préalable indiqué sur de nombreuses images de mammifères s'il s'agit de chiens ou de chats) par l'être humain, sans supervision."
SIMULER LE MONDE. L'une des voies actuellement explorées consiste à doter les machines d'un modèle du monde. "Un être humain apprend à conduire en 20 heures d'entraînement, un ordinateur a besoin de plusieurs milliers d'heures". La différence : dès ses premiers mois de vie, le jeune enfant ou l'animal se construisent des représentations mentales du monde faites d'implicites, par exemple : un objet caché est toujours là. Il s'agit donc d'apprendre aux machines à réaliser des prédictions logiques quant aux conséquences de leurs actions. "Mon hypothèse, c'est que pour l'apprentissage non supervisé, il faut marier apprentissage profond et raisonnement." Un sujet de recherche en plein essor, tant chez Facebook que chez Google DeepMind.