Evidemment, on pense aux Google glass. Mais ce dispositif-là n'est pas l'avatar de feu les lunettes à réalité augmentée du géant de l'Internet. Selon les termes de ses inventeurs, Horus est un appareillage destiné aux aveugles pour leur permettre "d'entendre leur environnement". Il est présenté dans cette vidéo tournée par Sciences et Avenir en décembre 2016 à Paris : l'Italien Lucas Nardelli, responsable technique de la jeune société Eyra, explique le fonctionnement d'Horus, qui est constitué d'un casque - semblable aux casques audio - muni d'une caméra stéréoscopique, d'un micro et d'un émetteur audio. L'ensemble est relié par fil à un petit boîtier qui se glisse dans la poche. Celui-ci traite les images filmées par la caméra, et renvoie vers l'utilisateur la description audio de son environnement, du texte qui lui fait face (imaginez un panneau ou une étiquette) où identifie le visage d'un passant.
Les progrès du "deep learning" au service des aveugles
"Il y a 285 millions de malvoyants dans le monde, dont 39 millions d'aveugles ; ce chiffre passera à 54 millions en 2020 !" insiste Lucas Nardelli, pointant ainsi l'intérêt de ce dispositif dont il est l'un des inventeurs. Lequel n'aurait pas vu le jour - la start-up Eyra prétend commercialiser Horus en Italie au cours de l'année 2017 - sans les récents et vertigineux progrès du "deep learning". L'apprentissage profond est en effet une nouvelle piste de développement de l'intelligence artificielle rendu possible, notamment, grâce à la puissance de calcul des processeurs graphiques. A l'instar de ceux de la société NVIDIA, qui équipent Horus, ces bijoux d'électronique ont d'abord été développés pour permettre aux ordinateurs de calculer et d'afficher des éléments graphiques des jeux vidéo. Mais la force de frappe numérique de ces microprocesseurs est apparue également très utile pour équiper des systèmes intelligents comme Horus, susceptibles d'analyser en temps réel des informations mouvantes, comme l'environnement d'une personne aveugle.