Publicité
Analyse

Numérique : ces algorithmes qui savent tout de nous

Devant l'importance croissante des formules mathématiques et de l'automatisation dans nos vies, certains réclament la création d'un droit des algorithmes, visant à réguler ces outils, omniprésents dans les nouvelles technologies.

ECH21935035_1.jpg

Par Nicolas Rauline

Publié le 11 mai 2015 à 01:01Mis à jour le 6 août 2019 à 00:00

Les pouvoirs publics vont-ils bientôt mettre le nez dans les algorithmes ? Devant l'importance croissante des formules mathématiques et de l'automatisation dans nos vies, certains le réclament, en tout cas. C'est le sens d'un amendement de la loi Macron, adopté par le Sénat il y a quelques jours. Déposé par plusieurs sénateurs de l'opposition, celui-ci impose notamment à Google de mieux informer les internautes sur les critères de son algorithme et lui interdit toute discrimination, sous peine de se voir infliger une amende allant jusqu'à 10 % de son chiffre d'affaires mondial (soit environ 6,6 milliards de dollars). Les sénateurs se sont largement inspirés d'un rapport du Conseil d'Etat, rendu en septembre dernier, sur le numérique et les droits fondamentaux. L'une des propositions fortes de ce rapport était la création d'un droit des algorithmes, visant à réguler ces formules, omniprésentes dans les nouvelles technologies.

Depuis Yahoo! et Google, les algorithmes ont en effet envahi tous les services en ligne. De la musique, avec Spotify et Deezer, qui se basent sur un algorithme pour vous proposer des chansons et des artistes susceptibles de vous plaire à partir de vos précédentes écoutes, à la vidéo avec Netflix et son système poussé de recommandations, jusqu'à Amazon et Criteo, qui sont en mesure de cibler des publicités en fonction de vos goûts... Plus rien n'échappe à la mécanique des algorithmes. Evidemment, sans eux, l'internaute se retrouverait perdu dans la masse de données et d'informations d'Internet. Google a ainsi joué un rôle majeur dans la démocratisation d'Internet. En simplifiant son usage, il a rendu un service essentiel aux internautes. Même si, en devenant cette référence quasi unique sur le Web, il est sorti de son cadre initial et sa responsabilité, sur l'accès à l'information, est devenue cruciale.

On peut aussi voir les aspects pratiques de telles fonctionnalités dans de nombreux secteurs : celui qui aime la série « Orange Is the New Black », par exemple, a de fortes chances d'aimer « Weeds », la série précédente des mêmes créateurs et peut la découvrir grâce aux suggestions de Netflix. Celui qui a fait une recherche sur un comparateur de prix d'un billet d'avion pour Milan pourra être satisfait de se voir proposer des promotions sur la même destination, quelques heures plus tard, en guise de publicité... Mais la généralisation des algorithmes pourrait entraîner son lot d'effets pervers. C'est ce que soulignait le rapport du Conseil d'Etat, il y a quelques mois. « L'utilité des algorithmes pour optimiser le fonctionnement d'un certain nombre de services n'est pas discutable, reconnaissaient les magistrats dans le document. Ils présentent cependant trois sources de risques pour l'exercice des libertés : l'enfermement de l'internaute dans une "personnalisation" dont il n'est pas maître; la confiance abusive dans les résultats d'algorithmes perçus comme objectifs et infaillibles; de nouveaux problèmes d'équité du fait de l'exploitation toujours plus fine des données personnelles. »

Dans le premier cas, le constat part du fait que les algorithmes poussent à une hyperpersonnalisation d'Internet. Aujourd'hui déjà, un internaute ne voit pas les mêmes résultats de recherche qu'un autre. Il ne voit pas non plus les mêmes publicités, ni les mêmes articles sur un portail d'informations, ne dispose pas des mêmes offres commerciales que son voisin... Ce qui pourrait poser de graves problèmes d'accès à l'information. En ne lui proposant que des articles, des vidéos ou des sites censés refléter ses goûts, en prédisant son comportement, les algorithmes pourraient bien « enfermer » l'internaute dans des entonnoirs. Des conséquences complètement contraires à l'esprit initial du Web, qui, de lien en lien, devait élargir le champ des connaissances...

Publicité

Seconde source de risque : la perception du public envers des algorithmes jugés infaillibles et objectifs. Les récentes investigations, aux Etats-Unis ou en Europe, tendent à démontrer par exemple que Google n'est pas « objectif » : il place parfois volontairement ses propres services devant d'autres résultats et la société ne s'en cache pas, à partir du moment où ces pratiques apportent un meilleur service à l'utilisateur.

Enfin, le dernier problème évoqué par le Conseil d'Etat est celui des données personnelles. Pour nourrir ces algorithmes, les faits et gestes des internautes sont épiés en permanence, leurs données, même anonymisées, venant alimenter des bases de plus en plus larges et de plus en plus précises. Avec la question de leur sécurité... Un problème d'autant plus aigu que, souvent, l'internaute n'a pas vraiment le choix : pour disposer de services plus innovants, il doit faire des concessions sur l'exploitation de ses données.

Dès lors, est-il légitime de vouloir réguler des algorithmes qui constituent aussi, dans la majorité des cas, l'actif le plus précieux des sociétés technologiques et peuvent entrer dans le domaine du secret industriel ? Les autorités sont confrontées à un problème nouveau. Et les propositions qui ont été faites jusqu'à présent ne sont pas forcément très réalistes. L'amendement « anti-Google » de la loi Macron a ainsi été critiqué car il donnait la surveillance de l'algorithme du moteur de recherche à des experts de l'Arcep... Le Conseil d'Etat suggérait, lui, de placer les grandes plates-formes du Net sous la surveillance du public. Un système d'agences de notation avait aussi été évoqué... Des propositions dont l'efficacité n'est pas avérée, d'autant que les algorithmes évoluent quotidiennement, et qui n'ont jamais été, pour l'instant, plus fortes que les arguments du secret industriel. Que l'« amendement Morin-Desailly » soit finalement adopté ou non, le débat sera de toute façon ouvert. Et chacun devra peut-être faire des concessions.

Les points à retenir

Tous les services en ligne innovants s'appuient sur des algorithmes, qui constituent le principal actif des sociétés du Net.

S'ils ont créé de la valeur ajoutée pour les internautes, ils ont aussi leur lot d'effets pervers et leur logique pourrait menacer les valeurs qui prévalaient lors de la naissance d'Internet.

Une certaine forme de régulation ou, a minima, de contrôle pourrait être nécessaire pour briser cette logique.

Journaliste au service High-tech & Médias Nicolas Rauline

MicrosoftTeams-image.png

Nouveau : découvrez nos offres Premium !

Vos responsabilités exigent une attention fine aux événements et rapports de force qui régissent notre monde. Vous avez besoin d’anticiper les grandes tendances pour reconnaitre, au bon moment, les opportunités à saisir et les risques à prévenir.C’est précisément la promesse de nos offres PREMIUM : vous fournir des analyses exclusives et des outils de veille sectorielle pour prendre des décisions éclairées, identifier les signaux faibles et appuyer vos partis pris. N'attendez plus, les décisions les plus déterminantes pour vos succès 2024 se prennent maintenant !
Je découvre les offres
Publicité