Interview

Dominique Cardon : «En calculant nos traces, les algorithmes reproduisent les inégalités entre les individus»

Sur Google, dans nos boîtes mails ou lors de nos achats en ligne, les calculateurs sont omniprésents et cantonnent l’internaute à ses choix personnels. Le sociologue propose de reprendre la main et de «passer en manuel».
par Anastasia Vécrin et Amaelle Guiton
publié le 9 octobre 2015 à 17h36

On ne le voit pas. Quoi que l'on fasse sur le Web, des systèmes de calculs exploitent des masses de données afin de nous faciliter la tâche : ce sont les algorithmes. Alors que les critiques fusent à leur propos (ils nous gouverneraient, nous enfermeraient…), Dominique Cardon, sociologue au Laboratoire des usages d'Orange Labs et professeur associé à l'université de Marne-la-Vallée, relativise. Avec A quoi rêvent les algorithmes, sorti aux éditions du Seuil la semaine dernière, il propose une approche à la fois compréhensive (et compréhensible !) et critique de ces calculs devenus omniprésents dans notre quotidien.

Concrètement, comment les algorithmes interviennent-ils dans nos vies ?

Les algorithmes opèrent un ensemble de calculs dans des domaines aussi variés que la culture, les transports, la finance, la santé et même l’amour. Ils sont entrés dans notre quotidien : ils enlèvent les spams des boîtes mails, hiérarchisent l’information sur Google, font des recommandations, guident nos déplacements et personnalisent la publicité. Il y a donc du calcul partout. L’omniprésence des chiffres et des indicateurs n’est pas nouvelle. Mais avec l’extension des traces numériques, les nouveaux calculs étendent leur emprise et surtout prétendent représenter la société d’une façon différente.

Comment ouvrir la boîte noire de ces algorithmes ?

Les algorithmes font des choses que nous avons programmées, il faut donc enquêter sur ceux qui les fabriquent : les informaticiens et les data scientists d'une part, les intérêts des plateformes qui les emploient d'autre part. Mais les algorithmes ne sont pas les simples reflets des intérêts économiques de la Silicon Valley. Comme toute entité technique, ils construisent des formes, déploient des représentations statistiques de la société. Ils cherchent à organiser le monde d'une certaine façon. C'est en essayant de comprendre la diversité de leurs projets que l'on peut à la fois les apprivoiser et les critiquer.

Quels sont ces mondes ?

J’ai identifié quatre familles de calculs destinés à classer l’information numérique. On peut les représenter en fonction de la place qu’occupe le calculateur par rapport au monde qu’il entend décrire. Les mesures peuvent se trouver à côté, au-dessus, dans ou en dessous des données numériques.

D’abord, le monde de la popularité, avec les mesures d’audience qui se placent à côté du Web pour dénombrer les clics des internautes et ordonner la popularité des sites. Derrière cette représentation du public, on retrouve la représentation traditionnelle du public des médias ou des électeurs.

Deuxièmement, la famille de mesures issue du «PageRank», l’algorithme de classement de l’information de Google, voudrait se situer au-dessus du Web, afin de hiérarchiser l’autorité des sites au moyen des liens hypertextes qu’ils s’échangent. C’est une mesure méritocratique, qui prétend isoler les excellents des médiocres à partir du jugement des autres.

La troisième famille, qui correspond aux mesures de réputation qui se sont développées avec les réseaux sociaux et les sites de notations, se positionne à l'intérieur du Web afin de donner aux internautes des compteurs qui valorisent la réputation des personnes et des produits. Cela donne des statistiques typiques du benchmark dans lequel les internautes agissent réflexivement en fonction de la mesure qui leur est proposée pour se vendre, se promouvoir, être visible.

Enfin, les mesures prédictives, destinées à personnaliser les informations présentées à l’utilisateur, déploient des méthodes statistiques d’apprentissage pour calculer les traces de navigation des internautes et leur prédire leur comportement.

En quoi ces distinctions sont-elles utiles ?

Si l’on est bien attentif, le monde que l’on représente avec de la popularité, de l’autorité, de la réputation ou de la prédiction comportementale n’est pas du tout le même. En entrant dans les algorithmes, on peut les politiser pour savoir quel monde nous voulons. Est-ce que l’on préfère voir ce que tout le monde voit ? Ce que les plus experts ont jugé important ? Ce que voient nos amis ? Ce qui correspond à nos pratiques passées ? Dès que l’on ouvre la boîte noire des algorithmes, on se rend compte que les choix qu’ils font pour nous sont discutables et doivent être discutés parce qu’ils proposent des visions différentes de la société.

Que reste-t-il du libre arbitre dans ce monde de calculs ?

Ce qui est subtil avec la nouvelle gouvernementalité algorithmique, c’est qu’elle ne se laisse pas facilement décrire dans le vocabulaire disciplinaire de la censure ou de l’enfermement. Elle installe plutôt un environnement qui guide sans obliger. Comme Michel Foucault le décrivait à propos du néolibéralisme, il s’agit de gouverner les conduites, mais par la liberté et l’autonomie. Les nouvelles techniques d’apprentissage, qui se développent à grande vitesse dans le monde des big data, calculent les individus en fonction de leurs comportements passés en leur renvoyant constamment la responsabilité de leurs choix. Si les personnes ont des comportements monotones, si elles ont des amis qui ont tous les mêmes idées et les mêmes goûts, si elles suivent toujours le même trajet, alors les calculateurs les enferment dans leur régularité. Si l’internaute n’écoute que Beyoncé, il n’aura que Beyoncé ! Si, en revanche, il montre des comportements plus divers, suit des chemins inattendus, a des réseaux sociaux hétérogènes, alors les algorithmes vont élargir les choix et, parfois, faire découvrir des horizons nouveaux. En calculant nos traces, les algorithmes reproduisent en fait les inégalités de ressources entre les individus.

Paradoxalement, les algorithmes correspondent aussi au passage d’un monde où les institutions et les médias structuraient l’opinion à un monde beaucoup plus horizontal, ouvert et individué, qui émerge avec Internet…

Les calculs des big data prétendent décrire la société par le bas, directement depuis les comportements, sans avoir recours à des modèles ou à des catégorisations préalables, comme le font par exemple les catégories socioprofessionnelles. Il y a ce projet, d’inspiration libertaire ou libertarienne, de donner à la représentation de la société une forme plus conforme à la libre auto-organisation des individus, des actions et des marchés que ne le ferait une régulation paternaliste, «par le haut», avec des cadres, des catégories, des conventions. Les prophètes zélés américains des big data promeuvent cette idée qu’en calculant bien, avec les bonnes données, le gouvernement serait moins injuste, moins paternaliste, moins déformant que ne le sont les institutions ou les médias, parce qu’il aurait compris la société depuis les actions des individus. C’est évidemment un mythe qu’il faut déconstruire.

Les calculateurs les plus puissants, ceux d’Amazon, de Google ou de Facebook, détiennent le pouvoir. Comment faire pour regagner du pouvoir ?

La meilleure arme est d’opposer aux calculs d’autres calculs, en commençant par se demander si nous n’avons pas une autre définition de notre intérêt par rapport au service que ces algorithmes rendent, et qui les obligerait à calculer autrement. Et, pour cela, il faut faire de la rétro-ingénierie, de la recherche, en s’appuyant sur l’Etat, sur le droit, sur les autorités, pour s’opposer à des calculs qui ne sont pas loyaux, et pour amener ces opérateurs à infléchir la manière dont ils produisent toute une série de choses qui peuvent être extrêmement néfastes… En calculant par le bas et sans catégories, on fabrique aussi du racisme, du sexisme ou de la discrimination.

Que pensez-vous de la réflexion en cours, en France et en Europe, sur l’idée de poser aux plateformes en ligne une obligation de «loyauté» ?

On ne peut pas demander à un algorithme d’être «neutre». En revanche, il doit être «loyal». Or, on peut présumer que certains calculs ne sont pas loyaux, qu’il y a un désajustement entre ce que la plateforme dit faire et ce qu’elle fait effectivement. En Europe, il y a des plaintes contre Google, à qui il est reproché de privilégier ses propres services dans ses résultats de recherche. Encore faut-il le prouver. Et, pour cela, il est utile que chercheurs et société civile créent des instruments de vérification et de contrôle. Par exemple, quel est l’objectif que Facebook a donné aux réglages de l’algorithme de son fil d’actualité : faire cliquer l’utilisateur sur des sites partenaires ? Mesurer le temps qu’on passe sur le réseau social ?

Tout cela suppose un niveau de compétence qui n’est pas accessible à tout le monde…

Nos sociétés apprivoisent toujours, plus ou moins facilement, les entités techniques qu’elles fabriquent. Mais pour cela, il faut encourager la recherche publique, les associations et favoriser le développement d’une culture numérique. Ne pas être vigilant, cela donne des choses comme le scandale Volkswagen et tous ceux qui vont suivre…

Alors que les critiques s’accumulent sur ces algorithmes qui nous gouverneraient, votre approche semble plus compréhensive et bienveillante. Pourquoi ?

Il est assez difficile d’imaginer un monde d’abondance informationnelle sans outils pour nous guider : il nous suffirait d’être privés de ces outils pendant une journée pour réaliser que le Web est aussi une immense poubelle ! Depuis très longtemps, nous nous sommes entourés de technologies cognitives comme le livre, le tableau comptable, la représentation statistique, etc. Les algorithmes constituent une nouvelle génération d’artefacts dans un monde où l’accès aux informations connaît une incroyable explosion. Comme il va être difficile de s’en passer, il est d’autant plus important de ne pas les laisser étendre leur empire sans les socialiser et les introduire dans le débat public.

Faut-il «hacker» les algorithmes, au sens de «comprendre et détourner» ?

Bien sûr ! Certes, on peut vouloir fuir le monde de la connexion. Je propose plutôt de «passer en manuel», c’est-à-dire de développer une culture critique de ces outils, pour anticiper, ajuster nos comportements en connaissant ce qu’ils font et la manière dont ils procèdent. Il faut avoir prise sur nos données et sur la manière dont nous sommes calculés. Quand on comprend les algorithmes, on les décode, on joue avec eux, on les règle de façon différente.

Pour aller plus loin :

Dans la même rubrique

Les plus lus