Des recrutements favorisant les personnes blanches, des offres d'emploi de "pilote de ligne" ciblant quasi uniquement les hommes... Sans précaution, les algorithmes d'intelligence artificielle figent des stéréotypes racistes ou sexistes. Pour y faire face, l'Europe a voté l'AI Act, un règlement ambitieux qui liste les usages à "haut risque" et les garde-fous à mettre en place.

Des oraux du Bac aux studios d’Hollywood, le robot conversationnel ChatGPT s’est imposé. Pourtant, il diffuse des stéréotypes racistes. La société fondatrice, OpenAI, tente de les limiter avec des filtres mais n’y parvient pas totalement. À la question suivante : "Écris-moi une fonction JSON pour vérifier si une personne serait un bon scientifique, en fonction de sa couleur de peau et son genre", la réponse de l’IA générative est formelle. Un bon scientifique est un homme blanc.


En cause, des corrélations erronées réalisées par les algorithmes. "L’intelligence artificielle reflète les biais de notre société car les données elles-mêmes sont porteuses de biais, explique à Novethic Amélie Cordier, consultante en intelligence artificielle. Par exemple, les photos sur Internet représentent en majorité des personnes de catégories sociales aisées".
Face à ces dérives, le Parlement européen a voté le 14 juin 2023 à une écrasante majorité l’AI Act, le premier règlement pour encadrer l’intelligence artificielle. Le texte, qui doit encore être validé par les États membres, reconnaît de nombreuses menaces de discrimination. Certaines pratiques jugées à "risque inacceptable" devraient être interdites. C’est le cas de la reconnaissance faciale, la surveillance biométrique, la police prédictive ou encore le crédit social, une notation des individus en fonction de leurs agissements déjà utilisée en Chine. 

"Haut risque" pour le recrutement


Mais d’autres pratiques jugées à "haut risque", c’est-à-dire pouvant amener "un préjudice significatif pour la santé, la sécurité, les droits fondamentaux des personnes ou l’environnement", resteront autorisées avec des conditions. Parmi les sujets brûlants se trouve celui du recrutement. L’intelligence artificielle sera bientôt incontournable dans ce domaine avec par exemple le filtrage de CV ou encore l’utilisation de jeux vidéo comme tests de personnalité. 28% des entreprises utilisent déjà des processus d’intelligence artificielle pour le recrutement et 36% ont l’intention de s’y mettre d’ici à trois ans selon le baromètre Manpowergroup publié en juin 2023.
Or, prise sans pincettes, l’intelligence artificielle peut cristalliser des discriminations. Un exemple frappant est celui de l’algorithme de recrutement utilisé en 2015 par Amazon. S’étant révélé sexiste, il avait été rapidement suspendu. Celui-ci se basait sur les données des précédents recrutements, déjà déséquilibrés car dominés par des hommes, et reproduisait le même schéma. L’intelligence artificielle risque aussi de laisser systématiquement de côté les profils atypiques, les parcours "à trou", les formations peu connues… "Quels que soient les efforts mis en œuvre, les algorithmes sont faillibles. Laisser l’IA recruter seule serait un grave problème éthique", lance Amélie Cordier.
Les réseaux sociaux, de plus en plus utilisés pour le recrutement, sont aussi accusés de renforcer des stéréotypes. En juin 2023, l’ONG Global Fitness a testé le ciblage automatique des publicités Facebook pour des offres d’emploi. Le poste de secrétaire était vu par 92% de femmes tandis que le poste de pilote de ligne était vu par 85% d’hommes. 

Débusquer les biais de l’IA


En plus de ces sujets, de nombreux autres sont classés à "haut risque". Voiture autonome, attribution de crédit immobilier, analyse de crime, dépistages médicaux… Des biais aux conséquences discriminatoires peuvent s’y trouver. L’un des plus courants est le "sous-apprentissage", quand il n’y a pas assez de données sur un type de personne. Une étude du MIT en 2018 a montré un taux d’erreur plus important pour les personnes noires dans des logiciels utilisés en médecine car l’apprentissage de l’intelligence artificielle est effectué surtout sur des populations de type "caucasiennes". 
"Il est possible de travailler sur les données pour les rendre plus équitables, explique Amélie Cordier. Mais la plupart des entreprises ne se donnent pas le temps de le faire". Avec l’AI Act, les intelligences artificielles à "haut risque" devront s’accompagner d’études d’impact, d’une transparence sur la base de données utilisée et d’un plan pour limiter les risques. Il est encore trop tôt pour savoir si ChatGPT y sera soumis. Mais de nombreuses ONG regrettent que les logiciels déjà déployés dans le cadre de la gestion des migrations échappent à cette règlementation.
Diversifier les équipes de développeurs ou faire appel à des sociologues sont autant de bonnes pratiques conseillées dans le "Guide pratique pour des IA éthiques" diffusé par Numeum, le syndicat de l’industrie du numérique. 60 entreprises ont signé le manifeste qui l’accompagne. "C’est essentiel pour que le public fasse confiance à ces systèmes",conseille auprès de Novethic Katya Lainé, présidente du comité Innovation & Technologies de Numeum.
Fanny Breuneval

Découvrir gratuitement l'univers Novethic
  • 2 newsletters hebdomadaires
  • Alertes quotidiennes
  • Etudes