Publicité

Un Pacte pour rendre l’intelligence artificielle (enfin) égalitaire

Comment faire de l’IA un levier pour réduire les inégalités, le préserver des risques de sexisme, le rendre plus éthique ? Le Laboratoire de l’Egalité vient de dévoiler trente solutions très concrètes pour lutter contre les dérives discriminantes de l’IA. Tour d’horizon.

Intelligence artificielle et égalité
L'IA joue un rôle important pour l'égalité entre tous (Istock)

Par Corinne Dillenseger

Publié le 3 juin 2020 à 08:01Mis à jour le 11 oct. 2021 à 16:32

Les algorithmes, ces fameuses briques de base de l’IA, sont programmés à 90% par des développeurs masculins. Autant dire qu’elles reflètent ceux qui les créent, avec le risque de reproduire et de diffuser à grande échelle des stéréotypes discriminants. Cette prise de conscience plutôt récente a débouché sur plusieurs initiatives. Elle a fait l’objet de rapports (Villani, Institut Montaigne) et a provoqué le développement de normes, de contrôles et de labels IA équitables (CNIL, ORCAA, AFNOR, ADEL…).

Côté entreprises, elle a incité les GAFAMI (Google, Amazon, Facebook, Apple, Microsoft, IBM) à auditer leurs propres bases de données. En France, elle a poussé de grands groupes comme Orange, EDF, Danone, L’Oréal et Sodexo à signer la récente charte internationale pour une IA inclusive de Arborus. Des initiatives louables dont se réjouit Le Laboratoire de l’Egalité qui appelle aujourd’hui à aller encore plus loin.

L’IA pas sans elles

Cette association, créée en 2010 et rassemblant 1500 expert.e.s engagé.e.s sur l’égalité entre les femmes et les hommes au travail, a été une des premières à avoir tiré la sonnette d’alarme sur les biais sexistes de l’IA, en particulier à travers le livre « L’intelligence artificielle, pas sans elles ! » (éd. Belin, 2019) co-écrit par Aude Bernheim et Flora Vincent, docteures en sciences et fondatrices de l’association Wax Science.

Publicité

« Ce livre a eu un large écho, souligne Annie Battle, administratrice du Laboratoire de l’Egalité et directrice de sa collection Egale à Egal. Nous avons décidé de prolonger la réflexion en constituant un groupe de travail avec les deux autrices, des expert.e.s, des entreprises Renault et Engie en tête, des startups, l’école solidaire du numérique Simplon, le collectif Femmes@Numérique... Le Pacte pour une intelligence artificielle égalitaire est le fruit de ce travail ».

Ce Pacte, salué par Cédric O, secrétaire d’Etat chargé du numérique, a été présentée à la presse mardi dernier. Il est officiellement lancé ce 3 juin avec en guest-star (et à distance), Marlène Schiappa, secrétaire d’Etat chargée de l’égalité entre les femmes et les hommes et de la lutte contre les discriminations.

Il décline des actions de fond à la fois techniques, éthiques et humaines, pour faire de l’IA un moteur d’égalité entre les femmes et les hommes, accélérer la mixité dans les équipes qui travaillent sur l’IA ou encore pour empêcher de diffuser les inégalités femmes-hommes par l’IA.

Des bases de données égalitaires

Sur le plan technique, Le Laboratoire de l’Egalité préconise un certain nombre de mesures très concrètes comme encoder dans le script des algorithmes des objectifs égalitaires, par exemple en demandant à un logiciel de recrutement de fournir 50% de CV femmes et 50% de CV hommes. Et pourquoi ne pas utiliser l’IA pour rendre visible les inégalités, par exemple en lui demandant de mesurer le temps de parole accordé aux femmes et aux hommes pendant les réunions.

Autre proposition : attribuer un genre neutre aux assistants numériques pour éviter l’utilisation systématique des voix féminines, ou corriger les biais de sexe dans les bases de données en faisant attention aux noms de métiers, aux images, aux vidéos. « Ce nettoyage est un gros travail, il peut être très coûteux, admet Muriel Garnier, chargée du projet IA au sein du Laboratoire de l’Egalité. Mais il existe des bases de données égalitaires, des banques d’images mixtes en open sources et gratuites, il faut les promouvoir, les rendre davantage visibles ! »

Définir une IA éthique

Sur le plan éthique, moraliser l’IA est un enjeu majeur. « Aujourd’hui, on se retrouve confronté à des algorithmes simplistes, au fonctionnement opaque, reproducteurs d’inégalités, dont le fonctionnement pose des questions éthiques. Pour y remédier, il faut définir clairement ce qu’est l’IA éthique et à partir de là, mettre au point un cadre pour évaluer et contrôler l’ensemble des outils », estime Muriel Garnier.

Un travail qui selon le Laboratoire passe par la création de recherches multidisciplinaires associant philosophes, sociologues, psychologues, universitaires, expert.e.s IA, mais aussi en utilisant le design thinking dès la conception des programmes IA en y intégrant le genre.

Autre solution : auditer toute la chaîne de production des IA ou encore glisser les labels IA équitables dans les appels d’offres, « une marque de progrès et un bon moyen de rassurer les utilisateurs finaux », souligne la chargée du projet IA au sein du Laboratoire.

12% de femmes dans l’IA

Publicité

Sur le plan humain, le Pacte pointe l’absence de femmes dans l’IA, une des raisons clés du sexisme des algorithmes conçus et développés par et dans un univers masculin, estime le Laboratoire. « Les femmes ne représentent que 12% des salarié.es dans l’IA et une fois qu’elles intègrent les métiers techniques du numérique 45% en sortent à cause du sexisme ambiant. Sans oublier que 15% des startups du numérique sont créées par des femmes et qu’on leur accorde très peu de levées de fonds » rappelle Muriel Garnier.

Pour désacraliser l’IA, le Laboratoire appelle à une mobilisation générale : il faut apprendre aux filles à coder, améliorer leur orientation vers les filières de l’informatique et des maths, promouvoir des rôle-modèles de femmes travaillant dans l’IA, former les personnels de l’éducation à l’égalité et les conseillers d’orientation à l’IA, intégrer l’égalité dans le management des entreprises du numérique et y sensibiliser les salari.é.es. Et bien sûr, lutter contre les pratiques sexistes de la culture geek par exemple en organisant des débats, en prévoyant des sanctions…

« Il est urgent que les femmes investissent les métiers du numérique, c’est un secteur en fort développement qui permet d’avoir accès à des emplois bien rémunérés », insiste Muriel Garnier qui souligne que les métiers du « clic » connexes à l’IA, avec leurs tâches répétitives, sont eux principalement occupés par des femmes et participent à leur précarisation.

Il ne reste plus qu’à espérer que ce Pacte inspire tous ceux à qui il est destiné : responsables politiques, dirigeant.es d’entreprises publiques ou privées, chercheur.es, centres de formations, associations… « Chaque partie de l’écosystème IA doit se sentir concernée, travailler ensemble et s’approprier ce Pacte. En le signant, elle s’engage au service d’une culture de l’IA non-sexiste et non-discriminante », conclut Muriel Garnier.

La vidéo de présentation du Pacte

Corinne Dillenseger

Publicité