Publicité

Un infirmier ou une infirmière? Google veut rendre ses traductions moins sexistes

La version pour ordinateur de Google Translate proposera désormais la version masculine et féminine d'un mot, plutôt que de choisir un seul genre de référence Google Translate/Le Figaro

Google Translate va désormais traduire les mots de l'anglais vers le français en proposant un exemple masculin et un exemple féminin, afin d'éviter de réduire certains métiers ou adjectifs aux hommes ou aux femmes.

Il existe des femmes chirurgiennes et fortes, et des hommes infirmiers et beaux. Ce constat simple échappe parfois aux intelligences artificielles. Si une machine lit un très grand nombre de documents dans lequel les infirmières sont des femmes, elle pourra en déduire qu'un homme ne peut pas être infirmier. Jeudi, Google a annoncé des changements dans son logiciel de traduction automatique Google Translate, afin de régler ce problème. La version pour ordinateur de la plateforme doit désormais proposer systématiquement la version masculine et féminine d'un mot, plutôt que de choisir un seul genre de référence. Le but est d'éviter que Google Translate ne fasse des suppositions sur le genre de certains mots, par exemple que «surgeon» (un mot sans connotation genrée en anglais) devienne forcément «un chirurgien», ou «beautiful» soit traduit en «belle», plutôt que «beau».

Des intelligences artificielles biaisées

Ce changement concerne les traductions de l'anglais vers des langues où le genre est particulièrement important dans la manière d'écrire et d'accorder les mots, comme le français, l'italien, le portugais ou l'espagnol. Par exemple, si l'on tape «nurse» dans Google Translate, pour le traduire en français, on obtient désormais deux options: «infirmière» et «infirmier». Google donne aussi l'exemple de traductions du turc vers l'anglais. La phrase «o bir doktor» sera traduite par «she is a doctor» et «he is a doctor», soit «elle est docteure» et «il est docteur».

Les changements ne concernent pour le moment que le site Web de Google Translate, et non pas son application mobile. Ils ne sont pas, par ailleurs, pas tout à fait au point, d'après les constatations du Figaro. Si «nurse» donne bien «infirmière» et «infirmier», les mots «a nurse» (sans marqueur de genre) sont eux toujours traduits par «une infirmière». Par ailleurs, les phrases entières ne sont pas, elles, traduites en deux versions masculine et féminine. «A nurse help me» donnera «une infirmière m'a aidé».

Quelques exemples de traductions testées par «Le Figaro» Google Translate/Le Figaro

Les biais des intelligences artificielles sont un débat régulier chez les scientifiques et les entreprises de nouvelles technologies. Des machines peuvent reproduire, ou aggraver, des inégalités présentes dans notre société: sexisme, racisme, etc. Généralement, il s'agit d'un problème de bases de données: si elles ne sont pas assez diversifiées, donc de piètre qualité, alors le logiciel entraîné par ce biais donnera de mauvais résultats. Une intelligence artificielle ressemble, en un sens, à un enfant. Elle comprend le monde via ce qu'on veut bien lui montrer. Si une intelligence artificielle pense que les femmes ne peuvent pas être docteures, ce n'est pas par une intention néfaste: c'est parce qu'on ne lui a pas montré assez d'exemples lui prouvant le contraire.

De nombreuses histoires illustrent les conséquences inattendues de ces biais. Un algorithme de reconnaissance faciale développé par Google avait par exemple fait polémique en associant des photos de personnes noires à des singes. Plus récemment, son outil «smart compose», capable de proposer des phrases automatiques à écrire dans un mail, a aussi été critiqué par des internautes. À une phrase comme «I am meeting an investor next week» («je rencontre un/une investisseur/investisseuse la semaine prochaine», là encore sans connotation de genre), sa suggestion pour la phrase suivante était: «do you want to meet him?», soit «tu veux le rencontrer?», avec un pronom masculin. Partant du principe, donc, que l'investisseur était forcément masculin.

Ces inquiètudes ne tiennent par ailleurs pas que du symbole. Amazon a par exemple annulé un projet d'intelligence artificielle destiné à l'aider à recruter des nouveaux employés. Son problème: le logiciel ne considérait pas les CV de femmes pour des postes de développeurs informatique. Amazon, comme beaucoup de sociétés de nouvelles technologies, emploie beaucoup plus d'hommes dans les métiers techniques que de femmes. L'intelligence artificielle était donc partie du principe que les candidats masculins étaient préférables pour ce genre de postes.

Un infirmier ou une infirmière? Google veut rendre ses traductions moins sexistes

S'ABONNER
Partager

Partager via :

Plus d'options

S'abonner
10 commentaires
  • Talam

    le

    Un maïeuticien

  • Michel SALMON

    le

    Une sage-femme au masculin, ça donne quoi ?

  • Efdepe

    le

    Ça sera bientôt le fruit de la nouvelle académie.

À lire aussi