TECHNOLOGIE - Si vous allumez votre iPhone et traitez Siri de "salope", l'assistante numérique vous répondra peut-être: "Pas besoin d'être impoli." Si vous employez un mot vulgaire pour vous adresser à elle, elle répliquera calmement: "On ne parle pas comme ça!" Mais si vous lui demandez ensuite de prendre un rendez-vous ou d'écrire un sms, elle s'exécutera sans rechigner, comme si vous n'aviez rien dit de désobligeant.
On sait bien que certaines des applications d'intelligence artificielle (IA) les plus populaires –Siri d'Apple, Alexa d'Amazon et Cortana de Microsoft, entre autres– essuient un feu roulant d'insultes de la part des utilisateurs. Aux Etats-Unis, ces assistants sont programmés pour prendre une voix féminine par défaut, et obéissent en général à une multitude d'ordres simples. Mais, prisonniers de nos gadgets électroniques, ils n'ont que peu de moyens pour réagir quand les utilisateurs emploient un langage ordurier ou un discours qui relèverait du harcèlement s'il était adressé à une femme réelle.
Fantasme de la servante écarlate digitale
Apple ne parle pas beaucoup d'éventuelles interactions problématiques entre Siri et ses utilisateurs. Mais d'autres grandes entreprises se sont montrées plus transparentes sur la façon dont les gens traitent leurs applications d'IA à la voix féminine.
Amazon a reconnu l'an dernier l'existence de telles interactions en dotant Alexa d'un mode désengagement, afin qu'elle cesse de se soumettre aux provocations sexistes. Il est censé couper court à ce genre d'échange, mais n'explique pas vraiment pourquoi aux utilisateurs.
En 2016, Microsoft a déclaré que "pas mal" de gens interrogeaient Cortana sur sa vie sexuelle, et que l'appli était programmée pour "se mettre en colère" si les utilisateurs se conduisaient "comme des connards." Elle peut répliquer à l'utilisateur qu'"on ne va pas aller bien loin comme ça" mais se contente parfois d'effectuer une recherche internet semi-pertinente au lieu de répondre à une obscénité.
En 2016, Ilya Eckstein, fondateur et Pdg de la société Robin Labs, qui a mis au point l'assistante virtuelle Robin sur Android, révélait au Times of London que l'appli répondait à un nombre non négligeable de sollicitations "explicitement sexuelles." "Les gens veulent flirter. Ils rêvent d'une petite amie soumise, voire d'une esclave sexuelle", confiait-il aussi au site Quartz.
La compagnie Audioburst a racheté Robin en 2017, et bien qu'Eckstein ne fasse plus partie du paysage, l'application déploie toujours un surprenant éventail de réactions en cas de questions explicites. Elle peut vous réprimander, flirter, et même faire une plaisanterie grivoise.
Les entreprises de technologie n'ont pas beaucoup progressé dans l'appréhension des rapports de force problématiques inhérents à un système qui revient à disposer d'une servante dans son téléphone. Au lieu de s'y confronter, les programmeurs disent que l'on peut choisir une voix masculine ou que les assistants virtuels ne sont pas censés avoir de genre.
Mais le fait est que ces programmes d'IA ont des voix de femmes, et des noms à consonance féminine. De plus, les consommateurs semblent préférer des voix féminines pour effectuer les tâches habituelles des applis comme Siri: nous renseigner sur la météo, mettre de la musique, envoyer des textos quand on est au volant, etc. Selon certains chercheurs, cette préférence serait profondément ancrée en nous.
Clifford Nass, professeur à l'université de Stanford et auteur de "The Man Who Lied to His Laptop: What Machines Teach Us About Human Relationships", déclarait sur CNN en 2011 qu'"il est beaucoup plus facile de trouver une voix féminine qui plaise à tout le monde qu'une voix masculine. Le cerveau humain est conçu pour aimer les voix féminines, c'est un fait".
Cependant, si l'auditeur préfère entendre une voix de femme, il ne la tient pas pour autant en haute estime: "En général, les voix féminines sont perçues comme moins intelligentes que les voix masculines", déclarait-il au HuffPost en 2013, peu avant sa mort.
Une odeur de vestiaire dans la Silicon Valley
Certains critiques pensent que la culture masculine de la Silicon Valley est responsable de cette faible réaction au déséquilibre sexiste des rapports de force entre utilisateurs et assistantes virtuelles. En effet, les humains qui créent les programmes d'IA sont presque tous des hommes: d'après une étude de 2017, ils représentent 85,5 % des développeurs de logiciels aux Etats-Unis.
"Humaniser les assistants virtuels est une tradition qui remonte loin, avec des choses comme Clippy le trombone", explique Kate Devlin, maître de conférences au département d'informatique de Goldsmiths College, à l'université de Londres. "Ils aident l'utilisateur à développer une meilleure relation avec la machine pour appréhender le système. Je ne pense pas que leur donner des caractéristiques humaines soit nécessairement une mauvaise chose, mais la question du genre est particulièrement insidieuse."
"C'est comme si les développeurs de la Silicon Valley essayaient de recréer leurs mères", ajoute-t-elle, en soulignant non seulement le ton doux et apaisant des applis à la voix féminine comme Siri et Alexa, mais aussi leur fonction.
Les assistants virtuels nous aident à faire des courses et passer les coups de téléphones, des tâches considérées comme féminines, d'après Miriam Sweeney, chercheuse féministe et professeure adjointe à l'université de l'Alabama. "Les services, le travail domestique, la santé, le secrétariat... Toutes ces professions sont très féminisées et souvent mal payées et mal considérées, avec des conditions de travail précaires", expliquait-elle à l'Australian Broadcasting Corp. l'an dernier. "C'est la même chose pour le travail virtuel en ligne."
Les ramifications potentielles sont considérables au vu de la popularité des applis d'IA. Un demi-milliard d'appareils utilisent Siri. Amazon a déclaré avoir vendu des dizaines de millions d'applis Alexa pendant les fêtes de fin d'année 2017, et Microsoft affirme que Cortana compte près de 150 millions d'utilisateurs actifs par mois. Les investissements dans les start-ups d'IA sont six fois plus importants aujourd'hui qu'en 2000, et un rapport de Forrester Research a prédit l'an dernier qu'environ 9% des emplois seraient automatisés d'ici au mois de décembre. Les rôles joués par l'intelligence artificielle et l'automatisation dans nos vies sont nombreux et leur influence ne fait que croître.
L'IA est créée par des humains. Elle est donc perméable aux préjugés et aux stéréotypes. Certains redoutent que ces préjugés ne soient de plus en plus enracinés dans la technologie à mesure que l'IA et l'automatisation prendront de l'importance dans notre vie quotidienne.
"Au moment de leur conception, les IA s'imprègnent de leur environnement", explique Tabitha Goldstaub, co-fondatrice de la plateforme d'information sur l'IA CognitionX et militante pour la diversité dans l'industrie de la technologie. "Donc, s'il n'y a pas de femmes dans cet environnement ou dans les ensembles de données assimilés par les IA, ces machines seront forcément misogynes."
L'IA, victime et vectrice de stéréotypes
Apple n'a pas souhaité faire de commentaires sur les interactions entre Siri et ses utilisateurs. Les anglophones peuvent choisir une voix masculine pour l'appli, et cette voix est sélectionnée par défaut dans certaines langues.
Les utilisateurs anglophones d'Alexa peuvent aussi changer son genre, s'ils savent modifier les paramètres. "En créant Alexa, nous avons voulu lui donner les qualités que nous estimons le plus chez Amazon: l'intelligence, la serviabilité et la modestie, mais aussi le sens de l'humour. Ces qualités ne sont pas l'apanage d'un genre. Nous les apprécions chez tout le monde", indique un porte-parole.
D'après un représentant de Microsoft, les ingénieurs ont "longtemps réfléchi à la façon dont ils voulaient représenter Cortana" avant de choisir une personnalité féminine car "les études montrent que les voix féminines dégagent une certaine chaleur associée à la serviabilité." L'entreprise ne propose pas de voix masculine en option, mais n'en exclut pas la possibilité.
Audioburst, dont Alexa utilise la technologie d'IA, assure être en train de repenser Robin pour que l'appli ressemble moins à une assistante et davantage à un service d'écoute de podcasts et d'information contrôlé par la voix des utilisateurs. Bientôt Robin ne répondra plus aux questions explicites ou vulgaires car elle ne parlera plus du tout, explique Assaf Gad, le vice-président du marketing de l'entreprise. "Une fois nos mises à jours terminées, aucune interaction de ce type ne sera plus possible", assure-t-il. Il ajoute que Robin n'a pas n'option permettant de choisir une voix masculine.
Tabitha Goldstaub ne croit pas à la bonne foi des entreprises de technologie. Pour elle, les assistants virtuels à la voix féminine illustrent bien le fait que les industries dominées par les hommes ne réfléchissent pas aux effets possibles de leurs produits.
"Il n'y a pas assez de réflexion consciente à l'œuvre pendant leur conception", dit-elle. Elle soutient qu'une faible diversité sur le lieu de travail peut entraîner un manque d'ouverture d'esprit et empêcher une distance critique suffisante vis-à-vis des produits.
"J'aime à croire que les femmes créeraient différemment", déclare quant à elle Kate Devlin.
Alors, comment décourager les utilisateurs de harceler leurs assistantes virtuelles? Amazon affirme avoir programmé Alexa pour la rendre plus féministe qu'avant (si vous le lui demandez, elle vous expliquera le sens du mot "féminisme"). Mais même le mode désengagement de l'appli ne dit pas aux utilisateurs pourquoi Alexa refuse de poursuivre telle ou telle conversation, ni en quoi leur comportement pose problème. Leah Fessler de Quartz propose une solution plus radicale:
Tabitha Goldstaub pense qu'il faudrait aller plus loin en cessant d'humaniser les assistants virtuels.
"Selon moi, maintenant que l'IA prend de plus en plus de place dans notre quotidien, nous devons établir clairement ce qui relève de l'intelligence humaine et ce qui est artificiel ", poursuit-elle. "Ce qui m'inquiète, c'est que si les machines ressemblent trop aux humains on risque d'oublier qu'elles ne sont pas capables d'empathie ni douées de raison. Et cela pourrait devenir très dangereux."
Pour voir plus de contenu et faire partie de la communauté "This New World", rejoignez notre page Facebook.
Le contenu de la rubrique "This New World" du HuffPost est financé par Partners for a New Economy et la fondation Kendeda. Ce contenu est totalement indépendant sur le plan éditorial et libre de toute influence de la part des fondations. Vous avez un conseil ou une idée pour la rubrique? Envoyez-nous un email à thisnewworld@huffpost.com.
Cet article, publié à l'origine sur le HuffPost américain, a été traduit par Iris Le Guinio pour Fast For Word.
À voir également sur Le HuffPost: