D’Alexa à Diella, lorsque l’on humanise les IA, on le fait souvent en reprenant des traits féminins, aussi stéréotypés que sexualisant. Des humanoïdes révélatrices des biais sexistes de notre société.

Demandez à votre téléphone une assistance vocale : c’est Siri qui vous répondra, de sa voix douce et féminine, par défaut. Même constat du côté de Google, avec Alexa, ou Lorène, chez Samsung. À la maison, celles qui assistent sont des femmes. Du moins, elles en ont les attributs. “Toute la robotique humanoïde développée en Chine depuis 2017 vouée à nous remplacer dans des fonctions quotidiennes, a pris la forme d’entités féminines”, constate Daniela Cerqui, anthropologue à l’Université de Lausanne, pour la Tribune de Genève Un hasard, nous direz-vous ? Et bien, pas vraiment.
Plus de douceur ?
Alors que les films dystopiques n’ont cessé de nous prévenir d’une future invasion robotique, l’homme développe une relation ambigüe avec la technologie. D’un côté, il la recherche, la fantasme, et ne cesse d’essayer de l’améliorer. De l’autre, il la craint, et la regarde avec méfiance. La solution trouvée par les développeurs ? Lui donner des attributs féminins, pour susciter la confiance des utilisateurs. Dans un article de La Gazette du Midi, la professeure de marketing Sylvie Borau assure en effet que “les femmes sont, en moyenne, perçues comme plus chaleureuses et plus susceptibles d’éprouver des émotions que les hommes… et ces qualités font défaut aux machines.”

Pour la chercheuse, “cette féminisation s’appuie sur des stéréotypes bien ancrés : la femme serait «naturellement» plus douce, attentive et emphatique. En dotant leurs machines de ces attributs, les concepteurs compensent la froideur et l’artificialité des algorithmes et facilitent leur acceptation ». Pas étonnant donc que, début septembre, l’Albanie ait nommé “Diella”, une nouvelle ministre des marchés publics générée entièrement par IA, pour traquer les fraudes et la corruption dans le pays. Pour Pascale Fung, directrice du Centre de recherche en intelligence artificielle (CAiRE) et professeur de génie électrique et informatique à l’Université des sciences et technologies de Hong Kong, cette tendance à féminiser la technologie n’a pas attendu l’IA pour se développer. “Même les annonces automatisées dans les transports en commun ont une voix féminine ou un avatar féminin,” soulève-t-elle. Une femme n’ordonne pas, ni ne menace, mais guide, conseille. Et donc rassure. D’ailleurs, ce n’est pas un hasard si l’autrice du “Nouvel Âge du sexisme. Comment l’IA et les technologies émergentes réinventent la misogynie” Laura Bates, rappelle pour Wired que “les chercheurs estiment que 10 % des conversations avec les assistants virtuels sont abusives.”

Dans la tech comme ailleurs, le patriarcat dicte les lois. Selon le département du Travail américain, 94,6 % des secrétaires et assistants administratifs sont des femmes. Plus encore, lors de la Journée des droits de la femme 2023, #JamaisSansElles publiait une campagne visant à dénoncer les biais sexistes des IA grâce à une expérience menée sur MidJourney, : lorsque l’on demande à la plateforme de nous générer un CEO, des images d’hommes blancs d’un certain âge apparaissent. Quand on tape “secretary”, des femmes jeunes et séduisantes (selon des normes stéréotypées) sont proposées. Pour Laura Bates, le fait que les assistants IA soient majoritairement féminins, “influence notre perception des tâches de secrétariat et administratives, souvent associées à la féminité ». Présentes dans des postes de service, souvent moins bien payées, les femmes sont considérées par la société comme plus facilement “asservissables”. Point intéressant, Michael Stora, psychanalyste et cofondateur de l’Observatoire des mondes numériques en sciences humaines relève d’ailleurs dans Courrier International que, “dans le jeu vidéo, beaucoup de gamers masculins choisissent des avatars féminins car ils ont l’impression de pouvoir mieux les contrôler.”

Un exhausteur de stéréotypes
Dans le jeu comme dans l’IA, les avatars féminins renforcent d’ailleurs tous les stéréotypes de genre, l’hypersexualisation en plus. En 2015, le professeur Ishiguro imagine d’Erica, le premier robot dotée d’une IA, à l’origine pour “créer du lien”. Il a cependant déclaré qu’il cherchait, avec son travail, à créer “la plus belle femme possible” : “Le principe de beauté réside dans la moyenne des visages. J’ai donc utilisé les photos de 30 belles femmes, j’ai mélangé leurs traits et j’ai utilisé la moyenne de chacune pour concevoir le nez, les yeux, etc,” explique-t-il au Guardian.
Info supplémentaire ? Erica a été créée pour avoir 23 ans et se décline en plusieurs versions d’Erica, de “pudique et conservatrice” à“impertinente et élégante”. Pascale Fung souligne qu’Erica est une assistance conversationnelle, un point qui a son importance dans l’apparence féminine du robot. “Le fait que les assistantes virtuelles et les assistantes conversationnelles soient majoritairement féminines s’explique-t-il par la croyance sociale selon laquelle les femmes sont plus aptes à ces rôles ?, questionne-t-elle, Parallèlement, des robots physiques comme Hermes, le robot de sauvetage du MIT, et Atlas, le robot capable de pratiquer le parkour, de Boston Dynamics, présentent une apparence nettement masculine. Est-ce parce qu’ils sont plus forts et ont une silhouette plus masculine ?”
Alors que la misogynie rythme nos quotidiens, lorsque l’on zoome du côté des technologies, ce sexisme est d’autant plus visible. Même l’UNESCO a alerté sur les préjugés sexistes de l’IA, notamment générative. Pour Laura Bates, “l’IA s’appuie sur une déshumanisation et une objectification extrêmes des femmes. Cela repose sur la présentation d’une vision profondément misogyne de ce qu’est et devrait être une relation, de ce qu’est et devrait être une femme. Elle ne vous contredira jamais, elle ne vous répondra jamais, elle n’aura jamais besoin de moments de solitude, elle ne voudra jamais parler de sa vie. Elle est totalement soumise et docile, là pour flatter votre ego.”
Plus good rhythm: here's Ani with smooth dance moves. pic.twitter.com/89DMTFbAMR
— xAI (@xai) October 7, 2025
Dès lors, difficile pour le magnat de la tech, Elon Musk, de ne pas s’engouffrer dans la brèche, en reproduisant, bien entendu, les biais les plus sexistes possibles. Car si les robots sexuels existent depuis déjà plusieurs décennies, les chatbots, eux, s’infusent doucement dans la sexualité hétérosexuelle, notamment à destination des hommes. En juillet dernier, la société d’intelligence artificielle d’Elon Musk, xAI, a ainsi dévoilé Ani, sorte de ChatGPT sexuel de 22 ans, couettes blondes, forte poitrine et lingerie fine en option, dont le milliardaire a fait la promotion sur X. Pour Camille Carlton, directrice des politiques au Center for Humane Technology, une organisation à but non lucratif qui encourage les entreprises technologiques à concevoir des produits plus sûrs, “tout cela est lié à la course à l’intimité que l’on observe dans le secteur de l’IA. Ces entreprises savent que le lien émotionnel favorise l’engagement et leur permet d’accroître leurs parts de marché.”

Crédit photo : xatakandroid
Et alors que OpenAI (qui domine plus de 80 % du marché des chatbots), se refuse – pour le moment -, au conversation à caractère sexuel entre ChatGPT et ses utilisateurs, Elon Musk utilise justement cette thématique pour attirer de nouveaux “clients”. Et ce, en proposant une vision hypersexualisée de la femme, jeune et prête à tout pour plaire à l’homme. C’est donc ça l’avenir ? Les femmes ne représentant que 10 à 20% du secteur de l’IA selon une étude menée en 2023 par le collectif féministe #JamaisSansElles, leur représentation reste encore majoritairement dans les mains des hommes. La solution semble alors toute trouvée : recrutons plus de femmes dans la tech, afin que ces dernières soient plus en mesure d’identifier les biais sexistes. Et surtout, d’y remédier.
18 novembre 2025