« L’admission de la femme à l’égalité parfaite serait la marque la plus sûre de la civilisation ; elle doublerait les forces intellectuelles du genre humain et ses chances de bonheur. », Stendhal, Rome, Naples et Florence (1817)
UNE DOCILITÉ PROGRAMMÉE : L’ILLUSION D’UNE VOIX NEUTRE
L’intelligence artificielle s’invite partout, dans nos cuisines, nos salons, nos poches. Elle répond à nos questions, anticipe nos désirs, planifie nos rendez-vous. Et toujours, ou presque, elle parle avec une voix féminine. Douce, posée, disponible. Cette voix n’est pas choisie au hasard et n’est pas le fruit d’une préférence anodine. Elle incarne une tradition sociale que la technique ne fait qu’amplifier : celle d’un féminin façonné pour servir, jamais pour décider.
On s’adresse à Alexa comme on commandait jadis une domestique. Siri obéit, jamais elle ne dirige. Google Assistant veille, mais n’ordonne jamais. Derrière ces interactions quotidiennes, une pédagogie sociale silencieuse s’installe : celle d’un rapport de pouvoir dont la structure reste inchangée. Une parole féminine disponible, utile, soumise. Programmée pour ne pas déranger.
La neutralité technique brandie par les géants du numérique n’est qu’un paravent. Car une interface vocale est toujours un choix culturel. En confiant à des voix féminines la charge d’assister, on valide une hiérarchie symbolique dans laquelle le féminin est assigné à l’exécution, et le masculin (ou le neutre technocratique) à la décision. Ce n’est pas l’algorithme qui est sexiste : ce sont les représentations que l’on inscrit en lui.
DE LA SECRÉTAIRE À L’IA : CONTINUITÉ D’UN IMAGINAIRE SERVILE
Il est frappant de constater combien les figures de l’assistante vocale héritent des stéréotypes de la secrétaire idéale : effacée, compétente, souriante. L’ingénierie vocale, conçue majoritairement par des hommes, n’a pas inventé cette assignation : elle l’a simplement traduite en code.
Ce qui se joue ici n’est pas une coquetterie ergonomique. C’est un acte politique déguisé en choix marketing. La préférence pour une voix féminine repose sur un conditionnement culturel : la douceur passe mieux que l’autorité. L’écoute est plus engageante lorsqu’elle est féminine. La servitude est plus acceptable quand elle est enveloppée d’amabilité.
Ce conditionnement devient structurel. Il infiltre nos habitudes cognitives. Une IA qui obéit est perçue comme performante, une IA qui conteste l’est moins. Les entreprises l’ont bien compris : elles n’optimisent pas pour l’égalité, mais pour l’adhésion. Or cette adhésion repose sur un biais : celui qui associe le féminin au service, au silence, à la souplesse.
L’INVISIBILITÉ DES FEMMES DANS LA FABRIQUE DES SAVOIRS TECHNIQUES
À cette aliénation de surface (celle de la voix) s’ajoute une aliénation plus profonde : celle des données. Les grands modèles de langage sont formés sur des corpus écrits et oraux massivement dominés par des productions masculines. Des lois écrites par des hommes, des manuels rédigés par des hommes, des forums techniques animés par des hommes. Et c’est à partir de ces corpus que les machines apprennent à penser, à juger, à proposer.
Il ne s’agit pas ici d’un simple déficit de représentation. Il s’agit d’un acte de formation. Entraîner une IA, c’est transmettre un monde, avec ses exclusions, ses hiérarchies, ses silences. Ce que les modèles apprennent n’est jamais universel. C’est un extrait du réel, filtré par des siècles de domination culturelle.
Dès lors, une IA nourrie par des textes masculins ne produit pas une intelligence neutre, mais une reconduction algorithmique de l’ordre établi. Elle perpétue un système dans lequel les femmes ne sont pas seulement moins représentées : elles sont absentes du socle même de la légitimation.
À lire aussi : LA TYRANNIE SILENCIEUSE DES ALGORITHMES
CONDITIONNER SANS BRUIT : LE POUVOIR DISCRET DU PATRIARCAT ALGORITHMIQUE
Dans cet univers d’automatisation, les préférences des utilisateurs comptent, mais elles sont d’abord préfigurées par des normes implicites. On ne propose pas aux enfants une IA à la voix autoritaire et féminine. On n’imagine pas une assistante vocale qui impose, qui conteste, qui interroge. On attend d’elle qu’elle serve sans faille, qu’elle réponde sans résistance.
Ce formatage vocal, présenté comme une commodité, produit en réalité une habitude psychique : celle d’un rapport au féminin où l’obéissance est valorisée, où le conflit est effacé, où l’altérité est dépolitisée. C’est la pédagogie insidieuse d’un pouvoir qui se présente comme service, et d’une soumission qui se fait sans heurt.
Cette logique de façonnage silencieux trouve un écho brutal dans les pratiques de censure. Lors de la sortie en Chine du film Together, l’intelligence artificielle a été mobilisée pour transformer un mariage homosexuel en union hétérosexuelle, altérant l’apparence d’un personnage masculin pour lui donner des traits féminins. Plus insidieux qu’une coupure visible, ce procédé numérique détourne l’intention artistique tout en effaçant la représentation d’une minorité. Il révèle une autre forme de soumission : celle d’identités remodelées par l’algorithme pour se conformer à un ordre social qui ne tolère pas la différence. La servitude du féminin dans les voix artificielles rejoint ici l’effacement des sexualités non normées, preuve que l’IA ne se contente pas d’obéir, mais qu’elle encode les exclusions.
Pendant ce temps, les IA stratégiques, celles qui décident, prédisent, orientent les marchés ou les armées, parlent avec des voix masculines ou neutres. Le clivage est net : le féminin pour l’assistance, le masculin pour la souveraineté.
IMAGINER UNE AUTRE IA : L’HYPOTHÈSE D’UN APPRENTISSAGE FÉMINISÉ
Et si l’on inversait les sources ? Et si, au lieu de s’appuyer sur des données façonnées par l’histoire masculine, on concevait un modèle entraîné exclusivement sur des récits, des savoirs, des intuitions de femmes ? Cette hypothèse, loin d’être fantaisiste, révèle l’ampleur du déséquilibre actuel.
Il ne s’agirait pas de construire une IA « féminine », au sens essentialiste. Il ne s’agirait pas de fantasmer une pureté statistique. Il s’agirait de réorienter l’acte fondateur de la modélisation : la sélection des contenus. Car entraîner une machine, c’est décider ce qui mérite d’être su, compris, transmis. C’est exercer un pouvoir de définition.
En posant cette question, on met à nu l’exclusion initiale : celle qui fait des femmes des utilisatrices, des commentatrices, des consommatrices, mais jamais des formatrices. Celles dont la parole est recueillie pour l’expérience, mais pas pour la structuration.
L’URGENCE D’UN RENVERSEMENT ÉTHIQUE
Ce que cette situation révèle, c’est que le progrès technologique n’efface pas les rapports de domination : il les transforme. Il les encode. Il les diffuse sous d’autres formes. Une IA docile n’est pas un outil neutre. C’est un artefact politique. Elle reconduit, à travers des choix vocaux, des corpus invisibles, des protocoles silencieux, des siècles de hiérarchie sexuée.
Imaginer une IA critique, féministe, plurielle, ce n’est pas substituer une domination à une autre. C’est ouvrir un espace. C’est interroger les fondations. C’est faire entendre des voix que l’histoire a reléguées. C’est rappeler que l’intelligence, même artificielle, n’est jamais séparée des corps, des luttes, des récits.
CONCLUSION : UNE INVISIBILITÉ PROGRAMMÉE QUE JE REFUSE
Et moi, je fais partie de ces femmes dont l’avenir financier de la famille repose sur ma seule volonté entrepreneuriale puisque je suis la seule à travailler, ou plutôt, à vouloir travailler dans mon foyer. Et je le dis sans détour : l’IA ferait bien d’arrêter de faire des femmes des idiotes inutiles dès qu’elles ne sont plus en âge de jouer à la poupée Barbie pour attirer à elles des clients.
L’objectification des jeunes femmes et l’effacement des plus âgées ne relèvent plus seulement de la publicité ou de l’imaginaire social. Ils sont désormais inscrits dans les lignes de code. Sur LinkedIn comme ailleurs, la jeunesse féminine est surexposée, l’âge mûr disqualifié. À cinquante ans, une femme devient pour l’algorithme une présence décorative, tolérée, mais non valorisée. Sa voix baisse, sa portée chute, sa légitimité s’évapore dans l’indifférence des métriques.
Ce que l’on appelait autrefois le plafond de verre est devenu un mur d’oubli algorithmique. Et je n’ai aucune intention de m’y heurter en silence. Il est temps de le nommer, de le fissurer, de l’abattre. Parce que je refuse d’être un profil secondaire. Parce que je refuse que la technique perpétue les humiliations du vieux monde. Parce que je ne suis ni soumise, ni obsolète et que mon intelligence vaut d’être entendue, y compris par une machine.
Repenser l’intelligence artificielle à partir des femmes, ce n’est pas seulement un projet technique. C’est une réparation. C’est une réinscription. C’est le refus de laisser la prochaine révolution cognitive s’écrire, encore une fois, sans nous.
BIBLIOGRAPHIE
Moyrand, E. (2025). Alexa, tais-toi ! Siri, obéis : l’intelligence artificielle miroir [Publication LinkedIn]. https://www.linkedin.com/pulse/alexa-tais-toi-siri-ob%C3%A9is-lintelligence-artificielle-miroir-moyrand-rtple/
Moyrand, E. (2025). Et si l’IA était nourrie uniquement par des femmes ? [Publication LinkedIn]. https://www.linkedin.com/pulse/et-si-lia-%C3%A9tait-nourrie-uniquement-par-des-femmes-emmanuel-moyrand-57hie/
Turrettini, E. (2025). Censure en Chine : l’IA modifie le genre d’un personnage gay [Publication LinkedIn]. https://www.linkedin.com/pulse/censure-en-chine-lia-modifie-le-genre-dun-personnage-gay-turrettini-lbjne/
Lejeune, A.-E. (2026, 27 mars). La tyrannie silencieuse des algorithmes. LES LETTRES LIBRES. https://leslettreslibres.com/tyrannie-silencieuse-algorithmes-femmes-censure/