Ou comment l’algorithme efface les femmes et neutralise les voix libres
L’ILLUSION DE LA NEUTRALITÉ NUMÉRIQUE
Les chiffres sont là, implacables. Selon une analyse conduite par le cabinet IntoTheMinds sur plus de mille profils LinkedIn francophones ayant obtenu plus de cinq cents réactions, 50,58 % des femmes « influenceuses » ont entre dix-huit et trente ans, tandis que seules 8,62 % d’entre elles ont plus de cinquante ans. Chez les hommes, cette proportion atteint 24,27 %. Ces écarts, bien qu’observés sur un échantillon spécifique, révèlent une dynamique profonde : la jeunesse féminine concentre l’attention quand la maturité s’efface. L’algorithme ne se contente pas de refléter les biais sociaux ; il les amplifie, les codifie et les reconduit avec une rigueur glacée. Sous l’apparence de la neutralité statistique, il érige l’injustice en évidence.
LE MIROIR DÉFORMANT DES RÉSEAUX PROFESSIONNELS
LinkedIn n’est pas seulement une vitrine ; c’est un dispositif de sélection implicite. Derrière ses codes policés, la plateforme érige la jeunesse féminine en valeur d’échange et consacre l’autorité masculine vieillissante comme valeur de pouvoir. Ce que nous prenons pour un reflet fidèle n’est qu’une scénographie : un décor algorithmique où la visibilité se distribue selon des critères programmés. Loin d’un hasard ou d’un dysfonctionnement, cette hiérarchisation s’inscrit dans une logique structurelle : celle d’une économie de l’attention où la valeur humaine se mesure à la capacité de plaire aux algorithmes.
L’INVISIBILITÉ PROGRAMMÉE DES FEMMES MÛRES
Simone de Beauvoir l’avait pressenti :
« La vieillesse est particulièrement difficile à assumer pour la femme parce qu’elle a toujours été considérée comme un objet. »
Cette objectivation ne s’exprime plus dans le regard social, mais dans les lignes de code. Plus besoin d’un bourreau : l’algorithme suffit. Il trie, rétrograde, relègue. Une femme qui vieillit devient un profil secondaire. Sa parole décroît dans les flux, son influence s’évanouit dans les métriques. Nous avons basculé du silence imposé à l’invisibilité programmée, une violence d’autant plus redoutable qu’elle ne laisse aucune trace de l’effacement qu’elle orchestre.
Virginia Woolf réclamait une chambre à soi pour écrire librement. En 2025, même cette chambre ne suffit plus. Une femme de quarante-cinq ans, armée de sa pensée et d’une connexion stable, peut écrire dans le vide numérique. Non qu’elle manque de pertinence, mais parce qu’une instance invisible a décidé que sa voix ne méritait pas l’attention. Le silence qu’elle affronte n’est pas celui de l’absence de lecteurs, mais celui d’une désactivation algorithmique.
LA VIOLENCE CODÉE DE LA NEUTRALITÉ
Cette disparition n’est pas qu’un phénomène symbolique : elle a des effets mesurables. Chaque publication reléguée, chaque interaction effacée avant d’avoir existé, représente une opportunité perdue et une expertise tue. Sous le vernis du calcul objectif se cache une violence structurelle qui perpétue les hiérarchies de genre et de pouvoir. Gloria Jean Watkins, alias bell hooks, l’avait formulé avec justesse :
« Le patriarcat n’a pas de genre. »
Les algorithmes non plus. Ils reconduisent, sous couvert d’efficacité, les normes qu’ils prétendent ignorer. L’idéologie n’a plus besoin de discours : elle circule dans les règles invisibles du code.
LE POUVOIR INVISIBLE DES SYSTÈMES DE CALCUL
Ce qui se joue ici dépasse la simple question de visibilité : c’est la reprogrammation du réel par des logiques computationnelles. Michel Foucault en avait posé les fondements : il existe des pouvoirs sans visage ni centre, qui s’exercent par la capillarité. Accuser un algorithme de sexisme ? On vous répondra qu’il est mathématique, donc neutre. Or le calcul n’est jamais innocent.
Comme l’écrivait Rebecca Solnit :
« Les femmes sont censées s’excuser d’exister, d’occuper de l’espace, de vieillir. »
Désormais, cet avertissement est intégré dans le code : l’algorithme rappelle à l’ordre avec l’autorité glacée du calcul.
LA PERSUASION LATENTE : UNE NORME SOUS CONTRÔLE
Les recherches récentes montrent que la persuasion latente constitue un mécanisme de pouvoir à part entière. Les modèles de langage génératif, tels que ChatGPT ou Mistral, ne se contentent pas de produire du texte : ils orientent les réponses, hiérarchisent les possibles, suggèrent des comportements. Des études (Sorokovikova et al., 2025 ; Salinas et al., 2023) ont démontré qu’à demande égale, ces systèmes proposent aux femmes des niveaux de salaire inférieurs à ceux adressés aux hommes.
Ce n’est pas une erreur technique, mais un effet de structure. Ces IA, nourries de corpus saturés de hiérarchies implicites, deviennent des agents cognitifs qui diffusent les inégalités à travers le langage même. Le biais n’est plus une anomalie statistique : il devient une forme d’imprégnation sociale, un instrument de normalisation douce.
LIBERTÉ D’EXPRESSION SOUS CONDITION ALGORITHMIQUE
L’usage de l’intelligence artificielle par les réseaux sociaux pousse cette logique à son paroxysme. Chaque contenu, chaque image, chaque mot reçoit un score implicite de conformité qui conditionne sa diffusion, sa monétisation et sa portée. Les propos alignés sur les narratifs dominants sont amplifiés ; les discours critiques, relégués.
Le shadowbanning instaure une censure sans visage : une mise à l’écart progressive, indémontrable et pourtant effective. Craignant de disparaître des flux, les utilisateurs s’autocensurent. À l’échelle collective, l’illusion du consensus s’installe, réduisant la pluralité à une homogénéité artificielle.
L’opacité de ces systèmes interdit tout contrôle démocratique. La liberté d’expression se transforme en privilège révocable, soumis au verdict d’une machine.
LA CENSURE INVISIBLE SUR X : UN CAS RÉVÉLATEUR
L’audition à l’Assemblée nationale française de Claire Dilé, directrice des affaires publiques de X France, a levé le voile sur ce mécanisme opaque que la plateforme appelle « déamplification algorithmique ». Sous couvert de « modération granulaire », les contenus jugés « gris » ni illégaux ni contraires aux règles se voient attribuer un filtre de visibilité réduisant leur portée sans en informer leurs auteurs.
Le slogan « Freedom of Speech is not Freedom of Reach » résume cette logique : la liberté d’expression serait tolérée, mais non sa diffusion. Le média France-Soir en a été victime le 9 novembre 2025, lorsqu’un article d’opinion sur la vaccination, parfaitement légal, fut étiqueté « contenu sensible », puis masqué derrière un avertissement.
Frédéric Baldan et plusieurs juristes dénoncent une atteinte à l’article 11 de la Charte européenne des droits fondamentaux, qui garantit le droit de communiquer sans ingérence. Cette pratique, semblable aux aveux récents de Google sur la suppression de vidéos politiques aux États-Unis, révèle une tendance mondiale : déléguer la censure à des algorithmes privés sous prétexte de neutralité, au mépris du débat démocratique.
L’ÉTRANGLEMENT NUMÉRIQUE DES VOIX DISSIDENTES
Cette mécanique ne frappe pas seulement les femmes. Elle atteint toutes les voix qui dérangent l’ordre établi. Nicolas Vidal, fondateur de Putsch Media, dénonce un « étranglement algorithmique » : selon son témoignage, sa chaîne YouTube aurait subi une chute brutale de visibilité malgré un fort engagement.
Relayé par France-Soir, son cas illustre la fragilité des médias indépendants face à la modulation automatisée de la portée. Werner Manesse parle d’« étranglement numérique » : un plafonnement artificiel de l’engagement, une extinction douce, presque aseptisée, qui ne dit pas son nom. Il ne s’agit plus de censure directe, mais d’une disparition progressive des contenus jugés non conformes.
LE POUVOIR DE FAIRE TAIRE SANS INTERDIRE
Cette domination, d’autant plus redoutable qu’elle est invisible, infiltre les trajectoires professionnelles, modifie les représentations de soi et redéfinit ce que nous osons dire. Le pouvoir de faire taire sans interdire est la forme la plus raffinée du contrôle contemporain : il agit sans violence apparente, mais impose son ordre par l’architecture du silence.
On ne peut ni contester un calcul opaque ni faire appel d’une invisibilité programmée. Aucune décision explicite, aucun interlocuteur : seulement une lente disparition, indémontrable et sans recours.
Face à ce vide, se taire serait consentir. Résister consiste à exiger des audits indépendants, à rendre visible l’invisible et à refuser que la technique s’érige en vérité politique. Rappeler qu’aucune équation, fût-elle sophistiquée, ne peut décider de la légitimité d’une voix.
LE REFUS DE DISPARAÎTRE
Olympe de Gouges l’avait compris : rendre invisibles les femmes, c’est nier leurs droits. En 2025, il ne s’agit plus de solliciter une faveur, mais de revendiquer une reconnaissance légitime : être visibles, être entendues, être créditées de notre pensée et de notre âge.
Cette exigence n’est pas un luxe, mais la condition même de la démocratie.
Le média LES LETTRES LIBRES poursuivra ce combat. Face à l’effacement, à l’unanimisme, au conformisme technologique, nous choisirons la voix, le verbe, l’obstination.
Francis Wolff le rappelle :
« Il faut redonner à l’universel toute sa force émancipatrice. »
L’universel n’est pas un slogan, mais une exigence : celle d’une humanité qui refuse l’effacement, quelle qu’en soit la forme.
NOTE
Le terme objectification, bien que peu présent dans les dictionnaires normatifs, est largement employé en sciences sociales et en études féministes pour désigner la réduction d’une personne à l’état d’objet. Son usage s’est consolidé à partir des années 1970, à la faveur des travaux anglo-américains (notamment Catharine MacKinnon et Martha Nussbaum) qui lui ont donné une portée théorique que Simone de Beauvoir avait déjà pressentie.
BIBLIOGRAPHIE
Alix, P. (2025).ChatGPT, Mistral et les autres poussent les…LinkedIn. https://www.linkedin.com/posts/pascalalix_chatgpt-mistral-et-les-autres-poussent-les-activity-7354044222510899201-7hKF
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021).On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. ACM Conference.
Criado Perez, C. (2019).Invisible Women: Data Bias in a World Designed for Men.Chatto & Windus ; trad. fr.Femmes invisibles : comment le manque de données biaisées met en danger les femmes.First Éditions, 2020.
France-Soir. (2025, 16 septembre).L’usage de l’IA par les réseaux sociaux : une menace pour la liberté d’expression ?https://francesoir.fr/societe-science-tech/l-usage-de-l-ia-par-les-reseaux-sociaux-une-menace-pour-la-liberte-d
France-Soir. (2025, 29 septembre).Invisibilisation : Nicolas Vidal dénonce une censure algorithmique qui étouffe les médias indépendants.https://www.francesoir.fr/videos-les-debriefings/invisibilisation-nicolas-vidal-denonce-une-censure-algorithmique-qui-etouffe
Le Collectif citoyen & Azalbert, X. (2025, 10 novembre).X et la censure invisible, un scandale qui ébranle la liberté d’expression ? Audition de Claire Dilé.France-Soir. https://www.francesoir.fr/societe-economie-justice-science-tech-culture-medias/x-et-la-censure-invisible-un-scandale-qui
IntoTheMinds. (2024).Men — Women: the battle for influence is unequal on LinkedIn.https://www.intotheminds.com/blog/en/men-women-influence-linkedin/
Irolla, P. (2025).J’ai presque décidé de changer de sexe.LinkedIn. https://www.linkedin.com/posts/paul-irolla-automata_jai-presque-d%C3%A9cid%C3%A9-de-changer-de-sexe-activity-7316815565375901696-kDzW
Manesse, W. (2025).Ce message est un test qui n’apparaîtra pas.LinkedIn. https://www.linkedin.com/posts/werner-manesse_ce-message-est-un-test-qui-nappara%C3%AEtra-pas-activity-7326626524000907265-I-lJ
Noble, S. U. (2018).Algorithms of Oppression: How Search Engines Reinforce Racism.New York University Press.
Salinas, A., Shah, P., Huang, Y., McCormack, R., & Morstatter, F. (2023).The Unequal Opportunities of Large Language Models: Examining Gender Bias in Career Advice.arXiv:2308.02053. https://arxiv.org/abs/2308.02053
Sorokovikova, A., Chizhov, P., Eremenko, I., & Yamshchikov, I. (2025).Surface Fairness, Deep Bias: A Comparative Study of Bias in Language Models.arXiv:2506.10491. https://arxiv.org/pdf/2506.10491
Wolff, F. (2022).Plaidoyer pour l’universel.Fayard.