Quand l’honnêteté intellectuelle cède à la posture
L’ÉCRAN DE FUMÉE DE LA « PURETÉ RÉDACTIONNELLE »
Dans l’écosystème médiatique contemporain, une rhétorique s’impose avec insistance : celle de la pureté rédactionnelle. Des publications revendiquent un travail « authentique », « original », opposé à la production mécanisée des contenus. L’intention paraît louable. Elle mérite pourtant d’être examinée de plus près.
À mesure que les outils génératifs s’intègrent aux pratiques éditoriales, une tension apparaît entre les déclarations d’intention et les réalités de production. Produire davantage, plus vite, à coût égal, sans recourir à ces outils, relève soit d’un choix assumé de limitation, soit d’un discours qui ne dit pas tout. Et dans un secteur en crise, revendiquer cette position exige une justification autrement plus solide qu’une posture vertueuse.
Le problème n’est pas l’IA. Le problème est le discours sur l’IA.
LE TIRET CADRATIN, RÉVÉLATEUR MALGRÉ LUI
Depuis plusieurs mois, une conversation récurrente agite les cercles francophones de LinkedIn : le tiret cadratin serait le « signe secret » de ChatGPT, la marque infaillible d’un texte généré. Chaque semaine, une nouvelle voix crie à la découverte. Chaque semaine, la même confusion se répète.
Le tiret cadratin n’est pas un tic stylistique de l’IA. C’est un héritage typographique anglophone que les grands modèles de langage ont massivement intégré parce qu’ils ont été entraînés sur des corpus à majorité anglaise, où ce signe marque la pause, la transition, l’incise. En français soutenu, il est fautif. Sa présence dans un texte francophone révèle donc une chose précise : soit un auteur humain qui calque à tort les usages anglophones, soit un texte généré par IA insuffisamment relu par quelqu’un maîtrisant les normes typographiques du français.
Ce n’est pas une révélation. C’est de la sémiotique élémentaire.
Et pourtant, ce signal persiste. Parce que les modèles deviennent chaque jour plus performants, plus discrets, mieux calibrés sur les normes francophones, le tiret cadratin finira par disparaître de leur production standard. Les détecteurs automatiques d’IA affichent déjà des taux d’erreur préoccupants sur des textes entièrement humains. L’indétectabilité progresse. La posture de pureté, elle, demeure.
CE QUE L’IA FAIT RÉELLEMENT
Comprendre ce débat exige de distinguer ce que l’IA fait, ce qu’elle ne fait pas, et ce qu’elle ne peut structurellement pas faire.
Ce qu’elle fait : elle résume, rassemble, reformule. Elle prend une masse documentaire que l’humain a sélectionnée, triée, jugée digne d’attention, et en produit une architecture textuelle initiale. Nick Lichtenberg, éditeur chez Fortune, publie jusqu’à sept articles par jour en alimentant Perplexity ou NotebookLM avec des communiqués de presse et des notes d’analystes. Ces articles assistés représentaient près de 20 % du trafic web de Fortune au second semestre 2025. Alex Heath, journaliste indépendant sur Substack, dicte ses idées dans un microphone connecté à Claude, obtient une première ébauche, et consacre ensuite 30 à 40 % de temps en moins à l’écriture, ce qui lui libère du temps pour ses sources.
Ce qu’elle ne fait pas : elle ne creuse pas. Elle ne convoque pas de source humaine. Elle ne sent pas l’angle. Elle ne confronte pas le pouvoir. Elle ne porte pas de voix singulière.
Ce qu’elle ne peut structurellement pas faire : incarner. Un texte qui vaut la peine d’être lu n’est pas une synthèse documentaire. C’est une pensée qui s’engage, une voix qui choisit ses mots parce qu’ils lui appartiennent. Jasmine Sun, animatrice d’une newsletter sur l’IA et la culture de la Silicon Valley, refuse catégoriquement que l’IA écrive à sa place. Elle s’en sert comme éditrice, l’outil challenge son travail, affine ses formulations, mais ne produit pas une seule phrase. Casey Newton, co-animateur du podcast Hard Fork du New York Times, va plus loin encore : il a entraîné Claude sur ses propres articles et reconnaît que, dans ses meilleurs moments, ses retours sont à peu près aussi bons que ceux reçus d’éditeurs humains.
Le spectre est large. Entre celui qui laisse l’IA rédiger intégralement et celui qui ne lui confie que la relecture critique, il existe une infinité de postures légitimes. Aucune n’est par principe supérieure. Ce qui est illégitime, en revanche, c’est de prétendre à l’une pour en pratiquer une autre.
LA SÉMIOTIQUE HYBRIDE OU LE MYTHE DE LA VOIX PURE
La question centrale n’est pas technique. Elle est sémiotique.
Un texte produit avec l’aide d’un modèle génératif peut être porteur d’une voix authentique si, et seulement si, l’IA a été configurée, guidée, corrigée et finalement absorbée dans une démarche qui reste celle de l’auteur. C’est ce que certains théoriciens de la communication commencent à appeler la sémiotique hybride, un processus où la machine fournit une architecture initiale, et l’humain y investit sa pensée propre, sa subjectivité, ses choix irréductibles.
La sémiotique devient véritablement hybride quand elle est capable d’incarner la voix de l’humain. Pas avant. Un texte généré sans relecture critique, sans restructuration profonde, sans engagement de la pensée de l’auteur, n’est pas un texte hybride. C’est un texte délégué. Un texte délégué peut être exact, utile, lisible. Mais il ne constitue pas un acte journalistique au sens plein du terme.
Ce que Google DeepMind a documenté correspond à ce risque précis : utilisée paresseusement, l’IA homogénéise les textes, appauvrit les voix, confère une neutralité artificielle qui dissout ce qui fait qu’un article vaut la peine d’être lu. L’ennemi n’est pas la machine. C’est la paresse intellectuelle qui en fait usage.
LA VÉRIFICATION : LE TRAVAIL LE PLUS LONG
Ce que les partisans d’une rhétorique de la pureté omettent systématiquement de mentionner, c’est que l’IA résume, rassemble et rédige ce qui a été pensé par l’humain, mais que la vérification, elle, incombe intégralement à l’auteur. Et c’est de loin le travail le plus long.
Vérifier chaque fait, chaque date, chaque chiffre, chaque attribution, chaque reformulation que l’outil a produite à partir de sources réelles : voilà ce qui distingue le journalisme assisté par IA du journalisme bâclé. Le Plain Dealer, quotidien de Cleveland fondé en 1842, vient de créer un poste d’« AI rewrite specialist » dont la logique repose précisément sur cette architecture : les reporters collectent, enquêtent, documentent ; un spécialiste assisté par IA transforme cette matière brute en premier jet ; les faits sont vérifiés, les éditeurs relisent, le reporter conserve un droit de regard final.
« Les humains, pas l’IA, contrôlent chaque étape », insiste la direction.
Le droit des contrats offre un parallèle éclairant. Crosby, cabinet new-yorkais fondé en 2024, a déployé une suite de huit agents IA construits sur les modèles d’OpenAI, d’Anthropic et de Gemini pour traiter ses dossiers contractuels. Ses 30 avocats ne rédigent plus de zéro : ils supervisent, corrigent et valident. Même dans un secteur où l’erreur engage des responsabilités juridiques directes, personne n’a songé à supprimer l’humain de la boucle.
Ron Fournier, ancien rédacteur en chef politique de l’Associated Press, s’y oppose avec vigueur. Selon lui, aucun modèle aussi sophistiqué soit-il ne peut remplacer le jugement critique indispensable à une information qui demande des comptes au pouvoir. Il ajoute que ces technologies risquent de servir aux lecteurs ce qu’ils savent déjà ou ce qu’ils veulent entendre, renforçant leurs biais plutôt qu’élargissant leur regard.
L’argument est sérieux. Il vaut pour l’IA utilisée sans discernement. Il ne vaut pas comme argument contre toute forme d’usage.
L’HYPOCRISIE DU VERTU-SIGNALEMENT
La rhétorique de la pureté repose souvent sur une ambiguïté soigneusement entretenue. Elle ne dit pas explicitement « nous n’utilisons pas l’IA ». Elle affirme miser sur le travail « authentique et original » face à la production mécanique. Mais dans l’économie de l’attention, cette formulation fonctionne comme une déclaration implicite d’innocence. Et c’est là que réside la malhonnêteté.
Mathias Döpfner, PDG d’Axel Springer, formule crûment la logique inverse : il est vain de combattre l’IA, il faut l’embrasser. Son groupe a lancé un programme pilote chez Business Insider permettant à l’IA de rédiger des brèves sous un nom de plume dédié. La transparence, au moins, a le mérite d’exister.
Un média qui produit peu, qui publie court, et qui proclame ne pas toucher à l’IA, se place dans une situation rhétorique intenable à mesure que les outils deviennent indétectables. Si demain les marqueurs stylistiques disparaissent, sur quelle base le lecteur pourra-t-il distinguer l’authenticité revendiquée de la délégation silencieuse. La confiance repose sur la transparence, pas sur les déclarations d’intention.
A. G. Sulzberger, directeur du New York Times, prédit un « torrent sans précédent de contenus médiocres » produits par l’IA. Il a sans doute raison. Mais ce torrent sera alimenté autant par ceux qui utilisent l’IA en l’avouant que par ceux qui l’utilisent en se taisant.
Il y a pourtant une évidence que personne ne formule : aucune rédaction ne produit de l’information à partir de rien. Les grandes agences de presse, Reuters, AFP, AP ou Bloomberg, ont la primeur des faits. Le reste du paysage médiatique travaille à partir de leurs dépêches, de rapports d’experts, de déclarations de dissidents ou d’entretiens avec d’autres journalistes. Se targuer de ne jamais partir de contenus déjà publiés relève donc d’une mauvaise foi crasse. On est toujours la source d’un autre. Ce qui fait l’originalité d’un texte n’est pas le fait brut, rebidouillé en 500 mots à partir d’une dépêche AFP, mais l’art de relier les faits entre eux, de dévoiler la structure sous-jacente, de donner à voir ce que la somme des faits isolés ne dit pas. C’est précisément là que l’IA ne remplace rien, et c’est précisément là que la posture de pureté se retourne contre elle-même : prétendre à l’originalité absolue quand on agrège, comme tout le monde, des sources communes.
CE QUE LE LECTEUR MÉRITE
En vingt ans, près de 40 % des journaux locaux américains ont disparu. Quelque 50 millions d’Américains vivent aujourd’hui dans des zones avec peu ou pas d’accès à une information locale fiable. Le nombre d’articles générés par IA sur le web a dépassé celui des articles rédigés par des humains dès la fin de l’année 2024. Dans ce contexte de désertification informationnelle, la question n’est pas de savoir si l’IA est morale. Elle est de savoir comment l’utiliser sans trahir ce à quoi on s’est engagé.
Le lecteur mérite de savoir comment son information est produite. Il mérite une transparence sur les outils, les méthodes, les limites. Il ne mérite pas une posture. Il ne mérite pas qu’on lui vende une pureté artisanale pendant qu’on optimise discrètement ses processus. Ce que j’observe, depuis 28 ans que j’enseigne la langue et que j’écris sans filet, c’est que l’IA est un outil parmi d’autres, redoutable si on lui abandonne la pensée, utile si on lui confie seulement la logistique du langage. La différence est entière. Elle est aussi la seule qui vaille.
BIBLIOGRAPHIE
Denis, C. (2026, mars). Le tiret cadratin, nouveau test de pureté intellectuelle sur LinkedIn ? LinkedIn. https://www.linkedin.com/posts/christophe-denis-66326736b_ia-langage-hybridminds-activity-7391451236601929728-mDjp
Turrettini, E. (2026, 27 mars). L’intelligence artificielle redéfinit le journalisme. LinkedIn Pulse. https://www.linkedin.com/pulse/lintelligence-artificielle-red%C3%A9finit-le-journalisme-emily-turrettini-hy5re/?trackingId=dAkaghHTUoFMim7KLzRE1Q%3D%3D
Turrettini, E. (2026, 1 avril). Le droit et la fin de l’heure facturable. LinkedIn Pulse. https://www.linkedin.com/pulse/le-droit-et-la-fin-de-lheure-facturable-emily-turrettini-xhfxe/?trackingId=JL5xiAxBQXNGcw9RuiI54A%3D%3D