Passer au contenu

L’ÉCOLE HORS DU SIÈCLE : L’INTELLIGENCE ARTIFICIELLE AVANCE, L’ÉCOLE RECULE

L’école reste figée face à l’essor de l’intelligence artificielle. Tandis que les usages se transforment, elle interdit sans former. L’AI Act impose désormais une compréhension des outils. En refusant d’intégrer ces savoirs, elle fragilise l’esprit critique.

Élèves en classe utilisant des casques de réalité virtuelle, illustration de l’usage des technologies numériques et de l’intelligence artificielle dans l’éducation contemporaine
L’image montre ce que l’école croit embrasser alors qu’elle reste en retrait. Derrière l’équipement, la question n’est plus l’accès à la technologie, mais la capacité à la comprendre.

UNE ÉCOLE EN SURPLACE FACE À UNE RÉVOLUTION SILENCIEUSE

L’école ne bouge plus. Figée dans un récit usé jusqu’à la trame, elle oppose au monde qui change une posture de prudence qui confine à l’immobilisme. Elle observe la révolution numérique depuis sa tour d’ivoire, y devinant davantage un danger qu’un défi, un problème plutôt qu’un enjeu. Tandis que l’intelligence artificielle bouleverse les usages professionnels, sociaux et cognitifs, notre système éducatif continue de raisonner comme si les équations du XIXᵉ siècle suffisaient à former des esprits du XXIᵉ.

Emmanuel Moyrand a eu l’honnêteté de dire ce que tant d’enseignants pensent en silence. L’intelligence artificielle ne relève plus de la science-fiction ou de la prospective : elle est là, présente dans les outils que nous utilisons chaque jour, dans les décisions que nous déléguons, dans les rapports que nous rédigeons sans toujours en comprendre les ressorts. Or, dans ce monde transformé, l’école reste absente. Là où certains États investissent dans la formation précoce aux technologies de l’IA (comme les Émirats arabes unis qui l’intègrent dès le primaire), la France se contente de symboles, de moratoires flous, de chartes sans portée. Il en va de même pour le Québec et la Belgique.

QUAND L’ÉCOLE DEVIENT LE MAILLON FAIBLE DE LA DÉMOCRATIE NUMÉRIQUE

Ce refus d’entrer dans le réel n’est pas neutre. Il laisse la voie libre aux grandes plateformes, qui, elles, ne perdent pas de temps. L’école interdit, régule, moralise. Les géants du numérique séduisent, équipent, fidélisent. On veut croire que cette abstention est une marque d’éthique, qu’il faut tenir l’IA à distance pour mieux la dompter. En vérité, on ne fait que capituler sans le dire. ChatGPT est interdit dans les devoirs ? Fort bien. Mais quelles alternatives propose-t-on aux élèves pour apprendre à discerner, structurer, produire avec méthode dans un monde saturé d’automatismes ? Aucune.

L’illusion est totale. On parle encore de fracture numérique comme d’un problème d’équipement. Mais aujourd’hui, la véritable fracture est cognitive. Elle ne concerne plus l’accès, mais la compréhension. Et ceux qui la creusent ne sont pas les enfants, mais les adultes qui, par crainte, par idéologie ou par paresse, refusent de penser l’école comme le lieu d’apprentissage du présent.

QUAND LES PLATEFORMES DICTENT L’USAGE

La récente controverse autour du navigateur Chrome illustre ce déséquilibre. Début septembre 2025, Google a discrètement activé un bouton « aide aux devoirs » dans Chrome, adossé à Google Lens. En quelques clics, l’outil analysait une question affichée à l’écran et proposait une réponse immédiate. Sur de nombreux sites pédagogiques américains, il est ainsi apparu en plein examen, au point de brouiller la frontière entre assistance et fraude. Plusieurs universités, d’Emory à UCLA en passant par Berkeley et l’Alabama, ont aussitôt alerté leurs équipes enseignantes.

Les réactions ont été vives : pour Ian Linkletter, bibliothécaire au British Columbia Institute of Technology, Google sape l’intégrité académique en mettant l’IA sous les yeux des étudiants pendant les évaluations. Face à la polémique, l’entreprise a suspendu provisoirement la fonction, tout en défendant un service « utile à la compréhension visuelle ». Cet épisode démontre avec acuité la vitesse d’intervention des plateformes, prêtes à imposer des usages sans concertation, et la lenteur des institutions éducatives, condamnées à réagir dans l’urgence.

UNE GÉNÉRATION PRIVÉE D’EXERCICE INTELLECTUEL

Je n’ai jamais considéré cette génération comme incapable. Ce que j’ai vu chaque jour dans mes classes, c’est une génération privée d’exercice. On ne leur demande plus de raisonner, mais de produire. Pas d’analyser, mais de cliquer. Aujourd’hui, on leur apprend à prompt-er sans leur expliquer les logiques qu’ils manipulent. On les fait jouer avec des outils dont ils ne mesurent ni la structure ni les limites. Et demain, on leur demandera de porter les conséquences d’erreurs qu’ils n’auront pas su éviter.

La disparition du raisonnement mathématique ne concerne plus seulement les filières scientifiques. Elle touche tous les domaines de la pensée. Ne plus savoir distinguer une tendance d’un biais, une moyenne d’un leurre, une corrélation d’une causalité, c’est mettre en péril les fondements mêmes de l’esprit critique. Et cette perte, l’école ne l’empêche plus. Pire : elle l’entérine en refusant d’intégrer les savoirs techniques dans les humanités, comme si la technique n’était pas un langage à maîtriser, mais un bruit à exclure.

L’AI ACT : LA FIN DE L’IGNORANCE TOLÉRÉE

L’Union européenne, quant à elle, ne se satisfait plus de ces atermoiements. Depuis le 2 février 2025, l’entrée en vigueur de l’article 4 de l’AI Act change radicalement les règles du jeu. Désormais, toute personne impliquée dans l’usage ou la supervision d’un système d’IA doit posséder une compréhension suffisante de son fonctionnement, de ses finalités et de ses risques. Il ne s’agit pas d’une option ni d’un diplôme formel : il s’agit d’un devoir.

Cette obligation a été précisée le 13 mai dernier : ce ne sont ni les webinaires génériques, ni les modules e-learning standardisés, ni les PDF envoyés en annexe qui répondront aux exigences. Ce qu’impose le texte européen, ce sont des formations ciblées, des mises en situation concrètes, des ateliers fondés sur les usages réels, adaptés aux contextes métiers. La responsabilité ne peut plus être déléguée à la machine ni à l’ignorance. Elle est désormais humaine, traçable, et, dans certains cas, pénale.

UNE RESPONSABILITÉ AUGMENTÉE POUR LES PROFESSIONNELS

L’effet est immédiat : dans l’ensemble des secteurs (ressources humaines, communication, juridique, commerce, finance), chaque professionnel amené à utiliser l’IA, même ponctuellement, est tenu de comprendre ce qu’il fait. Et cette obligation n’épargne personne. Pas même l’utilisateur occasionnel de ChatGPT qui génère un courriel ou résume un document. Dans ce contexte, la méconnaissance n’est plus une excuse : elle devient une faute.

Les entreprises doivent désormais cartographier les usages réels, concevoir des parcours de formation adaptés, documenter leurs choix et se préparer à répondre de leur dispositif en cas de contrôle. Les cadres, eux, doivent être formés à leur rôle de supervision. Quant aux dirigeants, ils doivent mesurer que la responsabilité pénale peut leur revenir si l’un de leurs collaborateurs prend une décision erronée fondée sur un outil qu’il ne maîtrise pas. Ce n’est plus l’époque de la découverte enthousiaste ou du tâtonnement ingénu. C’est celle de la rigueur. Celle de la responsabilité.

UN SYSTÈME SCOLAIRE RESTÉ AU SEUIL DE L’HISTOIRE

Et pendant ce temps, l’école demeure spectatrice. Belle sur le papier, absente sur le terrain. Elle se raconte des récits rassurants sur la lenteur, sur la prudence, sur l’éthique de la distance. Mais elle n’enseigne plus à comprendre. Elle interdit ce qu’elle ne maîtrise pas, et se prive des moyens d’agir. Elle croit encore former des citoyens éclairés, mais refuse d’intégrer dans ses programmes ce qui structure désormais le monde professionnel. L’histoire se fait sans elle. Et le numérique, loin de constituer une opportunité pédagogique, reste traité comme une anomalie provisoire, une menace à écarter.

Ce que révèle l’inaction de l’école, ce n’est pas un manque de moyens. C’est un refus de penser. Un refus de voir que le numérique n’est pas un gadget, mais un langage. Et qu’il ne s’agit pas de former les enfants à penser comme les machines, mais à ne pas en devenir les sujets.

CE QUE L’IA EXIGE, C’EST CE QUE L’ÉCOLE A CESSÉ DE TRANSMETTRE

Je n’écris pas cela par goût de la provocation, mais par fidélité à mon ancien métier. J’ai enseigné durant trois décennies, sur deux continents. Et ce que je constate aujourd’hui, c’est une école qui ne sait plus ce qu’elle doit transmettre. Or ce que l’IA nous rappelle, ce n’est pas seulement l’urgence de comprendre les technologies.

Le problème est systémique. L’école a depuis longtemps déserté les exigences fondamentales, sous prétexte d’inclusion ou de ludification. L’IA ne fait qu’accélérer cette pente glissante. Je souscris à cette thèse : dans un monde automatisé, ce qui fera la différence, ce n’est pas l’usage de l’outil, mais la conscience de ses limites. Lire, compter, raisonner : voilà les trois piliers d’une liberté que ni l’école actuelle, ni OpenAI, ni Google ne nous garantiront jamais. C’est l’esprit critique qui est en jeu.

L’affaire Google Chrome, loin d’être une anecdote, nous rappelle que l’intégrité académique et la formation des esprits ne peuvent plus être abandonnées aux intérêts privés. Il y va de la démocratie cognitive autant que de la survie intellectuelle de nos sociétés.

BIBLIOGRAPHIE

Moyrand, E. (2025a). Apprend l’algorithme ou à l’encadrer. LinkedIn. https://www.linkedin.com/pulse/apprend-lalgorithme-ou-%25C3%25A0-lencadrer-emmanuel-moyrand-q9l9e/

Moyrand, E. (2025b). Depuis le 2 février 2025, il ne s’agit plus de l’IA. LinkedIn. https://www.linkedin.com/pulse/depuis-le-2-f%25C3%25A9vrier-2025-il-ne-sagit-plus-de-lia-emmanuel-moyrand-sdj0e/

Turrettini, E. (2025, 21 septembre). Quand Google banalise la triche scolaire avec un simple bouton dans Chrome. LinkedIn. https://www.linkedin.com/pulse/quand-google-banalise-la-triche-scolaire-avec-un-dans-turrettini-kqmoe/

The Washington Post. (2025, 18 septembre). Teachers got mad about a cheat button in Chrome. Now Google’s pausing it. The Washington Post. https://www.washingtonpost.com/technology/2025/09/18/google-homework-help-ai-cheating-schools-colleges/

Anne-Emmanuelle Lejeune

Anne-Emmanuelle Lejeune

Belge, enseignante de français depuis 1994 sur deux continents, autrice d'articles publiés depuis 2015. Une conviction : l'analyse est un acte politique. Ici, les mots servent la lucidité.

Tous les articles
Rubrique: Éducation

Plus dans Éducation

Voir tout

Plus de Anne-Emmanuelle Lejeune

Voir tout