Passer au contenu

AI ACT : LA NORMALISATION DU SOUPÇON SOUS RÉGIME JURIDIQUE

L’AI Act prétend encadrer l’intelligence artificielle mais installe un quadrillage juridique et technique. Sous couvert de protection, les exceptions autorisent une captation généralisée et transforment le droit en instrument de surveillance.

Personnes floues dans un espace public avec détection faciale, illustration de la surveillance algorithmique, reconnaissance biométrique et contrôle numérique encadré par l’AI Act
Sous couvert de régulation, le droit organise ce qu’il prétend contenir. Là où l’on promet transparence, se dessine un quadrillage silencieux des corps et des comportements.

Alors que le Règlement européen sur l’intelligence artificielle entre, depuis le 2 août 2025, dans sa phase d’application concrète, ses promoteurs invoquent la transparence et la sécurité.

Mais que reste-t-il du droit lorsqu’il sert d’alibi à une captation algorithmique de la société tout entière ?

Ce texte examine la logique profonde de l’AI Act : encadrer, certes, mais pour mieux quadriller.

TRANSPARENCE JURIDIQUE OU QUADRILLAGE TECHNOLOGIQUE ?

Depuis le 2 août 2025, l’AI Act (Artificial Intelligence Act), adopté en mars 2024, entre dans une phase d’application effective. Ce texte impose aux fournisseurs de modèles d’IA à usage général (ceux capables d’accomplir une diversité de tâches complexes, comme ChatGPT, Claude, Gemini ou Le Chat) de nouvelles obligations techniques : documentation complète, transparence sur les données d’entraînement, conformité au droit d’auteur européen, évaluation des risques et cybersécurité renforcée pour les modèles à risque systémique. Ceux qui modifient ces modèles à grande échelle deviennent également juridiquement responsables de leurs dérivés. En cas de manquement, des sanctions peuvent atteindre jusqu’à 30 millions d’euros ou 6 % du chiffre d’affaires mondial.

Malgré les pressions de grandes entreprises du secteur, la Commission européenne a refusé tout report du calendrier. Le droit s’installe ainsi comme rempart apparent contre les dérives de l’intelligence artificielle, tout en accompagnant discrètement son déploiement industriel. Ce n’est pas tant la technologie qui est ralentie que sa normalisation silencieuse par le droit, dont les conséquences politiques profondes (en matière de surveillance, de liberté d’expression ou de redéfinition des responsabilités juridiques) s’installent sans débat dans l’espace public, au rythme d’une Europe qui quadrille son avenir sans en débattre.

LE VER EST DANS LE CODE

Le Règlement européen sur l’intelligence artificielle (RIA), communément désigné par son acronyme anglais AI Act, constitue la première législation d’envergure mondiale visant à encadrer le développement, la mise sur le marché et l’utilisation des systèmes d’intelligence artificielle au sein de l’Union européenne. Adopté par le Parlement européen le 13 mars 2024, approuvé par le Conseil le 21 mai, formellement signé le 13 juin et publié au Journal officiel le 12 juillet, ce texte est entré en vigueur le 1ᵉʳ août 2024.

L’AI Act distingue quatre niveaux de risque. Les systèmes présentant un risque inacceptable sont formellement interdits. Cette catégorie inclut notamment les dispositifs de notation sociale, les techniques de manipulation subliminale, l’exploitation des vulnérabilités de certaines populations, ainsi que l’identification biométrique à distance en temps réel dans les espaces publics à des fins répressives.

Les systèmes classés à haut risque concernent des domaines sensibles tels que l’éducation, l’emploi, les services publics essentiels, le maintien de l’ordre ou encore la gestion des migrations. Ces systèmes sont soumis à des obligations strictes en matière de transparence, de qualité des données, de supervision humaine et de sécurité. Ils doivent faire l’objet d’une évaluation de conformité avant leur mise sur le marché et être régulièrement contrôlés tout au long de leur cycle de vie.

Les systèmes à risque limité sont soumis à des obligations de transparence telles que l’information des utilisateurs lorsqu’ils interagissent avec une IA, tandis que les systèmes à risque minimal ne sont pas concernés par des exigences spécifiques.

Par ailleurs, l’AI Act introduit une catégorie spécifique pour les systèmes d’IA à usage général, tels que les modèles de langage avancés. Ces systèmes doivent satisfaire à des exigences particulières, notamment en matière de transparence, de cybersécurité et de gestion des risques.

Le champ d’application de l’AI Act est étendu puisqu’il s’applique à tous les fournisseurs et utilisateurs de systèmes d’IA opérant sur le marché européen, qu’ils soient établis dans l’Union ou dans des pays tiers. Des sanctions financières significatives sont prévues en cas de non-conformité, pouvant atteindre jusqu’à 30 millions d’euros ou 6 % du chiffre d’affaires annuel mondial de l’entreprise concernée.

DU CADRE À LA FAILLE : L’EXCEPTION DEVIENT LA RÈGLE

Dans l’analyse qu’il propose de l’AI Act, Maître Pascal Alix met le doigt sur une contradiction structurelle du texte. L’article 5.1, alinéa h), interdit certes l’usage de la reconnaissance biométrique en temps réel à des fins répressives, mais les exceptions qui y sont accolées (enlèvements, terrorisme, crimes graves) permettent en pratique ce qu’elles interdisent en principe.

Derrière la rigueur apparente du texte se profile une logique bien connue : créer un cadre qui rassure tout en laissant ouvertes les portes de l’abus. Ce que l’on définit comme exceptionnel devient potentiellement la norme, surtout si l’on admet que la mise en œuvre de ces exceptions suppose une infrastructure massive et pérenne, faite de caméras, de capteurs, d’algorithmes. Une fois installé, ce filet technologique n’est plus démontable. Il est d’ailleurs renforcé par la possibilité, offerte aux États membres via l’article 2.3 du même texte, de déroger pour des motifs de « sécurité nationale ».

Ainsi, sous prétexte de cibler quelques individus dangereux, les autorités obtiennent une licence de captation généralisée. Et ce n’est plus la technologie qui est encadrée par le droit, mais le droit qui devient l’habillage de la technologie. Nous sommes passés de l’état de droit à l’état d’exception équipé de capteurs.

LA FABRIQUE DE LA NORME PAR LES ACTEURS HYBRIDES

À cette logique ambivalente s’ajoute un facteur aggravant : la porosité croissante entre décision politique et intérêts industriels. Le parcours de Cédric O en offre une illustration exemplaire. Ancien secrétaire d’État au Numérique, acteur clef de la start-up nation française, il a rejoint en 2023 l’entreprise Mistral AI, spécialisée dans les modèles de langage génératif, avant d’endosser un rôle de lobbyiste en affaires publiques. Une enquête récente a révélé qu’il aurait exercé une influence directe à Bruxelles pour infléchir le contenu de l’AI Act, dans un sens favorable aux jeunes pousses européennes du secteur.

Si la Haute Autorité pour la transparence de la vie publique a estimé que sa reconversion respectait les dispositions légales, elle n’en éclaire pas moins un angle mort de la régulation : celui des allers-retours stratégiques entre sphère publique et intérêts privés. La réglementation, loin de constituer un rempart, devient un terrain d’arbitrage orienté. Derrière la prétendue neutralité des normes s’affirme la main invisible d’acteurs hybrides, capables de façonner l’exception dans les marges du droit.

UN DÉPLOIEMENT SANS RETOUR

L’annonce récente de la Commission européenne, refusant tout report du calendrier de mise en œuvre de l’AI Act malgré les sollicitations insistantes d’acteurs majeurs comme Google, Meta ou Mistral, illustre la force d’inertie de cette mécanique. Les délais sont maintenus : certaines obligations sont déjà effectives depuis février ; les contraintes propres aux modèles d’intelligence artificielle à usage général entreront en vigueur en août 2025, suivies de celles encadrant les systèmes à haut risque l’année suivante.

L’argument d’un coût de conformité exorbitant n’a pas infléchi la position des institutions européennes, qui promettent toutefois quelques allègements procéduraux pour les plus petites structures. Mais derrière l’affichage de fermeté réglementaire, on devine combien la technostructure, solidement campée sur ses échéances, fait de la surveillance systémique une condition de fonctionnement du marché unique. L’encadrement devient ainsi l’alibi d’un quadrillage que nul ne pourra suspendre une fois déployé.

LA FRANCE, LABORATOIRE DE L’INACCEPTABLE

En matière de captation algorithmique, la France joue un rôle pilote. Sous couvert de Jeux olympiques, elle a légalisé, en avril 2023, la vidéosurveillance algorithmique à titre « expérimental », en promettant un encadrement strict. Cette expérimentation, désormais entérinée, a rendu les caméras intelligentes banales dans l’espace public. En 2025, plusieurs responsables politiques (dont la présidente de la région Île-de-France et la présidente de la métropole Aix-Marseille) ont publiquement réclamé l’extension de la reconnaissance faciale aux transports en commun, relançant un débat que la loi JO avait explicitement écarté. En parallèle, la CNIL alerte régulièrement sur la disproportion des projets de centralisation des données et sur l’opacité des traitements algorithmiques dans l’administration publique.

La présidence française n’est pas en reste sur la scène européenne. Emmanuel Macron, qui se présente comme champion d’une IA de confiance, a activement soutenu une clause dite de souveraineté numérique dans l’AI Act, permettant aux États membres de développer leur propre modèle de régulation. Sous couvert de stratégie industrielle, cette clause ouvre la voie à une fragmentation du droit européen, où chaque gouvernement pourrait s’arroger un droit d’exception.

FICTION ET PRÉFIGURATION

Le roman dystopique n’a plus besoin d’être écrit : il se déploie dans les circulaires, les annexes, les jeux d’influence, les applications à double usage. Ce que nous appelions jadis des garde-fous devient le mode opératoire d’un gouvernement par la norme, fondé sur la prédiction, la surveillance et la modulation du comportement.

POUR UNE LIBERTÉ INTELLIGENTE

Rester libre aujourd’hui, ce n’est pas fuir la technologie. C’est comprendre les mécanismes juridiques qui la rendent coercitive. C’est défendre un droit qui protège, et non qui dissimule. C’est refuser que la norme soit produite à huis clos, entre ingénieurs, technocrates et industriels. Et c’est, surtout, réveiller la vigilance démocratique endormie sous les promesses de l’innovation.

BIBLIOGRAPHIE

Alix, P. (2025, mai). La France finira par accepter la reconnaissance faciale [Publication LinkedIn]. https://www.linkedin.com/posts/pascalalix_la-france-finira-par-accepter-la-reconnaissance-activity-7333054406822666240-0_CI

Artificial Intelligence Act. (s.d.). EU Artificial Intelligence Act. https://artificialintelligenceact.eu/fr/

Cassar, B. (2025, 1ᵉʳ août). 2 août 2025 : nouvelle étape dans l’application du règlement [Publication LinkedIn]. https://www.linkedin.com/pulse/2-ao%C3 %BBt-2025-nouvelle-%C3 %A9tape-dans-lapplication-du-r%C3 %A8glement-cassar-qcaxe/

Commission européenne. (s.d.). Regulatory framework for AI. https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai

Faljaoui, A. (2025, mai). L’État belge rêve d’un fisc qui devine vos revenus [Publication LinkedIn]. https://www.linkedin.com/posts/amid-faljaoui_létat-belge-rêve-dun-fisc-qui-devine-vos-activity-7333380198471553024-e7mj

France-Soir. (2025, 15 juillet). La CNIL opposée à une installation ni nécessaire ni proportionnée de caméras. https://francesoir.fr/societe-science-tech/la-cnil-opposee-une-installation-ni-necessaire-ni-proportionnee-de-cameras

Le Courrier des Stratèges. (2025, 25 juin). De l’Élysée à Mistral AI : Cédric O a-t-il influencé la réglementation européenne de l’IA ? https://lecourrierdesstrateges.fr/2025/06/25/de-lelysee-a-mistral-ai-cedric-o-a-t-il-influence-la-reglementation-europeenne-de-lia/

Numerama. (2025, mai). La France finira par accepter la reconnaissance faciale partout, selon Gérald Darmanin. https://www.numerama.com/politique/1976407-la-france-finira-par-accepter-la-reconnaissance-faciale-partout-selon-gerald-darmanin.html

Presse-citron. (2025, 18 août). Reconnaissance corporelle Wi-Fi : nouvelle arme de surveillance de masse ? https://www.presse-citron.net/reconnaissance-corporelle-wi-fi-nouvelle-arme-surveillance-masse/

Yun Chee, F. (2025, 4 juillet). Artificial intelligence rules go ahead, no pause, EU Commission says. Reuters. https://www.reuters.com/world/europe/artificial-intelligence-rules-go-ahead-no-pause-eu-commission-says-2025-07-04/

Anne-Emmanuelle Lejeune

Anne-Emmanuelle Lejeune

Belge, enseignante de français depuis 1994 sur deux continents, autrice d'articles publiés depuis 2015. Une conviction : l'analyse est un acte politique. Ici, les mots servent la lucidité.

Tous les articles
Rubrique: Société

Plus dans Société

Voir tout

Plus de Anne-Emmanuelle Lejeune

Voir tout