L’ILLUSION D’OBJECTIVITÉ ALGORITHMIQUE
Et si l’intelligence artificielle, censée accroître l’efficacité de l’action publique, devenait au contraire un facteur d’injustice structurelle ? Derrière la promesse de neutralité, les algorithmes reproduisent et amplifient les inégalités que les sociétés humaines peinent à corriger.
Pendant des décennies, les services publics ont tenté de détecter la fraude sociale par des moyens humains, faillibles, mais encadrés. L’arrivée de l’IA a ouvert la voie à une automatisation prétendument plus rigoureuse et impartiale. On nous a promis une traque ciblée des fraudeurs, fondée sur le croisement des données et l’analyse des comportements suspects. En réalité, l’automatisation a souvent conduit à l’aveuglement. Aux Pays-Bas, entre 2013 et 2019, un algorithme antifraude a massivement visé les familles issues de l’immigration, provoquant des milliers de sanctions injustes. Des foyers ont été ruinés. Certains parents ont mis fin à leurs jours. Le scandale a été tel que le gouvernement a dû démissionner.
Ce drame n’est pas une exception. Il révèle la logique propre aux machines qui, nourries de données biaisées, deviennent les exécutantes d’une discrimination systémique. Loin de corriger les failles humaines, l’IA les grave dans le marbre.