Traduction de Humanity Needs Democratic Control of AI, paru dans Jacobin, 2025.11
PAR GIORGOS GALANIS
Le danger lié à l’intelligence artificielle ne réside pas dans une révolte des robots à la Terminator, mais dans le fait que les capitalistes technologiques utilisent cette technologie pour servir leurs propres intérêts. Leur retirer le contrôle est le meilleur moyen de garantir que la technologie algorithmique serve le bien commun.
Critique de l’ouvrage « The Means of Prediction: How AI Really Works (and Who Benefits) » (Les moyens de prédiction : comment fonctionne réellement l’IA (et qui en profite)) de Maximilian Kasy (University of Chicago Press, 2025).

Lorsqu’un algorithme prédictif a refusé à des milliers de candidats noirs l’accès à un prêt hypothécaire en 2019, il ne s’agissait pas d’un bug, mais d’un choix de conception reflétant les priorités des géants technologiques motivés par le profit. Dans The Means of Prediction: How AI Really Works (and Who Benefits), l’économiste oxfordien Maximilian Kasy affirme que de tels résultats ne sont pas des accidents technologiques, mais les conséquences prévisibles de ceux qui contrôlent la technologie.
Tout comme Karl Marx a identifié le contrôle des moyens de production comme la base du pouvoir des classes, Kasy identifie les « moyens de prédiction » (données, infrastructure informatique, expertise technique et énergie) comme le fondement du pouvoir à l’ère de l’IA. Ainsi, l’IA devient un champ de bataille, où les algorithmes façonnent l’avenir au service des propriétaires de technologies plutôt que de la classe ouvrière. La thèse provocatrice de Kasy expose les objectifs de l’IA comme des choix délibérés, codés par ceux qui contrôlent ses ressources afin de privilégier le profit au détriment du bien social. Ce n’est qu’en prenant le contrôle démocratique des moyens de prédiction que nous pourrons garantir que l’IA serve la société dans son ensemble plutôt que les profits des géants technologiques.
Kasy commence par démystifier l’IA, en la fondant sur les mécanismes de l’apprentissage automatique, où les algorithmes prédisent les résultats futurs à partir des données passées. Mais quels résultats futurs les algorithmes sont-ils programmés pour prédire ? Les plateformes de réseaux sociaux, par exemple, collectent de grandes quantités de données sur les utilisateurs afin de prédire quelles publicités maximisent les clics, et donc les profits attendus. Dans leur quête d’engagement, les algorithmes ont appris que l’indignation, l’insécurité et l’envie incitent les utilisateurs à continuer de faire défiler leur fil d’actualité. Il en résulte une augmentation de l’anxiété, du manque de sommeil et des troubles liés à l’image corporelle, en particulier chez les adolescents, alimentée par les comparaisons algorithmiques et la publicité ciblée.
Les outils prédictifs utilisés dans le domaine de l’aide sociale ou du recrutement produisent des effets similaires. Les systèmes conçus pour signaler les candidats « à haut risque » s’appuient sur des données historiques biaisées, automatisant ainsi la discrimination en refusant des avantages sociaux ou des entretiens d’embauche à des groupes déjà marginalisés. Même lorsque l’IA semble promouvoir la diversité, c’est généralement parce que l’inclusion améliore la rentabilité, par exemple en améliorant les performances de l’équipe ou la réputation de la marque. Dans de tels cas, il existe un niveau « optimal » de diversité : celui qui maximise les profits attendus. Kasy explore également le rôle croissant de l’IA dans le domaine du travail et de l’automatisation. Sur le lieu de travail, l’IA peut soit augmenter les capacités humaines, soit les remplacer entièrement, créant ainsi du chômage pour certains tout en concentrant la richesse pour d’autres.
Cette clarté technique prépare le terrain pour l’argument plus large de Kasy : l’IA ne concerne pas seulement la prédiction, mais aussi ce qui est prédit et pour qui. La collecte et l’analyse de données peuvent en effet faire progresser les biens publics tels que la recherche médicale ou l’éducation, améliorer la santé et élargir les capacités humaines. Pourtant, les objectifs codés dans les systèmes d’IA reflètent en fin de compte les priorités de ceux qui contrôlent les « moyens de prédiction ». Si les travailleurs, plutôt que les propriétaires d’entreprises, dirigeaient le développement technologique, suggère Kasy, les algorithmes pourraient donner la priorité aux salaires équitables, à la sécurité de l’emploi et au bien-être public plutôt qu’au profit.
Mais comment pouvons-nous prendre le contrôle démocratique des moyens de prédiction ? Dans la même veine qu’Erik Olin Wright, qui prônait une combinaison de stratégies transformatrices dans How to Be an Anticapitalist in the Twenty-First Century, Kasy propose également une série d’actions complémentaires plutôt qu’une solution unique. Il s’agit notamment de taxes pour tenir compte des coûts sociaux, de réglementations visant à interdire les pratiques néfastes en matière de données et de trusts de données : des institutions collectives qui gèrent les données au nom des communautés à des fins publiques telles que la recherche en matière de santé. Selon Kasy, les agents du changement ne peuvent être les entreprises technologiques elles-mêmes, dont la responsabilité première est envers leurs actionnaires. Au contraire, le changement doit être impulsé par les travailleurs, les consommateurs, les journalistes et les décideurs politiques, qui peuvent exercer une influence stratégique par divers moyens : grèves, boycotts, mauvaise presse, litiges et réglementation.
La force de cet ouvrage réside dans le lien qu’il établit entre la conception technique de l’IA et son économie politique. Kasy fournit une base technique essentielle, montrant comment les algorithmes codifient le pouvoir, comme le montre l’outil judiciaire d’IA COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), qui signalait de manière disproportionnée les accusés noirs comme présentant un risque élevé, renforçant ainsi le racisme systémique. Son travail sert de chaînon manquant aux critiques plus générales de Cédric Durand et Yanis Varoufakis sur le « techno-féodalisme » et à l’ouvrage de Shoshana Zuboff, Surveillance Capitalism, qui dénoncent les profits assimilables à des rentes et la marchandisation des données par les plateformes numériques.
Kasy fonde de manière unique ces critiques sur les mécanismes techniques de l’IA. Ces algorithmes décident qui est embauché, qui reçoit des soins médicaux ou qui voit quelles informations, en privilégiant souvent le profit au détriment du bien-être social. Il compare la privatisation des données à l’enclosure historique des biens communs, arguant que le contrôle des géants technologiques sur les moyens de prédiction concentre le pouvoir, sape la démocratie et aggrave les inégalités.
Des algorithmes utilisés dans les tribunaux aux flux des réseaux sociaux, les systèmes d’IA façonnent de plus en plus nos vies d’une manière qui reflète les priorités privées de leurs créateurs. À ce titre, ils ne doivent pas être considérés comme des merveilles technologiques neutres, mais comme des systèmes façonnés par des forces sociales et économiques. Le véritable conflit ne se situe pas entre les humains et les machines, comme dans la révolte des robots de Terminator, mais entre les capitalistes technologiques qui contrôlent les machines et le reste d’entre nous. L’avenir de l’IA ne dépend pas de la technologie elle-même, mais de notre capacité collective à créer des institutions telles que des trusts de données pour la gouverner démocratiquement. Kasy nous rappelle que l’IA n’est pas une force autonome, mais une relation sociale, un instrument du pouvoir de classe qui peut être réorganisé à des fins collectives. La question est de savoir si nous avons la volonté politique de la saisir.
