Artificial Power – Landscape Report 2025 par AI NOW Institute

Traduction du Executive Summary.
Ici pour le rapport complet
Résumé
Ceux d’entre nous qui sont engagés dans la lutte contre les monopoles abusifs, l’injustice économique, l’oligarchie technologique et la montée de l’autoritarisme doivent se confronter à l’industrie de l’IA, faute de quoi ils perdront la partie. Accepter la trajectoire actuelle de l’IA, présentée par Big Tech et ses sténographes comme « inévitable », nous place sur la voie d’un avenir économique et politique peu enviable – un avenir qui prive de leurs droits de larges pans du public, rend les systèmes plus obscurs pour ceux qu’ils affectent, dévalorise notre artisanat, sape notre sécurité et réduit notre horizon en matière d’innovation. Et ce, que la technologie fonctionne bien ou non, selon ses propres termes, ce qui n’est souvent pas le cas.
La bonne nouvelle, c’est que la voie offerte par l’industrie technologique n’est pas la seule qui s’offre à nous. Ce rapport explique pourquoi la lutte contre la vision de l’industrie de l’IA est un combat qui en vaut la peine, même si nous nous tournons inlassablement vers la tâche de construire le projet commun d’une société juste, équitable, durable et démocratique.
Au cours de la dernière décennie, la maîtrise du pouvoir des grandes plateformes technologiques telles que Microsoft, Amazon, Google et Meta est devenue une question centrale dans le discours politique et public américain. Si nous ne nous attaquons pas au pouvoir dont sont investies ces entreprises, nous ne serons pas en mesure de tenir le secteur responsable des intérêts du grand public, même si ces entreprises remodèlent les marchés, les institutions et les infrastructures qui sont au cœur de la vie publique.
Quel est le rapport entre l’IA et tout cela ? Comme nous l’avons affirmé dans notre rapport 20231Amba Kak and Sarah Myers West, 2023 Landscape: Confronting Tech Power, AI Now Institute, April 11, 2023, https://ainowinstitute.org/publications/research/2023-landscape-confronting-tech-power., l’IA est fondamentalement une question de concentration du pouvoir entre les mains des grandes entreprises technologiques. Au début de l’année, il semblait que le marché était sur le point d’être perturbé, avec une nouvelle génération de challengers de la Silicon Valley qui gagnaient en importance, comme OpenAI, Anthropic, StabilityAI et Inflection AI. Mais aujourd’hui, deux ans plus tard, il est clair que le groupe d’acteurs clés de ce marché n’a pas beaucoup changé : Microsoft, Google, Meta, xAI de Musk, OpenAI (soutenu par Microsoft) et Anthropic (soutenu par Amazon et Google).2David Cahn, “Steel, Servers and Power: What it Takes to Win the Next Phase of AI,” Sequoia, August 5, 2024, https://www.sequoiacap.com/article/steel-servers-and-power. La nouvelle série de produits d’IA alimentés par le LLM a propulsé ces entreprises sous les feux de la rampe, faisant la une des journaux et devenant de plus en plus un sujet de conversation à table.
Au milieu de cette frénésie, l’accent a été mis à tort sur des questions aveugles visant à déterminer si un système ou une application d’IA est bon ou mauvais, ou à évaluer les dilemmes moraux de mondes hypothétiques. Au lieu de cela, nous devons réorienter notre attention vers l’écosystème de l’IA, ses dépendances et ses risques, dans son ensemble. La question que nous devrions poser n’est pas de savoir si ChatGPT est utile ou non, mais si le pouvoir non responsable d’OpenAI, lié au monopole de Microsoft et au modèle commercial de l’économie technologique, est bon pour la société.
Au-delà des cas d’utilisation individuels, il est possible de jeter un regard plus complet sur les centres de pouvoir qui animent notre paysage technologique actuel. L’IA en tant que domaine n’a pas seulement été cooptée mais constituée par les logiques de quelques entreprises technologiques dominantes. Ce n’est pas une coïncidence si le paradigme « plus c’est gros, mieux c’est » qui domine le domaine aujourd’hui, où l’échelle des ressources de calcul et de données est généralement utilisée comme un indicateur de performance, s’aligne parfaitement sur les incitations des Big Tech, qui contrôlent de manière disproportionnée ces ressources, les talents pour les exploiter et les voies de la monétisation. Vers 2012, lorsqu’il est devenu évident que des gains substantiels dans la performance des modèles pouvaient être obtenus simplement en appliquant des données et des ressources informatiques de plus en plus grandes aux algorithmes existants, les géants de la technologie ont rapidement réagi pour consolider leurs avantages existants et embaucher des talents.3Meredith Whittaker, “The Steep Cost of Capture,” Interactions 28, no. 6 (November 2021): 50–55, https://dl.acm.org/doi/10.1145/3488666. L’influence des entreprises sur la trajectoire de recherche de l’IA a été renforcée par la présence dominante des laboratoires d’IA des entreprises technologiques dans les conférences prestigieuses sur l’apprentissage automatique, ce qui a permis de façonner davantage le domaine de la recherche en fonction de l’industrie.4See Nur Ahmed, Muntasir Wahed, and Neil C. Thompson, Science 379, no. 6635 (March 2023): 884–886, https://www.science.org/doi/abs/10.1126/science.ade2420; and Whittaker, “The Steep Cost of Capture.” Cela s’explique en partie par le fait que pour développer l’IA, il faut d’énormes ressources, à la fois financières et sociales, afin de parvenir à une croissance illimitée à une vitesse vertigineuse – des ressources que les entreprises d’IA détiennent et contrôlent.5Kak and West, 2023 Landscape: Confronting Tech Power.
C’est cette vision, celle d’une échelle infinie quel qu’en soit le coût, qui pousse aujourd’hui les leaders de l’IA à faire pression en faveur d’une expansion impitoyable de la puissance des centres de données. Des entreprises comme Google, Meta et Microsoft sont devenues dominantes parce qu’elles ont été capables d’accumuler tellement de données, d’infrastructures informatiques et d’argent qu’elles ont pu devancer – ou acquérir rapidement – tous les concurrents qui sont apparus sur la scène. C’est également ce qui leur permet d’occuper une position dominante sur le marché de l’IA, et la prochaine phase nécessitera de doubler ces avantages infrastructurels. De ce point de vue, le moment ChatGPT de 2023 n’est pas tant une rupture claire dans l’histoire de l’IA qu’un renforcement d’un paradigme « plus c’est gros, mieux c’est », ancré dans la perpétuation des intérêts des entreprises qui ont bénéficié de l’environnement réglementaire laxiste et des faibles taux d’intérêt du passé récent de la Silicon Valley.
Mais ce n’est pas seulement le pouvoir de marché qui doit nous préoccuper: Ces oligarques de la technologie comptent sur une réécriture complète de nos fondements sociaux et économiques, en utilisant l’IA comme justification. Qu’il s’agisse de démanteler le gouvernement fédéral américain et de s’emparer des données des citoyens sous prétexte d’efficacité, de redéfinir les flux de travail pour dévaloriser le travail humain et la créativité afin qu’ils soient prêts pour l’IA, ou de réorienter l’ensemble de notre infrastructure énergétique pour donner la priorité à leur technologie plutôt qu’aux besoins fondamentaux des gens, la vision promulguée par les oligarques de la technologie exige, comme fondement, le démantèlement des tissus sociaux, politiques et économiques fondamentaux.
Dans tout notre écosystème d’information, de la science à l’éducation, en passant par les soins de santé, la culture et l’art, l’IA est présentée comme une nouvelle infrastructure perturbatrice et une force de médiation. En réalité, elle reprend un vieux schéma de jeu, en proposant des solutions basées sur l’extraction de l’expertise et de la valeur de tous les coins de la société- des solutions qui finissent toujours par entraîner une nouvelle dégradation de la vie des plus marginalisés d’entre nous. Si l’IA générative et les agents d’IA sont les mots à la mode qui font la une des journaux, la même dynamique s’applique aux précurseurs des systèmes d’IA contemporains, comme les technologies de prise de décision automatisée utilisées dans le secteur bancaire, l’embauche et la justice pénale. Les techniques et les noms des fournisseurs varient, mais les incitations industrielles qui alimentent la prolifération, ainsi que les modes d’échec de ces systèmes, ont beaucoup en commun.
Plus d’une décennie de preuves démontrent comment cela se passe : L’introduction de ces systèmes concentre le pouvoir entre les mains de ceux qui déploient la technologie, laissant les destinataires dans une situation d’insécurité, de vulnérabilité et d’incapacité à contester les décisions prises par la « machine intelligente » au détriment du grand public. Ces outils sont souvent invisibles pour ceux qu’ils jugent, et impénétrables même lorsqu’ils sont visibles.
La question cruciale est de savoir pourquoi la société accepterait un jour ce marché. L’excitation suscitée par le potentiel (spéculatif) de l’IA occulte la réalité déconcertante de son présent et de son passé récent. Lorsque nous consultons le dossier sur la manière dont l’IA est déjà en train d’intermédier des infrastructures sociales essentielles, nous constatons qu’elle remodèle matériellement nos institutions d’une manière qui accentue les inégalités, rend les institutions opaques pour ceux qu’elles sont censées servir et concentre le pouvoir entre les mains de ceux qui sont déjà puissants. (Voir Chapter 3: Consulting the Record.) Il montre clairement que malgré les démonstrations spectaculaires et les proclamations audacieuses de Davos, sur le terrain, l’IA est systématiquement déployée de manière à aggraver la vie des gens ordinaires, leurs conditions matérielles et leur accès aux opportunités, et à renforcer les systèmes qui les intègrent.
Le titre de ce rapport, « Le pouvoir artificiel », illustre bien le moment critique, et parfois contradictoire, dans lequel nous nous trouvons. D’une part, l’oligarchie technologique a déployé avec succès l’« IA » – en tant que terme marketing stratégique et ensemble de technologies d’automatisation – pour consolider et accroître son pouvoir. D’autre part, ce pouvoir est largement gonflé, contingent et peut être perturbé. La double lutte contre façon dont les détenteurs du pouvoir ont déployé des systèmes d’IA pour causer des dommages importants, tout en exposant les façons dont ce pouvoir peut et doit être perturbé, est le travail central de ce moment.
Les éléphants dans la salle de l’IA :
Modèle(s) économique(s) et failles techniques fatales
Le secteur de l’IA est plus fragile qu’il n’y paraît. Les valorisations sont très élevées, alors que le modèle d’entreprise repose sur une technologie extrêmement coûteuse qui ne génère pas de flux de revenus réguliers. Les entreprises d’IA perdent de l’argent pour chaque utilisateur qu’elles gagnent : Anthropic a brûlé 5,6 milliards de dollars6Edward Zitron, “There Is No AI Revolution,” Where’s Your Ed At, February 24, 2025, https://www.wheresyoured.at/wheres-the-money. cette année, alors qu’elle était évaluée à 61,5 milliards de dollars.7Shirin Ghaffary, “Anthropic Finalizes Megaround at $61.5 Billion Valuation,” Bloomberg, https://www.bloomberg.com/news/articles/2025-03-03/anthropic-finalizes-megaround-at-61-5-billion-valuation.OpenAI a perdu 5 milliards de dollars8Cory Weinberg, “OpenAI Projections Imply Losses Tripling to $14 Billion in 2026,” The Information, October 9, 2024, https://www.theinformation.com/articles/openai-projections-imply-losses-tripling-to-14-billion-in-2026., alors qu’elle est évaluée à 300 milliards de dollars.9Cade Metz, “OpenAI Completes Deal That Values Company at $300 Billion,” New York Times, March 31, 2025, https://www.nytimes.com/2025/03/31/technology/openai-valuation-300-billion.html. Il n’existe pas encore de cas d’utilisation rentables. Il n’existe pas encore de cas d’utilisation lucratifs, ni même à l’horizon. Cela peut sembler normal pour l’éthique des Big Tech qui consiste à aller vite et à tout casser, mais nous nous trouvons aujourd’hui dans un environnement monétaire profondément différent : nous ne sommes plus dans les années 2000 ni dans les années 2010. Les marchés sont saturés, la domination du marché a été établie parmi les gagnants des plateformes et des infrastructures qui ont émergé au cours de ces décennies et, pour dire les choses simplement, le coût de l’IA à grande échelle est exorbitant, à un niveau jamais vu auparavant dans la technologie.
La question qui circule désormais plus ouvertement est la suivante : quand la bulle de l’IA éclatera-t-elle ? Quand la bulle de l’IA éclatera-t-elle et qui en subira les conséquences ? Car il s’agit bien d’ une bulle. De leur côté, les entreprises produisent des objets brillants pour détourner l’attention de la réalité commerciale tout en essayant désespérément de dérisquer leurs portefeuilles grâce à des subventions gouvernementales et à des contrats réguliers avec le secteur public (souvent carcéral ou militaire). S’il est très clair que les entreprises technologiques bénéficient des revendications d’« IA d’intérêt public » utilisées pour justifier le déversement de l’argent des contribuables dans cette industrie, il n’est pas du tout évident que cela profite au reste de la société (voir Chapter 2: Heads I Win, Tails You Lose).
Face je gagne, pile vous perdez
Cette section présente les facteurs qui garantissent l’avantage des entreprises Big Tech sur le marché de l’IA, avant d’aborder la question de savoir qui est perdant à la fin :
- Les fournisseurs d’infrastructure en nuage profitent des cycles de dépendance à l’égard de l’IA
- Les grandes entreprises technologiques tirent profit du contrôle qu’elles exercent sur l’écosystème technologique.
- Les grandes entreprises technologiques profitent du boom des centres de données … même si le boom de l’IA ne se concrétise pas.
En ce qui concerne l’IA générative, en particulier, les déclarations dithyrambiques contrastent fortement avec les cas d’utilisation largement banals qui sont introduits dans presque toutes les applications et tous les services. Contrairement à ce que l’on dit des technologies qui changent le monde, Meta investit massivement dans l’infrastructure publicitaire de l’IA.10Nilay Patel, “Mark Zuckerberg Just Declared War on the Entire Advertising Industry,” The Verge, May 1, 2025, https://www.theverge.com/meta/659506/mark-zuckerberg-ai-facebook-ads. OpenAI crée des agents d’IA qui remplissent des formulaires et qualifient la navigation sur le web de « recherche », aspirant vos données et demandant des autorisations invasives au passage.11Casey Newton, “ChatGPT’s Deep Research Might Be the First Good Agent,” Platformer, February 3, 2025, https://www.platformer.news/chatgpt-deep-research-hands-on. Pressés par leurs employeurs, les ingénieurs logiciels utilisent le Copilot de Microsoft pour produire plus de code, plus rapidement, au détriment de leurs compétences et de leur métier.12Grant Gross, “Devs Gaining Little (If Anything) from AI Coding Assistants,” CIO, September 26, 2024, https://www.cio.com/article/3540579/devs-gaining-little-if-anything-from-ai-coding-assistants.html. Et les sociétés de cloud computing enferment volontiers les utilisateurs professionnels dans leurs écosystèmes de logiciels en tant que service (SaaS) en les mettant automatiquement à niveau vers de nouvelles fonctionnalités d’IA – et en augmentant le prix.13Abner Li, “Google Workspace Business Users Getting Full Gemini Experience, Price Increasing,” 9to5Google, January 15, 2025, https://9to5google.com/2025/01/15/google-workspace-gemini-price-increase. Il ne s’agit pas là d’exemples d’une technologie adoptée par une société ravie de son utilité.
Bien qu’ils soient considérés comme des infrastructures essentielles, les systèmes d’IA dans leur forme actuelle présentent des défauts fondamentaux : il existe un problème insoluble d’« hallucinations » avec les LLM qui s’appuient sur une coordination générée de manière aléatoire, laissant les humains dans la position peu enviable de vérifier les faits de la technologie censée leur faciliter la vie14Ashish Agarwal et al., “Hallucinations in Neural Machine Translation,” abstract, 2018, accessed May 15, 2025, https://research.google/pubs/hallucinations-in-neural-machine-translation. . Des recherches évaluées par des pairs indiquent que dans de nombreux cas, les systèmes d’IA échouent profondément, même dans des tâches de base, lorsqu’ils sont appliqués dans des contextes réels.15Inioluwa Deborah Raji et al., “The Fallacy of AI Functionality,” arXiv (2022), https://arxiv.org/abs/2206.09511. Ils sont également loin d’être résilients, sujets à des vulnérabilités en matière de cybersécurité telles que les attaques par empoisonnement du web et les nouvelles méthodes de cassage de prison qui permettent la divulgation persistante et non autorisée de données d’entraînement et d’autres informations sensibles.16Chad Boutin, “NIST Identifies Types of Cyberattacks That Manipulate Behavior of AI Systems,” NIST, January 4, 2024, https://www.nist.gov/news-events/news/2024/01/nist-identifies-types-cyberattacks-manipulate-behavior-ai-systems. Et ce n’est pas que les compromis soient pondérés et jugés valables : Dans de nombreux cas d’utilisation, l’IA est déployée par ceux qui ont du pouvoir contre ceux qui n’en ont pas, et qui n’ont pas la possibilité de se retirer ou de demander réparation lorsque des erreurs sont commises. (Voir Chapter 3: Consulting the Record).
Aperçu du chapitre
Les preuves au dossier
Cette section rassemble plus d’une décennie de preuves montrant comment l’industrie technologique a cherché à remodeler la société pour permettre un déploiement plus large des technologies qu’elle construit et dont elle tire profit, contribuant souvent à la dégradation de nos vies sociales, politiques et économiques. La section s’articule autour de cinq points essentiels :
- Les avantages de l’IA sont exagérés et insuffisamment prouvés, qu’il s’agisse de la guérison du cancer ou d’une hypothétique croissance économique, tandis que certains de ses défauts sont réels, immédiats et croissants.
- Les solutions de l’IA à des problèmes sociaux bien ancrés remplacent l’expertise de terrain, dans des domaines disparates tels que l’enseignement supérieur, les soins de santé et l’agriculture.
- Le solutionnisme de l’IA occulte les problèmes systémiques auxquels notre économie est confrontée – en masquant la concentration économique et en agissant comme un conduit pour déployer des mandats d’austérité sous un autre nom. La prise de pouvoir de la DOGE est instructive, bien que MyCity à New York17Voir encadré dans le chapitre 3 offre un autre exemple où des millions de dollars du contribuable ont été investis dans des solutions d’IA défectueuses qui n’ont pas apporté d’avantages tangibles au public.
- Le mythe de la productivité occulte une vérité fondamentale : les avantages de l’IA profitent aux entreprises, et non aux travailleurs ou au grand public, alors même que les outils de gestion algorithmique rendent le travail instable et dangereux. L’« IA agentique » rendra les lieux de travail encore plus bureaucratiques et surveillés, réduisant l’autonomie au lieu de l’accroître.
- L’utilisation de l’IA est souvent coercitive, violant les droits et sapant les procédures régulières. Cela n’est nulle part plus évident que dans l’augmentation de l’utilisation de l’IA dans l’application des lois sur l’immigration, où les violations des droits de l’homme sont courantes et où les normes juridiques sont régulièrement violées – même avant que l’IA n’entre en jeu.
Le fait que le principal courant de déréglementation relève d’une industrie qui agit continuellement au-dessus de la loi et qui est motivée uniquement par ses résultats n’aide pas : En 2024, nous avons vu des entreprises se précipiter sur le marché avec des produits qui sont manifestement inexacts, peu sûrs et qui compromettent la sécurité des consommateurs ; s’engager dans des pratiques anticoncurrentielles qui renforcent leurs avantages pour fermer la porte derrière elles ; et déployer des récits plus grands que nature autour de l’IA et de l’innovation pour étouffer toute forme d’interrogation et de critique.
Les faux dieux de l’IA
Cette section s’interroge sur les récits qui favorisent la domination de l’industrie de l’IA et font paraître inévitable la trajectoire actuelle de l’IA :
- La mythologie de l’AGI : L’argument qui met fin à tous les arguments démonte les affirmations nébuleuses qui entourent l’« intelligence artificielle générale », en soutenant que le terme rassemble des réalités techniques complexes en un avenir singulier, imminent et inévitable qui sert commodément les intérêts des entreprises qui prétendent le construire.
- ‘Too Big to Fail’ (Trop gros pour faire faillite): La poussée vers plus de capitaux et d’infrastructure explore la manière dont les entreprises technologiques déploient des montants de capitaux sans précédent pour perpétuer le paradigme de l’IA « plus c’est gros, mieux c’est », en renforçant leur domination continue du marché grâce au soutien du gouvernement et des contribuables.
- Course aux armements de l’IA 2.0 : De la déréglementation à la politique industrielle explique comment la course aux armements en matière d’IA entre les États-Unis et la Chine s’est intensifiée et est désormais utilisée pour mettre en avant une série d’initiatives de politique industrielle destinées à stimuler l’industrie technologique et à éviter l’examen réglementaire.
- Identifier la réglementation comme un obstacle à l’innovation montre comment l’industrie de l’IA a stratégiquement opposé la réglementation à l’innovation, conduisant à une position de déréglementation globale qui ignore le rôle que joue la réglementation dans l’amélioration de l’innovation et de la concurrence.
Il est temps de construire, mais pas l’IA.
L’IA est principalement utilisée sur nous, et non par nous, pour façonner l’accès aux ressources et aux opportunités de vie. Mais s’il existe une dépendance évidente à l’égard de cette trajectoire étroite de l’IA prônée par les grandes entreprises technologiques et leurs sténographes, la bonne nouvelle est qu’il ne s’agit pas de la seule voie qui s’offre à nous18Sarah Myers West and Amba Kak, “AI’s Missing Others,” Boston Review, December 4, 2024, https://www.bostonreview.net/forum_response/ais-missing-others. .
Le battage médiatique autour de l’IA s’est nourri d’un sentiment réel et largement répandu : l’enthousiasme sincère de construire un avenir où tous les individus pourront s’épanouir, un avenir qui sera probablement radicalement différent de celui d’aujourd’hui. C’est un objectif catalyseur autour duquel nous devrions nous unir ; la plupart d’entre nous veulent un avenir qui nous libère du cycle sans fin des guerres, des pandémies et des crises environnementales et financières qui caractérisent notre présent. L’élection présidentielle américaine de 2024 a mis en évidence la nécessité de créer des institutions sociales et politiques connectées aux besoins et aux réalités vécues par les gens encore plus près de chez eux, à travers le pays et à travers le monde. Mais l’IA ne crée rien de tout cela, et le fait de lier notre avenir commun à l’IA rend cet avenir plus difficile, et non plus facile, à réaliser, parce qu’il nous lie à une voie résolument sombre, nous privant non seulement de la capacité de choisir ce qu’il faut construire et comment le construire, mais aussi de la joie que nous pourrions tirer de cette construction. Cet avenir de l’IA, tel qu’il est décrit dans le battage médiatique, nous éloigne encore plus d’une vie digne, où nous avons l’autonomie de prendre nos propres décisions et où des structures démocratiquement responsables s’emploient à distribuer le pouvoir et les infrastructures technologiques de manière robuste, responsable et protégée contre les chocs systémiques.
Ce que nous avons vu se dérouler dans l’industrie de l’IA n’est pas unique à cette industrie, bien sûr. La dynamique du « gain pour moi, perte pour toi » a été examinée dans de nombreuses critiques du capitalisme actionnarial au sens large, qui mettent l’accent sur la volonté des entreprises de spéculer de manière bénéfique pour les actionnaires mais pas pour la société dans son ensemble, ainsi que sur les incitations perverses qui conduisent les entreprises à agir contre leurs propres intérêts commerciaux et à développer une orientation vers la monopolisation et la sclérose. Le marché de l’IA est le meilleur exemple de la dépendance excessive à l’égard de l’investissement à risque.19Catherine Bracy, World Eaters (Penguin Random House, 2025).
Mais l’IA introduit de nouvelles dynamiques et de nouveaux facteurs d’accélération. Telle qu’elle est conçue, développée et déployée actuellement, l’IA contribue à ancrer les asymétries de pouvoir existantes et à les renforcer. Elle naturalise l’inégalité en la faisant passer pour un destin et une situation méritée – simplement la classification donnée par le système intelligent – tout en rendant ces modèles sous-jacents, ces jugements et ces motivations intéressées impénétrables pour ceux qui sont affectés par les jugements et les instructions de l’IA.
Une autre IA est possible.
Comment y parvenir ?
Bien qu’il existe des moyens réels de structurer le marché de l’IA au profit du public, la voie tracée par les entreprises qui contrôlent l’IA et par ceux qui veulent avoir une part du contrôle que l’IA pourrait leur donner sur nos vies et nos institutions ne nous y mènera pas.
Une chose est claire : nous ne pouvons pas lutter contre l’oligarchie technologique sans rejeter la trajectoire actuelle de l’industrie autour de l’IA à grande échelle. Il s’agit d’un point d’inflexion crucial et la façon dont les décideurs politiques américains et les leaders des mouvements choisissent de répondre à l’industrie de l’IA écrira les prochains chapitres de l’histoire du pouvoir technologique. Les entreprises d’IA, et ceux qui les dirigent, se sont positionnés pour remodeler de larges pans de la société – à l’intérieur et au-delà des États-Unis – non seulement dans leur intérêt, mais aussi de manière à permettre à leurs entreprises de s’accaparer la plus grande part de la valeur.
Cela n’est pas inévitable. En fait, l’opinion publique est en train de s’opposer de manière décisive au pouvoir bien établi des entreprises technologiques. Nous avons d’ailleurs assisté à des victoires juridiques majeures dans les affaires antitrust historiques intentées par le DOJ et la FTC contre Google et Meta. Après avoir réussi à prouver que Google détient un monopole illégal sur les marchés de la recherche et de la publicité20See David McCabe, “‘Google Is a Monopolist,’ Judge Rules in Landmark Antitrust Case,” New York Times, August 5, 2024, https://www.nytimes.com/2024/08/05/technology/google-antitrust-ruling.html; and McCabe, “Google Broke the Law to Keep Its Advertising Monopoly, a Judge Rules,” New York Times, April 17, 2025, https://www.nytimes.com/2025/04/17/technology/google-ad-tech-antitrust-ruling.html. , le ministère de la justice demande maintenant des mesures correctives structurelles audacieuses qui étaient pratiquement inconcevables il y a quelques années.21David McCabe, “U.S. Wants to Break Up Google’s Advertising Technology,” New York Times, May 2, 2025, https://www.nytimes.com/2025/05/02/technology/google-advertising-technology-hearing.html. Ces mesures correctives, qui comprennent le démantèlement de l’activité de technologie publicitaire de Google et la scission de Chrome, touchent directement le cœur du modèle commercial de Google. Ces mesures correctives, qui comprennent la scission de l’activité de technologie publicitaire de Google et la scission de Chrome, touchent directement le cœur du modèle d’entreprise de Google. C’est pourquoi OpenAI a proposé d’acheter Chrome. C’est pourquoi le PDG de Perplexity a déclaré qu’il souhaitait l’acheter – puis a cédé pour ne pas irriter une entreprise dont il dépend.22See Kate Brennan, “The Elephant in the Room in the Google Search Case: Generative AI,” Tech Policy Press, November 4, 2024, https://www.techpolicy.press/the-elephant-in-the-room-in-the-google-search-case-generative-ai; Erin Woo, “OpenAI’s Bid To Get Google’s Search Data,” The Information, April 23, 2025, https://www.theinformation.com/articles/openais-bid-get-googles-search-data; and Lauren Feiner, “Perplexity Wants to Buy Chrome If Google Has to Sell It,” The Verge, April 23, 2025, https://www.theverge.com/policy/654835/perplexity-google-antitrust-trial-remedies-chrome. C’est pourquoi il est particulièrement important que nous ne cédions pas le terrain important vers lequel ces actions réglementaires nous ont poussés lorsque les entreprises de Big Tech utilisent l’IA comme couverture pour ne pas être réglementées.
Dans ce rapport, nous présentons une autre voie à suivre. Tout d’abord, nous définissons ce que nous entendons par « IA », nous faisons le point sur les fausses promesses et les mythes qui entourent l’IA et nous examinons pour qui elle travaille et contre qui elle travaille. Ensuite, étant donné que l’IA échoue systématiquement au public moyen, même si elle en enrichit une petite partie, nous nous demandons ce que nous perdons si nous acceptons la vision actuelle de l’IA colportée par l’industrie. Enfin, nous identifions les points d’appui sur lesquels nous pouvons nous appuyer pour nous mobiliser afin de construire un monde centré sur l’épanouissement collectif, avec ou sans IA.
Nous ne sommes pas naïfs. Les vents contraires qui s’opposent aux alternatives raisonnables en matière d’IA n’ont jamais été aussi forts. L’industrie technologique dispose de plus de ressources et l’environnement politique est plus sombre que jamais. En effet, considérer l’industrie technologique comme une simple collection d’entreprises, c’est passer à côté de sources essentielles de leur pouvoir, de leur appareil de surveillance à leur contrôle des infrastructures numériques mondiales qui façonnent nos États, nos institutions, nos économies et, plus important encore, nos vies. Mais la bataille n’a jamais été aussi importante. Contester l’IA relie les mouvements que nous devons construire non seulement pour créer un pouvoir public significatif, mais aussi pour ouvrir une nouvelle voie définie par l’autonomie, la dignité, le respect et la justice pour chacun d’entre nous.
Dans les sections suivantes, nous présentons un ensemble d’outils permettant de réaffirmer le pouvoir public dans le cadre d’une prise de contrôle par des entreprises d’IA. Le chapitre 4, intitulé « Une feuille de route pour l’action », est plus complet, mais en voici les grandes lignes :
Une feuille de route pour l’action : Faire de l’IA un combat pour le pouvoir, pas pour le progrès.
- Ciblez la façon dont l’industrie de l’IA va à l’encontre des intérêts des gens ordinaires. À la suite des élections de 2024, un consensus se dégage de plus en plus au sein du spectre idéologique sur le fait qu’il est essentiel de se concentrer sur les conditions matérielles et les intérêts économiques des travailleurs pour renforcer le pouvoir politique. Nous devons non seulement rendre les questions liées à l’IA plus pertinentes pour les mouvements qui luttent pour le populisme économique et contre l’oligarchie technologique, mais aussi mieux cibler l’industrie de l’IA en tant qu’acteur clé qui travaille contre les intérêts du public travailleur. L’opposition au Département de l’efficacité gouvernementale (DOGE), à la construction de centres de données d’IA et aux prix et salaires algorithmiques constitue un terrain fertile pour la construction d’un mouvement plus large, unifié dans son objectif de rejeter le contrôle social et politique de l’IA par la technologie, qui n’a pas de comptes à rendre.
- Faire progresser l’organisation des travailleurs est la voie la plus claire pour nous protéger, nous et nos institutions, de l’emprise de l’IA. Les campagnes syndicales ont démontré que les travailleurs ont une forme particulière de pouvoir à exercer, un pouvoir qui peut déterminer la manière dont leurs employeurs déploient l’IA et les systèmes numériques. L’opportunité la plus profonde pour les travailleurs, et une ambition plus transformatrice, serait de diriger le pouvoir des travailleurs non seulement vers l’utilisation de l’IA sur le lieu de travail, mais aussi vers le rééquilibrage du pouvoir du secteur technologique dans son ensemble et le façonnement de la trajectoire de l’IA dans l’intérêt public et le bien commun.
- Adopter un programme politique de « confiance zéro » pour l’IA. Faire confiance à la bienveillance des entreprises d’IA n’est pas une option intelligente, informée ou crédible – pas si nous voulons poursuivre un travail sérieux. L’adoption d’un programme politique fondé sur des règles claires qui limitent les utilisations les plus néfastes de l’IA, réglementent le cycle de vie de l’IA de bout en bout et veillent à ce que l’industrie qui crée actuellement l’IA et en tire profit ne soit pas laissée à elle-même pour se réglementer et s’évaluer, c’est-à-dire pour corriger ses propres devoirs, doit être une priorité aux niveaux fédéral et des États aux États-Unis, ainsi qu’au niveau international.
- Établir des passerelles entre les réseaux d’expertise, les politiques et les récits pour renforcer la défense de l’IA. Le plaidoyer et la politique en matière d’IA ont souvent été sapés par des points de vue étroits qui ne tiennent pas compte des différentes composantes de la chaîne d’approvisionnement de l’IA sur le plan matériel, qui sont souvent axés sur une seule question, et il est facile de ne pas voir comment les récits globaux se manifestent pour limiter les possibilités dans les combats politiques. Des logiques de sécurité nationale qui peuvent être un vecteur à la fois pour et contre les mouvements de responsabilisation de l’industrie, au recadrage des leviers traditionnels de confidentialité des données en tant qu’outils clés dans la lutte contre l’automatisation et la prise en compte du pouvoir du marché.
- Reprendre un agenda positif pour l’innovation centrée sur le public sans que l’IA ne soit au centre. La trajectoire actuelle de l’IA place le public sous la coupe d’oligarques technologiques qui n’ont pas de comptes à rendre. Mais leur succès n’est pas inévitable. En sortant de l’ombre de l’idée que l’IA à grande échelle est inévitable, nous pouvons nous réapproprier l’espace nécessaire pour mener une véritable innovation et promouvoir des voies alternatives nouvelles et passionnantes qui tirent parti de la technologie pour façonner un monde au service du public et régi par notre volonté collective.
Épilogue : Le monde que nous voulons (et pourquoi la trajectoire actuelle de l’IA ne nous y mènera pas)
L’engouement pour l’IA au cours de l’année écoulée a fait sortir l’air d’une pièce déjà étouffante, donnant l’impression qu’il est futile – voire impossible – d’imaginer autre chose qu’une marche régulière vers l’inévitable suprématie de l’IA. Mais quelle que soit la justesse de ce sentiment, il ne s’agit que d’un sentiment. Ce n’est pas la réalité, du moins pas encore. Il existe en fait de nombreuses alternatives à cette version de l’IA, de nombreuses façons de façonner de nouveaux mondes. Comme l’IA, cependant, ces alternatives ne sont pas inévitables non plus. Pour les rendre possibles, il faut commencer par poser une seule question et y répondre : Est-ce le monde que nous voulons ?
À AI Now, nous voulons voir un monde qui ait :
De bons emplois
Chacun mérite d’avoir accès aux ressources nécessaires pour mener une vie heureuse et épanouie, ainsi qu’à un emploi digne qui lui permette de disposer de ces ressources. Dans de bonnes conditions, comme des politiques visant à améliorer les travailleurs plutôt qu’à les exploiter, les nouvelles technologies ont le potentiel d’améliorer la vie professionnelle de chacun.
Pourtant, la trajectoire actuelle de l’IA est fondamentalement incompatible avec la prolifération de bons emplois ancrés dans l’épanouissement humain. Alors que l’industrie de l’IA s’implante dans presque tous les secteurs de l’économie, les entreprises façonnent de plus en plus un marché de l’emploi qui dépend du déplacement et de l’exploitation des travailleurs. Dans leur grande majorité, les entreprises d’IA intègrent des outils de « productivité » conçus pour aider les entreprises à optimiser leurs résultats tout au long de la chaîne d’approvisionnement en main-d’œuvre. Pour ce faire, le travail lui-même doit devenir lisible pour les systèmes d’IA, ce qui rend la vie professionnelle plus routinière, surveillée et hiérarchisée. En outre, au lieu de s’efforcer de protéger les travailleurs de l’incertitude liée à ce nouveau marché, les entreprises d’IA sapent les protections du travail durement acquises, exploitent les lacunes juridiques pour éviter de rendre des comptes aux entreprises et font pression sur les gouvernements pour qu’ils soutiennent des politiques qui privilégient les profits des entreprises au détriment d’un traitement juste et équitable pour les travailleurs.
À mesure que la vision actuelle de l’IA s’impose, nous perdons un avenir où la technologie de l’IA contribue à la création d’emplois stables, dignes et utiles. Nous perdons un avenir
- où l’IA soutient des salaires justes et décents, au lieu de la dépréciation des salaires ;
- où l’IA permet aux travailleurs de décider de la manière dont les nouvelles technologies affectant leur carrière sont déployées, au lieu de saper leur expertise et leur connaissance de leur propre travail ;
- lorsque nous disposons de politiques solides pour soutenir les travailleurs si et quand les nouvelles technologies automatisent les rôles existants – y compris des lois qui élargissent le filet de sécurité sociale – au lieu des promoteurs de l’IA qui se vantent auprès des actionnaires des économies réalisées grâce à l’automatisation ;
- où des politiques robustes en matière d’avantages sociaux et de congés garantissent le bien-être à long terme des employés, au lieu que l’IA soit utilisée pour surveiller les travailleurs et leur soutirer de l’argent à tout moment ;
- où l’IA aide à protéger les employés contre les risques liés à la santé et à la sécurité au travail, au lieu de perpétuer les conditions qui rendent le travail dangereux et de célébrer les employeurs qui exploitent les lacunes du droit du travail pour échapper à leurs responsabilités ; et
- où l’IA favorise l’établissement de liens significatifs par le biais du travail, au lieu d’entretenir des cultures de peur et d’aliénation.
Prospérité partagée
La prolifération de toute nouvelle technologie a le potentiel d’accroître les opportunités économiques et de conduire à une prospérité partagée généralisée. Mais la prospérité partagée est incompatible avec la voie actuelle de l’IA, qui vise à maximiser le profit des actionnaires.
Le mythe insidieux selon lequel l’IA entraînera une « productivité » pour tous, alors qu’il s’agit en réalité d’une productivité pour un nombre restreint d’entreprises, nous pousse encore plus loin sur la voie du profit des actionnaires en tant qu’objectif économique unique. Même les politiques gouvernementales bien intentionnées visant à stimuler l’industrie de l’IA volent dans la poche des travailleurs. Par exemple, les incitations gouvernementales destinées à revitaliser l’industrie de la fabrication de puces ont été contrecarrées par des dispositions de rachat par les entreprises, envoyant des millions de dollars aux entreprises, et non aux travailleurs ou à la création d’emplois. Et malgré quelques mesures significatives pour enquêter sur l’industrie de l’IA sous l’administration Biden, les entreprises n’ont toujours pas été contrôlées, ce qui signifie que les nouveaux entrants ne peuvent pas venir contester ces pratiques.
En faisant proliférer le mythe selon lequel l’IA conduira intrinsèquement à une prospérité partagée (ou que « la marée montante soulève tous les bateaux »), nous perdons les politiques économiques qui pourraient nous conduire de manière significative vers une période de prospérité partagée, y compris les politiques favorables à l’application de la loi pour briser la concentration du pouvoir des entreprises, un programme pro-travail solide pour centrer les besoins des travailleurs, et des stratégies de politique industrielle conçues pour faire passer les travailleurs et les communautés avant les résultats financiers des grandes entreprises. Nous perdons surtout une économie florissante et compétitive, où les innovateurs et les entrepreneurs sont incités à lancer des entreprises durables et prospères qui n’ont pas besoin de s’appuyer sur des mécanismes de surveillance, des financements de capital-risque en hypercroissance et des modèles d’entreprise extractifs pour réussir.
Liberté et autonomie
Nous méritons tous de vivre dans un monde où nos vies personnelles, politiques et économiques sont libres de toute contrainte.
Mais la trajectoire actuelle de l’IA est fondée sur la coercition et l’opacité. En accumulant un tel pouvoir concentré, les entreprises d’IA ont pris le contrôle de nombreux aspects de nos vies, nous soumettant à des pratiques coercitives conçues pour maximiser leur propre potentiel de profit. Cette situation n’est nulle part plus explicite que dans le régime des algorithmes de tarification de la surveillance. Ces algorithmes collectent des quantités extraordinaires de données sur les consommateurs afin de fixer des prix individualisés pour les biens et les services, de sorte que des aspects importants de la vie quotidienne – comme faire ses courses, prendre un Uber ou acheter un appartement – sont contrôlés par des entreprises qui cherchent à pressurer les consommateurs pour gonfler leurs propres résultats. En tant que technologie intrinsèquement centralisatrice, l’IA est systématiquement déployée pour soutenir les États de surveillance, les systèmes carcéraux et les techniques militaires et en tirer profit, intégrant les intérêts des entreprises dans les appareils d’État et vice versa, rendant la vie plus coercitive et plus violente.
L’IA pourrait contribuer à un avenir fondé sur l’autonomie et la transparence. Mais dès à présent, nous risquons de perdre un solide écosystème de ressources publiques qui ne dépendent pas d’acteurs de l’industrie privée et dont les prix ne sont pas fixés à des fins lucratives ; une tarification des biens et des services fondée sur les principes de la concurrence loyale ; et des circonstances de vie changeantes qui ne sont pas considérées comme des motifs de profit pour les entreprises. Une vie publique investie dans la liberté serait débarrassée de la prolifération des systèmes de surveillance, des logiques carcérales et des appareils d’État militaires, ce qui permettrait aux personnes et aux communautés de s’épanouir.
Un avenir durable
Le progrès technologique ne doit pas se faire au détriment de notre environnement naturel. Un paysage de l’IA bénéfique au public place les principes de durabilité et de justice environnementale en son centre, reconnaissant que la santé et la sécurité de notre planète et de nos communautés sont d’une importance primordiale.
La trajectoire actuelle de l’IA n’est pas seulement incompatible avec la durabilité ; elle alimente la dégradation du climat. L’accent mis sur l’échelle à tout prix au sein de l’industrie de l’IA la rend dépendante de l’extraction du climat et de la domination de l’énergie. L’industrie de l’IA est confrontée à de nombreux obstacles, parmi lesquels une politique de déréglementation visant à accélérer l’industrie de l’IA (ce qui signifie plus d’énergie, plus d’infrastructures, plus de ressources naturelles consacrées à l’IA) et la conviction insidieuse que l’IA va contribuer à résoudre la crise climatique, en « écologisant » les dommages environnementaux qu’elle cause déjà.
En conséquence, nous perdons un monde où les gouvernements et les entreprises travaillent ensemble pour promouvoir les principes de durabilité et de justice environnementale, en investissant dans des infrastructures d’énergie verte et renouvelable pour soutenir l’utilisation supplémentaire d’énergie que les nouvelles technologies requièrent. Les décisions relatives à l’implantation, à l’octroi de permis et à la construction d’infrastructures pour les nouvelles technologies doivent être prises en relation avec les communautés locales, en accordant une attention particulière aux communautés les plus touchées par l’évolution industrielle de la technologie. Les villes et les États ne devraient pas être contraints d’accorder des subventions aux infrastructures au détriment des besoins des communautés locales, comme le financement des écoles et des soins de santé. Nous perdons également un avenir où l’industrie prend au sérieux ses engagements en matière de climat et s’efforce d’atténuer les effets néfastes de ses processus industriels, en reconnaissant que la santé et la sécurité de notre planète et de nos communautés sont essentielles à la survie de tous, y compris à celle de l’industrie.
Un filet de sécurité sociale solide
Nous devrions vivre dans un monde où chacun a accès à un système solide de ressources publiques et où la communauté exerce un contrôle sur ce système.
Pourtant, alors que l’IA modifie rapidement notre paysage social, les gouvernements sont de plus en plus motivés par la privatisation et les mesures d’austérité. L’IA ouvre la voie à un programme politique conçu pour enrichir les intérêts privés plutôt que de fournir des avantages publics solides. Les entreprises d’IA poussent à l’intégration de l’IA dans les agences gouvernementales locales et fédérales motivées par l’austérité, limitant l’accès des personnes aux ressources nécessaires et au filet de sécurité sociale. En outre, la prétendue course aux armements en matière d’IA avec la Chine est utilisée pour convaincre les gouvernements que l’infrastructure nationale est un impératif pour la compétitivité et la sécurité nationales, encourageant les organismes publics à accorder de généreuses exonérations fiscales aux entreprises privées afin qu’elles construisent d’énormes centres de données dans des communautés qui n’en veulent peut-être pas. Ces exonérations, qui se chiffrent en milliards de dollars, détournent les investissements de ressources publiques solides qui profitent à tous, comme l’augmentation du nombre d’enseignants, de routes et de bibliothèques.
Nous pourrions avoir un monde où la technologie serait au service du grand public, avec des algorithmes conçus pour maximiser les options des gens, et non les réduire, et où les entreprises seraient tenues de payer leur juste part d’impôts aux communautés locales, plutôt que de lutter contre les efforts visant à leur faire payer leur juste part d’impôts.
La sécurité
Dans un monde de plus en plus complexe, la sécurité et la résilience sont plus importantes que jamais. Nos infrastructures sont largement invisibles jusqu’au moment où elles tombent en panne – et nous avons souvent ressenti le choc d’une défaillance des infrastructures ces dernières années, qu’il s’agisse de problèmes dans la chaîne d’approvisionnement pendant la pandémie, de pannes d’électricité ou de fermetures de banques.
L’intégration de l’IA dans nos infrastructures critiques, en particulier lorsque les systèmes d’IA sont fortement concentrés, crée un risque réel et actuel pour la sécurité. Ces risques sont multiples : il existe des risques de cybersécurité inhérents à de nombreux systèmes d’IA qui les rendent vulnérables au piratage, et certains d’entre eux sont irrémédiables. Il existe des risques systémiques liés à une dépendance excessive à l’égard d’une seule technologie : par exemple, si les banques, les hôpitaux et les écoles utilisent tous le même fournisseur d’infrastructure en nuage, une panne pourrait les affecter tous d’un seul coup. Ces risques sont les plus élevés lorsque l’IA est utilisée dans des situations de vie ou de mort – et des soins de santé à la défense, il s’agit là de certains des principaux marchés de l’industrie. D’autres risques découlent des décisions prises par les entreprises elles-mêmes d’expérimenter dans la nature, en mettant sur le marché des technologies qui n’ont pas été testées ou validées de manière adéquate et dont on n’est pas certain qu’elles fonctionneront comme prévu, et encore moins qu’elles causeront des dommages.
Nous pourrions avoir un monde où notre sécurité et notre bien-être ne seraient pas vulnérables et exposés à une industrie qui se développe à un rythme sans précédent sans se soucier de la sûreté et de la sécurité, et encore moins du respect de la loi ; où l’IA serait validée, testée et conçue de manière sûre et utilisée avec prudence plutôt qu’impunément.
Un écosystème technologique innovant
La technologie a le potentiel de résoudre d’importants défis sociétaux et de repousser les frontières de l’innovation. Dans un écosystème technologique prospère, les entreprises, grandes et petites, sont en mesure de réussir, non pas en concentrant leur pouvoir, mais en s’engageant dans une concurrence loyale. La société bénéficie de la distribution d’un ensemble diversifié de produits, de services et de technologies résultant d’une telle concurrence.
L’industrie actuelle de l’IA est définie par la concentration, ce qui empêche l’épanouissement d’un écosystème technologique réellement diversifié et innovant. Il n’y a pas d’IA sans les grandes entreprises technologiques, qui ont passé des décennies à accumuler un accès illimité aux données et un pouvoir économique, puis à utiliser ces avantages pour contrôler les intrants clés à tous les niveaux de la pile de l’IA. Même lorsque de nouveaux entrants sont en mesure de pénétrer le marché de l’IA, ils restent tributaires des infrastructures informatiques et de cloud computing des grandes entreprises technologiques pour réussir, créant ainsi un écosystème de dépendance plutôt que de concurrence. Lorsque la consolidation a été évitée – comme ce fut le cas avec le projet de fusion Nvidia-ARM – les entreprises ont pu prospérer. ARM s’est introduite en bourse et a dépassé les estimations trimestrielles, tout cela après que son acquisition a été bloquée. En outre, les grandes entreprises technologiques contrôlent la plupart des voies d’accès aux consommateurs et aux entreprises à grande échelle. Ce pouvoir centralisé est également à l’origine d’une crise de l’innovation, dans laquelle les grandes entreprises technologiques sont hypertrophiées, bloquées par des examens juridiques et obligées de reconditionner leurs technologies existantes afin de relancer et d’augmenter leurs résultats.
Ce que nous perdons dans cet écosystème technologique saturé et stagnant, c’est un horizon de possibilités vraiment diversifié, rempli d’innovations qui répondent aux besoins réels des gens, plutôt qu’une soupe sans fin de logiciels d’entreprise et d’agents d’intelligence artificielle. Nous pouvons inspirer un écosystème dans lequel les gens peuvent utiliser la technologie pour construire des entreprises lentement et durablement, sans avoir besoin de croître rapidement et de manière amorale pour rester en activité. L’ensemble de notre écosystème technologique a besoin d’un changement de paradigme, qui démantèle les structures existantes pour faire place à la complexité et à l’émergence.23We Need To Rewild The Internet Il s’agit notamment de démanteler les grandes entreprises, de revoir la structure de financement soutenue par les sociétés de capital-risque afin que davantage d’entreprises puissent prospérer, d’investir dans les biens publics pour s’assurer que les ressources technologiques ne dépendent pas des grandes entreprises privées, et d’augmenter les investissements institutionnels pour introduire davantage de personnes diverses – et donc d’idées – au sein de la main-d’œuvre du secteur technologique.
Un État dynamique et démocratique
Nous méritons un avenir technologique qui soutienne des valeurs et des institutions démocratiques fortes.
Ce que nous avons aujourd’hui, c’est une société capturée par la classe des milliardaires de la technologie. Au cours des dernières décennies, une poignée de milliardaires a dégradé l’ensemble de notre système d’information sous prétexte de le perturber, tuant le modèle économique des salles de rédaction et le remplaçant par des produits basés sur la publicité, nécessaires pour maintenir notre attention constante. Et malgré la rhétorique selon laquelle l’IA a le potentiel de « démocratiser » le monde, les pathologies inhérentes à l’IA en font une force centralisatrice,24Dan McQuillan, Resisting AI (Bristol University Press, 2022). qui dépend de l’accumulation massive de données et de ressources informatiques entre les mains de quelques grands acteurs.25Alex Hanna, “The AI/Fascism Nexus,” Mystery AI Hype Theater 3000: The Newsletter, November 8, 2024, https://buttondown.com/maiht3k/archive/the-aifascism-nexus. Aujourd’hui, la classe des milliardaires de la technologie menace de détruire nos industries créatives, en transformant l’artisanat durement gagné en « contenu » qui est ensuite transmis à des modèles d’IA destinés à produire des copies xérographiques avec perte de nos chefs-d’œuvre. Et comme si cela ne suffisait pas, ces mêmes milliardaires ont commencé à détruire nos institutions, en achetant des journaux et en s’emparant des pages d’opinion, en achetant les élections et en vidant nos services sociaux de leur substance.
La contestation du capital économique et politique accumulé au sein de l’industrie technologique est nécessaire pour créer les conditions d’une démocratie prospère. Il est urgent de restaurer les structures institutionnelles qui protègent les intérêts du public contre l’oligarchie. Pour ce faire, il faudra affronter le pouvoir technologique sur de multiples fronts, qu’il s’agisse d’adopter des mesures de responsabilisation des entreprises qui permettent de contrôler les oligarques de la technologie, d’empêcher les efforts visant à utiliser l’IA pour vider nos institutions de leur substance ou de soutenir le travail effectué au niveau communautaire par les représentants des gouvernements locaux, les organisateurs et les travailleurs qui se consacrent à la reconstruction d’une démocratie au service du grand public.
Notes
- 1Amba Kak and Sarah Myers West, 2023 Landscape: Confronting Tech Power, AI Now Institute, April 11, 2023, https://ainowinstitute.org/publications/research/2023-landscape-confronting-tech-power.
- 2David Cahn, “Steel, Servers and Power: What it Takes to Win the Next Phase of AI,” Sequoia, August 5, 2024, https://www.sequoiacap.com/article/steel-servers-and-power.
- 3Meredith Whittaker, “The Steep Cost of Capture,” Interactions 28, no. 6 (November 2021): 50–55, https://dl.acm.org/doi/10.1145/3488666.
- 4See Nur Ahmed, Muntasir Wahed, and Neil C. Thompson, Science 379, no. 6635 (March 2023): 884–886, https://www.science.org/doi/abs/10.1126/science.ade2420; and Whittaker, “The Steep Cost of Capture.”
- 5Kak and West, 2023 Landscape: Confronting Tech Power.
- 6Edward Zitron, “There Is No AI Revolution,” Where’s Your Ed At, February 24, 2025, https://www.wheresyoured.at/wheres-the-money.
- 7Shirin Ghaffary, “Anthropic Finalizes Megaround at $61.5 Billion Valuation,” Bloomberg, https://www.bloomberg.com/news/articles/2025-03-03/anthropic-finalizes-megaround-at-61-5-billion-valuation.
- 8Cory Weinberg, “OpenAI Projections Imply Losses Tripling to $14 Billion in 2026,” The Information, October 9, 2024, https://www.theinformation.com/articles/openai-projections-imply-losses-tripling-to-14-billion-in-2026.
- 9Cade Metz, “OpenAI Completes Deal That Values Company at $300 Billion,” New York Times, March 31, 2025, https://www.nytimes.com/2025/03/31/technology/openai-valuation-300-billion.html.
- 10Nilay Patel, “Mark Zuckerberg Just Declared War on the Entire Advertising Industry,” The Verge, May 1, 2025, https://www.theverge.com/meta/659506/mark-zuckerberg-ai-facebook-ads.
- 11Casey Newton, “ChatGPT’s Deep Research Might Be the First Good Agent,” Platformer, February 3, 2025, https://www.platformer.news/chatgpt-deep-research-hands-on.
- 12Grant Gross, “Devs Gaining Little (If Anything) from AI Coding Assistants,” CIO, September 26, 2024, https://www.cio.com/article/3540579/devs-gaining-little-if-anything-from-ai-coding-assistants.html.
- 13Abner Li, “Google Workspace Business Users Getting Full Gemini Experience, Price Increasing,” 9to5Google, January 15, 2025, https://9to5google.com/2025/01/15/google-workspace-gemini-price-increase.
- 14Ashish Agarwal et al., “Hallucinations in Neural Machine Translation,” abstract, 2018, accessed May 15, 2025, https://research.google/pubs/hallucinations-in-neural-machine-translation.
- 15Inioluwa Deborah Raji et al., “The Fallacy of AI Functionality,” arXiv (2022), https://arxiv.org/abs/2206.09511.
- 16Chad Boutin, “NIST Identifies Types of Cyberattacks That Manipulate Behavior of AI Systems,” NIST, January 4, 2024, https://www.nist.gov/news-events/news/2024/01/nist-identifies-types-cyberattacks-manipulate-behavior-ai-systems.
- 17Voir encadré dans le chapitre 3
- 18Sarah Myers West and Amba Kak, “AI’s Missing Others,” Boston Review, December 4, 2024, https://www.bostonreview.net/forum_response/ais-missing-others.
- 19Catherine Bracy, World Eaters (Penguin Random House, 2025).
- 20See David McCabe, “‘Google Is a Monopolist,’ Judge Rules in Landmark Antitrust Case,” New York Times, August 5, 2024, https://www.nytimes.com/2024/08/05/technology/google-antitrust-ruling.html; and McCabe, “Google Broke the Law to Keep Its Advertising Monopoly, a Judge Rules,” New York Times, April 17, 2025, https://www.nytimes.com/2025/04/17/technology/google-ad-tech-antitrust-ruling.html.
- 21David McCabe, “U.S. Wants to Break Up Google’s Advertising Technology,” New York Times, May 2, 2025, https://www.nytimes.com/2025/05/02/technology/google-advertising-technology-hearing.html.
- 22See Kate Brennan, “The Elephant in the Room in the Google Search Case: Generative AI,” Tech Policy Press, November 4, 2024, https://www.techpolicy.press/the-elephant-in-the-room-in-the-google-search-case-generative-ai; Erin Woo, “OpenAI’s Bid To Get Google’s Search Data,” The Information, April 23, 2025, https://www.theinformation.com/articles/openais-bid-get-googles-search-data; and Lauren Feiner, “Perplexity Wants to Buy Chrome If Google Has to Sell It,” The Verge, April 23, 2025, https://www.theverge.com/policy/654835/perplexity-google-antitrust-trial-remedies-chrome.
- 23
- 24Dan McQuillan, Resisting AI (Bristol University Press, 2022).
- 25Alex Hanna, “The AI/Fascism Nexus,” Mystery AI Hype Theater 3000: The Newsletter, November 8, 2024, https://buttondown.com/maiht3k/archive/the-aifascism-nexus.