Création de valeur publique VS rentes extractives
Traduction de AI for What? par Mariana Mazzucato, février 2025.
En 2019, j’ai écrit un article sur la « prévention du féodalisme numérique », un phénomène encore plus pertinent aujourd’hui qu’à l’époque :
« À l’origine, les entreprises technologiques actuelles utilisaient leurs vastes réseaux pour attirer divers fournisseurs, ce qui profitait grandement aux consommateurs. Amazon a permis à de petits éditeurs de vendre des titres (dont mon premier livre) qui, sans cela, n’auraient jamais été mis en rayon dans votre librairie locale. Le moteur de recherche Google affichait autrefois une grande diversité de fournisseurs, de biens et de services.
Mais aujourd’hui, ces deux entreprises utilisent leur position dominante pour étouffer la concurrence, en contrôlant les produits que les utilisateurs voient et en favorisant leurs propres marques (dont beaucoup ont des noms apparemment indépendants). Parallèlement, les entreprises qui ne font pas de publicité sur ces plateformes se trouvent dans une situation très désavantageuse. Comme l’a fait valoir Tim O’Reilly, avec le temps, cette recherche de rente affaiblit l’écosystème des fournisseurs que les plateformes étaient censées servir à l’origine.
Plutôt que de simplement supposer que toutes les rentes économiques sont identiques, les décideurs économiques devraient s’efforcer de comprendre comment les algorithmes des plateformes répartissent la valeur entre les consommateurs, les fournisseurs et la plateforme elle-même. Si certaines répartitions peuvent refléter une concurrence réelle, d’autres sont motivées par l’extraction de valeur plutôt que par la création de valeur.
Nous devons donc développer une nouvelle structure de gouvernance, qui commence par la création d’un nouveau vocabulaire. Par exemple, qualifier les entreprises de plateformes de « géants technologiques » implique qu’elles ont investi dans les technologies dont elles tirent profit, alors que ce sont en réalité les contribuables qui ont financé les technologies clés sous-jacentes, de l’Internet au GPS.
La semaine prochaine, je prendrai la parole lors du Sommet sur l’action en matière d’IA à Paris, qui réunira des dirigeants mondiaux, des entreprises technologiques, des universitaires, dont le prix Nobel Daron Acemoglu, et la société civile afin de donner un nouvel élan aux ambitions de l’Europe en matière d’IA, alors qu’elle lutte pour rivaliser avec la Chine et les États-Unis. Le mois dernier, le Royaume-Uni a annoncé son propre plan d’action en matière d’IA, promettant de multiplier par 20 la puissance de calcul et d’« injecter l’IA dans les veines » du pays. Rachel Reeves, la ministre britannique des Finances, a exposé l’ambition du gouvernement britannique de créer la « Silicon Valley européenne » dans son plan de croissance présenté la semaine dernière. Cependant, ces deux initiatives révèlent les lacunes de notre réflexion sur la gouvernance de l’IA, l’innovation et la création de valeur publique.
L’IA n’est pas un secteur, c’est une technologie à usage général qui façonne et continuera de façonner tous les secteurs de notre économie. Comme de nombreuses technologies transformatrices, du marteau à l’énergie nucléaire, l’IA peut être utilisée pour créer une valeur considérable ou causer de graves dommages. Il est donc plus urgent que jamais d’orienter son développement vers le bien commun. La véritable question n’est pas de savoir s’il faut ou non réglementer l’IA, mais comment orienter activement son développement vers la création de valeur publique plutôt que vers l’extraction de valeur.
L’orientation ne consiste pas seulement à réglementer, mais aussi à accorder davantage d’attention à la création de valeur elle-même. Comme je l’explique dans mon livre publié en 2013, The Entrepreneurial State: Debunking public vs. private sector myths, une grande partie de la technologie moderne est le fruit d’un investissement collectif, avec des institutions publiques telles que la Defense Advanced Research Projects Agency (DARPA) aux États-Unis ou le Conseil européen pour la recherche nucléaire (CERN) en tête dans la phase la plus risquée et la plus intensive en capital. Que serait Google sans l’internet financé par la DARPA ? Que serait UBER sans le GPS financé par la marine américaine ? Que serait Apple sans la technologie tactile financée par la CIA et l’assistant vocal Siri financé par la DARPA ?
L’un des dangers du monde moderne est que les rentes excessives perçues par les entreprises qui ont bénéficié de ces investissements publics – et qui échappent souvent à leurs obligations fiscales – sont désormais utilisées pour attirer les meilleurs talents qui travaillaient auparavant dans les universités et les laboratoires publics. Cette forme de fuite des cerveaux exacerbe la répartition inégale des connaissances entre les secteurs public et privé. Il est impossible de réglementer un système que l’on ne comprend pas : que se passe-t-il lorsque toutes les connaissances sont concentrées entre les mains de cinq entreprises privées ?
De plus, comme je l’explique dans The Big Con: How the consulting industry weakens our businesses, infantilizes our governments and warps our economies, la décimation des capacités gouvernementales au cours des 40 dernières années, due à l’externalisation des connaissances vers des consultants du secteur privé, a créé une dépendance dangereuse. Comme l’avait déjà averti le responsable des achats de la NASA dans les années 1960, les dangers de ce qu’il appelait le « brochuremanship » deviennent particulièrement aigus lorsque le gouvernement s’en remet à des « Big Tech » pour le conseiller sur des technologies que le secteur public n’a plus les compétences nécessaires pour mettre en œuvre et réglementer lui-même. Ce cercle vicieux d’érosion des capacités affaiblit encore davantage la capacité de l’État à façonner et à orienter le développement technologique dans l’intérêt public.
Ce défi est particulièrement évident dans l’approche britannique de l’IA. L’annonce récente par le gouvernement d’un plan d’action global en matière d’IA révèle à la fois l’ambition et les lacunes de notre réflexion sur le changement technologique.
S’il est important de mettre l’accent sur l’adoption de l’IA et la puissance de calcul, il existe une fausse dichotomie entre la politique d’innovation et la réglementation qui doit être comblée. Dans le cadre d’un projet de recherche que j’ai dirigé avec le réseau Omidyar, nous avons constaté que les systèmes algorithmiques actuels sont de plus en plus utilisés pour extraire ce que nous appelons des « rentes algorithmiques », c’est-à-dire utiliser l’IA et l’apprentissage automatique non pas pour créer une valeur réelle, mais pour concentrer le pouvoir de marché et extraire la richesse des utilisateurs et des petits acteurs de l’économie numérique.
L’émergence récente de DeepSeek, une entreprise chinoise spécialisée dans l’IA, remet en question nos hypothèses sur les barrières inhérentes à l’entrée dans le domaine du développement de l’IA. En offrant des performances comparables à celles des principaux modèles d’IA tout en nécessitant beaucoup moins de puissance de calcul et d’énergie, DeepSeek soulève une possibilité intrigante : des approches plus efficaces du développement de l’IA pourraient-elles contribuer à briser l’emprise que les grandes entreprises de cloud computing (Google, Amazon, Microsoft) ont établie grâce à leur contrôle de vastes ressources informatiques ? S’il est encore trop tôt pour dire si cette avancée technique se traduira par une véritable restructuration du marché, elle met en évidence la différence entre le cloud computing en tant qu’infrastructure et les services d’IA en tant qu’applications. La question fondamentale reste posée : la réduction des obstacles informatiques au développement de l’IA suffira-t-elle à garantir que ces technologies servent l’intérêt public, ou d’autres formes de concentration du marché apparaîtront-elles ?
Quelle que soit l’issue, nous observons déjà des schémas familiers d’extraction de valeur émerger dans le développement de l’IA. Tout comme les plateformes telles que Facebook et Google ont évolué vers ce que Cory Doctorow appelle l’«enshittification», c’est-à-dire le processus consistant à dégrader l’expérience utilisateur afin d’en extraire davantage de valeur, les systèmes d’IA actuels risquent de suivre la même voie extractive. Les entreprises qui développent des IA génératives montrent déjà les signes classiques : utilisation de contenus protégés par le droit d’auteur sans compensation équitable, centralisation de la valeur au sein de leurs services et réduction des flux de valeur vers les créateurs et les développeurs dont elles dépendent.
Comme je l’ai soutenu dans « Governments Must Shape AI’s Future » (Les gouvernements doivent façonner l’avenir de l’IA), l’innovation n’est pas le fruit du hasard : elle suit une direction qui dépend des conditions dans lesquelles elle émerge. L’infrastructure actuelle de l’IA sert les intérêts des initiés et risque d’exacerber les inégalités économiques. Sans une gouvernance appropriée, l’IA risque de devenir un nouveau moteur d’extraction de rente plutôt que de création de valeur. Nous avons besoin d’un « État entrepreneurial » capable de mettre en place des structures pré-distributives qui répartissent équitablement, dès le départ, les risques et les avantages de l’innovation en matière d’IA.
Cela rejoint directement mes travaux antérieurs co-rédigés avec Gabriela Ramos, sous-directrice générale pour les sciences sociales et humaines à l’UNESCO, où elle dirige le Programme sur la gestion des transformations sociales(MOST), dont je fais partie du « groupe consultatif de haut niveau ». En 2022, nous avons rédigé un article intitulé « AI in the Common Interest » (L’IA dans l’intérêt commun), dans lequel nous avons souligné comment l’IA peut améliorer nos vies de nombreuses façons, qu’il s’agisse d’améliorer la production alimentaire ou de renforcer la résilience face aux catastrophes naturelles, mais sans une gouvernance efficace, elle risque de créer de nouvelles inégalités et d’amplifier celles qui existent déjà. Entre 2013 et 2021, la Chine et les États-Unis ont représenté 80 % des investissements privés dans l’IA à l’échelle mondiale. Comme le souligne Ian Hogarth, professeur associé à l’UCL Institute for Innovation and Public Purpose, dans son article du Financial Times sur la manière dont l’Europe peut créer sa première entreprise valorisée à plus de 1 000 milliards de dollars, cette domination n’était pas inévitable : l’Europe a été pionnière dans le développement précoce de l’IA grâce à DeepMind, mais elle n’a pas su mobiliser les capitaux audacieux et les investissements à long terme nécessaires pour conserver son leadership. Ce schéma risque de se répéter si nous ne changeons pas fondamentalement la manière dont nous investissons dans le développement de l’IA et dont nous le régulons.
Cette histoire nous éclaire sur les solutions possibles. Comme l’affirme Francesca Bria, ancienne directrice de la technologie numérique et de l’innovation à Barcelone et professeure associée à l’UCL Institute for Innovation and Public Purpose, la voie vers la souveraineté numérique de l’Europe passe par la mise en place de ce qu’elle appelle l’« EuroStack», une infrastructure numérique indépendante qui comprend le cloud computing, des puces avancées, l’IA, les identités numériques et les espaces de données, le tout régi comme des biens publics plutôt que comme des entreprises monopolistiques.
La question n’est pas de savoir si l’Europe ou le Royaume-Uni peuvent devenir une « superpuissance de l’IA », mais s’ils peuvent contribuer à construire un écosystème d’IA au service du bien commun. Il ne s’agit pas de choisir entre innovation et réglementation, ni de gérer le développement technologique de manière descendante. Il s’agit plutôt de créer les incitations et les conditions propices pour orienter les marchés vers les résultats que nous souhaitons en tant que société. En établissant des conditions claires pour les investissements et le soutien publics, nous pouvons façonner un avenir de l’IA qui crée de la valeur pour tous, et non pas seulement pour quelques-uns.
