Traduction de The Silicon Valley Consensus & the « AI Economy », par Edward Ongweso Jr, 8 septembre 2025
L’« économie de l’IA » n’est pas tant une question de productivité ou d’innovation qu’une tentative d’imposer un nouvel ordre politico-économique — appelons-le le consensus de la Silicon Valley — qui prétend vouloir créer notre Dieu mort-né. Une coalition d’hyperscalers, de capital-risqueurs, d’entreprises du secteur des énergies fossiles, de conservateurs et de réactionnaires se livre à une frénésie de surconstruction, de surévaluation et de surinvestissement dans les infrastructures informatiques. Leur objectif n’est pas de réaliser l’AGI ou d’améliorer radicalement la vie de l’humanité, mais de réaffecter les capitaux de manière à s’enrichir, à transformer leur richesse en un pouvoir politique encore plus important qui impose des contraintes aux forces politiques contraires, et à libérer le capitalisme de ses défauts récents (par exemple la démocratie), consolidant ainsi les avantages de ses architectures indépendamment de l’utilité sociale réelle des technologies qu’ils poursuivent.
SPECTACLE ET SUBSTANCE
La mise en place de l’infrastructure informatique et de l’approvisionnement énergétique de l’IA générative est une entreprise extrêmement coûteuse (McKinsey prévoit que 7 000 milliards de dollars seront dépensés d’ici 2030). Et cela ne fera que s’accentuer. Depuis peu, les modèles sont devenus plus exigeants en termes de puissance de calcul, car ils tentent de reproduire le « raisonnement » via des chaînes de requêtes qui s’auto-vérifient, effectuent des recherches et augmentent de manière radicale les ressources nécessaires pour chaque requête individuelle.
L’infrastructure informatique est coûteuse (puces, serveurs, clusters, centres de données, ensembles de données, étiqueteurs, nettoyeurs, approvisionnement en énergie, etc.), mais ce sont surtout les dépenses d’investissement des hyperscalers qui ont attiré l’attention. En août, nous avons reçu une avalanche de commentaires en réaction à la nouvelle selon laquelle leurs dépenses en centres de données contribuaient davantage à l’économie américaine que l’ensemble des dépenses de consommation. Étant donné que les revenus sont faibles et que la rentabilité/durabilité n’est pas en vue, on pourrait s’attendre à ce que les affirmations de ces entreprises soient examinées de près. Jusqu’à récemment, cela a été relativement peu le cas. La plupart des analyses se limitent à des comparaisons superficielles avec les télécommunications et l’internet pendant la bulle Internet, en partie parce que les dépenses d’investissement des 7 magnifiques de l’IA générative ont dépassé 102,5 milliards de dollars au dernier trimestre (ce qui signifie que cette expansion est en passe d’être la plus importante depuis la bulle ferroviaire de l’âge d’or), en partie parce que le secteur technologique a mené une campagne de marketing très réussie et sophistiquée qui a étouffé le scepticisme et l’analyse critique.
Je voudrais rassembler trois points de vue qui, selon moi, sont complémentaires, allant du techno-optimisme à un cadre beaucoup plus critique qui pose la question « pourquoi faisons-nous cela ? ».
Aujourd’hui, nous commencerons par l’article de Derek Thompson publié en août :
Point de vue n° 1 : Comment l’IA a conquis l’économie américaine : une FAQ visuelle par Derek Thompson
L’article de Thompson est plutôt optimiste sur le boom de l’IA et sur ce que son ampleur pourrait signifier pour l’adoption par les travailleurs ainsi que pour l’impact économique. En résumé, ses principaux points sont les suivants :
- Le boom des investissements et de l’adoption de l’IA n’est pas un événement futur, mais une réalité économique actuelle. Nous sommes en train de créer une économie bifurquée : un secteur de l’IA « en pleine effervescence », alimenté par les dépenses d’investissement des hyperscalers, qui éclipse le reste de notre économie « morose ». Cette expansion est comparable, en termes d’ampleur (et d’impact potentiel), à l’ère des dot-com ou à la bulle ferroviaire de l’âge d’or. Elle pourrait même les rivaliser !
- La principale source de financement de cette expansion des infrastructures n’est pas la dette extérieure, mais les flux de trésorerie internes, principalement ceux des hyperscalers, qui dominent notre marché boursier. Leur rentabilité est telle qu’ils peuvent investir des « sommes colossales » dans un projet aussi ambitieux sans avoir recours à des options de financement risquées, même si les revenus et les bénéfices ne se sont pas encore concrétisés.
- Compte tenu des premières données sur l’adoption et la productivité, nous devrions être optimistes, avec quelques réserves mineures quant à son impact potentiel. L’IA générative est adoptée deux fois plus vite que l’internet et certains secteurs (par exemple, les start-ups sur Stripe, les enseignants) font état de gains d’efficacité considérables. Cependant, certaines études objectives révèlent que les travailleurs surestiment considérablement ces gains : les travailleurs se sentent souvent plus productifs lorsqu’ils utilisent l’IA (par exemple, les développeurs affirment gagner 20 % de productivité), alors que nous constatons le contraire (les développeurs mettent 20 % de temps en plus), ce qui suggère que l’impact positif est bien réel et en augmentation, mais qu’il n’est pas encore pleinement compris.
SUR LES INVESTISSEMENTS DANS L’IA ET LES COMPARAISONS AVEC LES DÉBUTS D’INTERNET
Si cette expansion rivalise avec celle des précédentes bulles en termes de taille et d’impact potentiel, une question très simple se pose : où est l’argent ? Un an s’est écoulé depuis la publication du rapport de Goldman Sachs intitulé « Gen AI: Too Much Spend, Too Little Benefit? » (IA générative : trop de dépenses, trop peu d’avantages ?) et bon nombre de ses principales préoccupations restent sans réponse. L’une de ses sections clés, une interview de Jim Covello, responsable de la recherche actions mondiale chez Goldman, soulignait que des milliers de milliards étaient prévus pour les investissements au cours des prochaines années, sans toutefois apporter de réponse convaincante à une seule question : « Quel problème d’un trillion de dollars l’IA va-t-elle résoudre ? »
Les réponses à cette question s’appuient généralement sur des comparaisons avec des innovations technologiques antérieures, mais elles sont superficielles ou mal informées. L’internet, note M. Covello, « était une solution technologique peu coûteuse qui a permis au commerce électronique de remplacer des solutions existantes coûteuses ». L’IA, en revanche, est « exceptionnellement coûteuse, et pour justifier ces coûts, la technologie doit être capable de résoudre des problèmes complexes, ce pour quoi elle n’est pas conçue ». M. Covello affirme également que la théorie fondamentale de l’investissement qui promeut l’IA générative est au mieux une pseudo-science :
L’idée selon laquelle la technologie est généralement coûteuse au départ avant de devenir moins chère est une révision de l’histoire. Comme nous venons de le voir, le commerce électronique était moins cher dès le premier jour, et non pas dix ans plus tard. Mais au-delà de cette idée fausse, le monde technologique est trop complaisant dans son hypothèse selon laquelle les coûts de l’IA diminueront considérablement avec le temps. La loi de Moore dans le domaine des puces, qui a permis le paradigme « plus petit, plus rapide, moins cher » qui a guidé l’histoire de l’innovation technologique, ne s’est avérée vraie que parce que les concurrents d’Intel, comme Advanced Micro Devices, ont contraint Intel et d’autres à réduire leurs coûts et à innover au fil du temps pour rester compétitifs.
Aujourd’hui, Nvidia est la seule entreprise actuellement capable de produire les processeurs graphiques qui alimentent l’IA. Certains pensent que des concurrents de Nvidia issus de l’industrie des semi-conducteurs ou des hyperscalers (Google, Amazon et Microsoft) vont émerger, ce qui est possible. Mais c’est un grand saut par rapport à la situation actuelle, étant donné que les fabricants de puces ont tenté sans succès de détrôner Nvidia de sa position dominante dans le domaine des processeurs graphiques au cours des dix dernières années. La technologie peut être si difficile à reproduire qu’aucun concurrent n’est en mesure de le faire, ce qui permet aux entreprises de conserver leur monopole et leur pouvoir de fixation des prix. Par exemple, Advanced Semiconductor Materials Lithography (ASML) reste la seule entreprise au monde capable de produire des outils de lithographie de pointe. En conséquence, le coût de ses machines est passé de quelques dizaines de millions de dollars il y a vingt ans à, dans certains cas, plusieurs centaines de millions de dollars aujourd’hui. Nvidia ne suivra peut-être pas cette tendance, et l’échelle en dollars est différente, mais le marché est trop complaisant quant à la certitude d’une baisse des coûts.
Le point de départ des coûts est également si élevé que même s’ils baissaient, il faudrait une baisse spectaculaire pour rendre abordable l’automatisation des tâches grâce à l’IA. Les gens soulignent l’énorme baisse des coûts des serveurs quelques années après leur apparition à la fin des années 1990, mais le nombre de serveurs Sun Microsystems à 64 000 dollars nécessaires pour alimenter la transition technologique de l’internet à la fin des années 1990 est insignifiant par rapport au nombre de puces coûteuses nécessaires pour alimenter la transition vers l’IA aujourd’hui, sans même compter le remplacement du réseau électrique et les autres coûts nécessaires pour soutenir cette transition, qui sont eux-mêmes extrêmement élevés.
L’argument de Covello ici n’est pas que les coûts de calcul pour l’IA générative ne baisseront jamais, mais qu’ils ne suivent pas les schémas historiques que les promoteurs et les optimistes utilisent systématiquement pour justifier leurs paris colossaux. Premièrement, l’IA générative ne suit pas les courbes historiques des coûts technologiques, où la technologie est moins chère dès le premier jour. Deuxièmement, l’IA générative ne dispose pas de marchés suffisamment concurrentiels pour faire baisser les coûts du matériel des centres de données, ce qui était le principal moteur de la dépréciation des coûts associée à la loi de Moore. En fait, la position dominante de NVIDIA pourrait lui conférer un pouvoir de fixation des prix monopolistique. Troisièmement, il existe une différence fondamentale d’échelle entre les coûts actuels de l’infrastructure informatique de l’IA générative et ceux des bulles précédentes, qui les rendent astronomiquement plus élevés et beaucoup moins flexibles. Pour commencer, il y a les biens immobiliers (terrains, espaces physiques) qui doivent être achetés ou loués pour les centres de données, l’approvisionnement en énergie, puis les infrastructures d’eau/refroidissement.
Il y a trois autres passages de Covello que je voudrais citer et qui illustrent parfaitement mon propos. Le premier concerne la comparaison explicite entre la situation actuelle et les débuts de l’Internet :
L’idée selon laquelle le potentiel transformateur de l’Internet et des smartphones n’a pas été compris dès le début est fausse. J’étais analyste en semi-conducteurs lorsque les smartphones ont été lancés et j’ai assisté à des centaines de présentations au début des années 2000 sur l’avenir du smartphone et ses fonctionnalités, dont la plupart se sont réalisées comme l’industrie l’avait prévu. Un exemple est l’intégration du GPS dans les smartphones, qui n’était pas encore prête pour le grand public, mais qui devait remplacer les systèmes GPS encombrants que l’on trouvait couramment dans les voitures de location à l’époque. La feuille de route sur ce que d’autres technologies seraient finalement capables de faire existait également dès leur création. Il n’existe aujourd’hui aucune feuille de route comparable. Les partisans de l’IA semblent simplement croire que les cas d’utilisation se multiplieront à mesure que la technologie évoluera. Mais dix-huit mois après l’introduction de l’IA générative dans le monde, aucune application véritablement transformatrice, et encore moins rentable, n’a été trouvée.
Le deuxième point concerne cette course aux dépenses d’investissement dans l’IA, qui est complètement déconnectée de la réalité :
Les grandes entreprises technologiques n’ont d’autre choix que de se lancer dans la course aux dépenses d’investissement dans l’IA, compte tenu de l’engouement autour de ce domaine et de la peur de passer à côté (FOMO), de sorte que les dépenses massives pour le développement de l’IA vont se poursuivre. Ce n’est pas la première fois qu’un cycle d’engouement technologique se traduit par des dépenses dans des technologies qui ne donnent finalement pas de résultats ; la réalité virtuelle, le métaverse et la blockchain sont des exemples parfaits de technologies qui ont fait l’objet de dépenses importantes mais qui ont aujourd’hui peu, voire aucune, application dans le monde réel. Les entreprises hors du secteur technologique sont également soumises à une forte pression de la part des investisseurs pour mettre en œuvre des stratégies d’IA, même si celles-ci n’ont pas encore donné de résultats. Certains investisseurs ont accepté le fait que ces stratégies puissent prendre du temps à porter leurs fruits, mais d’autres ne sont pas convaincus par cet argument. Exemple concret : Salesforce, qui consacre des dépenses importantes à l’IA, a récemment subi la plus forte baisse quotidienne de son cours boursier depuis le milieu des années 2000, après que ses résultats du deuxième trimestre aient montré une faible augmentation de son chiffre d’affaires malgré ces dépenses.
Le troisième concerne les perspectives d’augmentation des revenus liés à l’IA :
Je mise peu sur l’augmentation des revenus liés à l’IA, car je ne pense pas que cette technologie soit, ou soit susceptible d’être, suffisamment intelligente pour rendre les employés plus intelligents. Même l’un des cas d’utilisation les plus plausibles de l’IA, à savoir l’amélioration de la fonctionnalité de recherche, est beaucoup plus susceptible de permettre aux employés de trouver des informations plus rapidement que de leur permettre de trouver de meilleures informations. Et si les avantages de l’IA restent largement limités à des gains d’efficacité, cela ne conduira probablement pas à une expansion multiple, car les économies de coûts seront simplement arbitrées. Si une entreprise peut utiliser un robot pour améliorer son efficacité, ses concurrents le peuvent aussi. Une entreprise ne pourra donc pas facturer plus ou augmenter ses marges.
…
Étant donné que les dépenses substantielles en infrastructure d’IA se poursuivront malgré mon scepticisme, les investisseurs devraient continuer à investir dans les bénéficiaires de ces dépenses, par ordre d’importance : les fabricants de puces, les services publics et autres entreprises exposées à la construction prochaine du réseau électrique destiné à soutenir la technologie de l’IA, et les hyperscalers, qui dépensent eux-mêmes des sommes considérables, mais qui tireront également des revenus supplémentaires de la mise en place de l’IA. Ces entreprises ont certes déjà enregistré une forte hausse, mais l’histoire montre qu’une valorisation élevée ne suffit pas à empêcher le cours de l’action d’une entreprise de continuer à augmenter si les fondamentaux qui ont rendu cette entreprise chère au départ restent intacts. Je n’ai jamais vu une action baisser uniquement parce qu’elle était chère : la détérioration des fondamentaux est presque toujours en cause, et ce n’est qu’alors que la valorisation entre en jeu.
Quelques jours avant le rapport de Goldman Sachs, David Cahn, partenaire de Sequoia Capital, a publié un argument s’appuyant sur son argument de 2023 selon lequel il existait « un écart important entre les prévisions de revenus implicites dans le développement des infrastructures d’IA et la croissance réelle des revenus dans l’écosystème de l’IA, qui est également un indicateur de la valeur pour l’utilisateur final ». En 2023, les prévisions de revenus s’élevaient à 200 milliards de dollars et il y avait un « trou de 125 milliards de dollars à combler pour chaque année de dépenses d’investissement aux niveaux actuels ». Dans son analyse de 2024, les prévisions de revenus ont grimpé à 600 milliards de dollars et le trou dans les revenus s’est encore creusé pour atteindre 500 milliards de dollars.
M. Cahn est assez sévère à l’égard du battage médiatique autour de l’IA, mais il garde néanmoins espoir en l’avenir :
Les frénésies spéculatives font partie intégrante de la technologie, il ne faut donc pas les craindre. Ceux qui gardent la tête froide en cette période ont la possibilité de créer des entreprises extrêmement importantes. Mais nous devons veiller à ne pas croire à l’illusion qui s’est désormais propagée de la Silicon Valley au reste du pays, et même au reste du monde. Cette illusion consiste à croire que nous allons tous devenir riches rapidement, car l’AGI arrive demain, et que nous devons tous stocker la seule ressource précieuse, à savoir les GPU.
L’argument de Cahn est une douche froide pour les techno-optimistes, mais je voudrais m’attarder sur sa réfutation de l’analogie avec la bulle ferroviaire, car elle repose généralement sur des arguments superficiels. En général, ces comparaisons ont pour but rhétorique de suggérer que la surconstruction aura une valeur immense (tout en occultant la réalité et notre capacité à la comprendre). Je vais me plagier moi-même en résumant l’argument de Cahn, auquel j’ai répondu en mars lorsque j’ai présenté ma première version du cadre du consensus de la Silicon Valley. J’ai quelques réserves quant à l’argumentation de Cahn (en particulier les perspectives de croissance des revenus de l’IA), mais j’en suis arrivé à la conclusion qu’il a raison concernant l’écart entre les revenus et les centres de données, et tort sur certains points qui lui donnent l’espoir de sortir du gouffre des revenus et des dépenses d’investissement.
Résumé :
- Absence de pouvoir de fixation des prix : Cahn estime que si les chemins de fer confèrent des avantages monopolistiques naturels (l’espace disponible entre deux points est limité), il n’en va pas de même pour les centres de données GPU. Le calcul GPU est en train de se banaliser, le calcul IA peut être proposé via le cloud, et les prix sont donc soumis à la concurrence jusqu’à atteindre leur coût marginal (les compagnies aériennes sont citées en exemple).
- Incinération des investissements : les frénésies d’investissements spéculatifs sont courantes ! L’actif sous-jacent n’est pas plus à l’abri d’une dépréciation totale parce que d’énormes capitaux y ont été investis ; « il est difficile de choisir les gagnants, mais beaucoup plus facile de choisir les perdants (les canaux, dans le cas des chemins de fer) ».
- Dépréciation : le calcul diffère des infrastructures physiques en ce qu’il suit la loi de Moore. La production continue de puces de nouvelle génération moins coûteuses et plus performantes accélérera la dépréciation des puces de dernière génération. Cela fonctionne dans les deux sens : les marchés surestiment la valeur des puces actuelles et sous-estiment celle des puces de demain. « Comme le marché sous-estime le B100 et le rythme auquel les puces de nouvelle génération vont s’améliorer, il surestime la mesure dans laquelle les H100 achetés aujourd’hui conserveront leur valeur dans 3-4 ans. »
- Gagnants vs perdants : à long terme, la baisse des prix du calcul GPU sera une aubaine pour l’innovation et les start-ups, mais un fléau pour les investisseurs. « Les fondateurs et les créateurs d’entreprises continueront à miser sur l’IA, et ils auront plus de chances de réussir, car ils bénéficieront à la fois de coûts réduits et des enseignements tirés de cette période d’expérimentation. »
Ceci vient d’un capital-risqueur d’une entreprise qui croit en l’IA ! Les chemins de fer ne sont pas un bon moyen de comprendre ces technologies :
- Ils suscitent un intérêt superficiel pour les détails et les schémas historiques qui privilégient la narration, plutôt que de prêter attention aux revenus, au pouvoir de fixation des prix, au rendement des investissements, à la structure du marché, aux matières premières et aux produits.
- Mettre l’accent sur la différence entre l’histoire révisionniste et la réalité nous amène à nous poser des questions et à soulever des préoccupations qui nous aideront à mieux orienter nos actions futures qu’une analyse qui ne dépasse guère le niveau des impressions.
- Qu’est-ce que l’« économie de l’IA » concrètement ? Nous apprend-elle réellement quelque chose sur ce qui se passe dans le secteur ? Les investissements sont réels, ils ont lieu, mais ils ne génèrent pas de rendements. Alors, à quoi servent-ils ? Quelles décisions sont prises et quels intérêts émergent lorsque nous levons la tête pour regarder au-delà ? Qu’est-ce qui motive l’intérêt et le développement ? Qui est capable d’ignorer ce manque de rendements, quelles mesures sont prises pour les réaliser, quelles mesures sont prises en anticipant qu’ils ne se concrétiseront pas ?
LES BÉNÉFICES, ET NON LA DETTE, SONT LA PRINCIPALE SOURCE DE CAPITAL DE DÉVELOPPEMENT QUI MÉRITE D’ÊTRE EXAMINÉE
Il est vrai que les flux de trésorerie internes sont la principale source de financement des hyperscalers, mais : toutes les entreprises qui dépensent des capitaux ne sont pas des hyperscalers ; toutes les entreprises, même les hyperscalers, ne financent pas de la même manière les dépenses d’investissement dans l’IA. Nous aborderons ce sujet plus en détail lorsque nous arriverons à l’article de Noah Smith, mais pour l’instant, examinons deux de ses sources.
La première est Paul Kedrosky, qui présente une liste claire des principales sources de capitaux pour la construction en cours de centres de données :
D’où proviennent tous ces capitaux ?
Pour l’essentiel, de six sources :
- Flux de trésorerie internes (principaux pour Microsoft, Google, Amazon, Meta, etc.)
- Émission de dette (rôle croissant)
- Offres d’actions et offres secondaires
- Capital-risque / capital-investissement (CoreWeave, Lambda, etc.)
- SPV, crédit-bail et véhicules adossés à des actifs (comme récemment chez Meta)
- Engagements de consommation cloud (principalement les hyperscalers)
À un niveau très basique, chaque source de capital est différente. Certaines sont plus risquées que d’autres, certaines exigent des rendements plus élevés que d’autres, certaines sont beaucoup plus abondantes que d’autres, et elles ont donc des utilisations différentes pour les différentes entreprises impliquées dans la construction de l’infrastructure IA (et contribuent grandement à déterminer les priorités des différentes entreprises et de leurs projets pour répondre aux exigences imposées par le financement).
La deuxième source (The Economist) explique cela un peu plus clairement :
« Les dépenses d’investissement augmentent plus rapidement que les flux de trésorerie [des grandes entreprises technologiques]… Le centre névralgique du boom de l’IA se déplace des marchés boursiers vers les marchés obligataires… Au cours du premier semestre, les emprunts de qualité investissement des entreprises technologiques ont été supérieurs de 70 % à ceux des six premiers mois de 2024. En avril, Alphabet a émis des obligations pour la première fois depuis 2020. Microsoft a réduit sa trésorerie, mais ses contrats de location-financement (un type de dette principalement lié aux centres de données) ont presque triplé depuis 2023, pour atteindre 46 milliards de dollars (93 milliards de dollars supplémentaires de ce type de dettes ne figurent pas encore dans son bilan). Meta est en pourparlers pour emprunter environ 30 milliards de dollars auprès de prêteurs privés, notamment Apollo, Brookfield et Carlyle. Le marché des titres de créance adossés à des emprunts liés aux centres de données, où les passifs sont regroupés et fractionnés de manière similaire aux obligations hypothécaires, est passé de presque rien en 2018 à environ 50 milliards de dollars aujourd’hui
…
CoreWeave, une entreprise spécialisée dans le cloud artificiel, a emprunté généreusement auprès de fonds de crédit privés et d’investisseurs obligataires pour acheter des puces à Nvidia. Fluidstack, une autre start-up spécialisée dans le cloud computing, emprunte également massivement, en utilisant ses puces comme garantie. SoftBank, une entreprise japonaise, finance sa part d’un partenariat géant avec Openai, le fabricant de ChatGPT, par l’emprunt. « Ils n’ont pas réellement l’argent », a écrit Elon Musk lorsque le partenariat a été annoncé en janvier. Après avoir levé 5 milliards de dollars de dette au début de l’année, xAI, la propre start-up de M. Musk, emprunterait 12 milliards de dollars pour acheter des puces.
…
Cette escalade symbiotique est, d’une certaine manière, une publicité pour l’innovation américaine. Le pays dispose à la fois des meilleurs ingénieurs en IA au monde et des ingénieurs financiers les plus enthousiastes. Pour certains, c’est aussi un signe d’alerte. Les prêteurs pourraient se retrouver à prendre des risques technologiques, en plus des risques de défaut de paiement et de taux d’intérêt auxquels ils sont habitués. L’histoire des cycles de capital précédents devrait également les rendre nerveux. Les booms d’investissements conduisent souvent à une surconstruction, qui entraîne des faillites lorsque les rendements baissent. Les investisseurs en actions peuvent résister à un tel krach. Ce n’est pas le cas des investisseurs à effet de levier, tels que les banques et les assureurs-vie, qui détiennent des dettes hautement cotées qu’ils jugent sûres.
Une transaction qui vous rapporte d’énormes profits est différente d’une transaction où votre sponsor n’est pas très rentable, qui est différente d’une transaction où vous avez quelques clients fortunés, qui est différente d’une transaction où vous n’avez rien d’autre à offrir que votre talent ou certains actifs comme levier. Toute analyse de l’« économie de l’IA » qui prétend que ce terrain accidenté n’existe pas (ou qui minimise son importance) est, au mieux, une analyse incomplète.
Mais pour vraiment faire comprendre à quel point il est important de réfléchir à la dette, examinons un article publié en mars par Ed Zitron qui traitait de CoreWeave, un « fournisseur de cloud IA » qui permet aux entreprises d’IA de louer des GPU. Son modèle économique principal : acheter et vendre des GPU haut de gamme et l’infrastructure nécessaire à leur fonctionnement, principalement auprès de NVIDIA grâce à une relation privilégiée qui leur donne un accès prioritaire. Au moment où l’entreprise a reporté son introduction en bourse, la première du secteur de l’IA générative, Zitron a publié ce rapport pour expliquer pourquoi CoreWeave pourrait s’avérer être une bombe à retardement :
- La clientèle de CoreWeave est extrêmement concentrée, ce qui signifie que ses revenus sont vulnérables. Microsoft représentait 62 % de ses revenus pour 2024 et NVIDIA probablement 15 % supplémentaires. La relation étroite entre NVIDIA et CoreWeave a été accusée de s’apparenter à du « round-tripping » (« une pratique consistant pour les entreprises à gonfler leur chiffre d’affaires grâce à des accords réciproques qui ne créent pas toujours de réelle valeur économique »). Microsoft a déjà abandonné « certains services » avant l’introduction en bourse de CoreWeave, bien que cette dernière ait nié cette information. Qu’adviendra-t-il de CoreWeave si elle ne bénéficie plus d’un accès prioritaire aux puces NVIDIA ou si Microsoft réduit ses dépenses d’investissement dans l’IA (ce qu’elle a fait plus tôt cette année) ?
- Les pertes financières colossales de CoreWeave sont difficiles à ignorer. 1,9 milliard de dollars de revenus, 863 millions de dollars de pertes. Ces pertes, omniprésentes dans « l’économie de l’IA », alimentent le boom, mais pourquoi cela se produit-il dans une entreprise dont le modèle économique repose sur le calcul GPU, la seule chose dont toutes les entreprises d’IA ont besoin ? La demande est-elle insuffisante ? Les coûts sont-ils trop élevés ?
- CoreWeave est potentiellement paralysée par sa dette. L’entreprise a obtenu 8 milliards de dollars grâce à des prêts à taux d’intérêt élevés et à des prêts complexes et prédateurs. La plupart des capitaux levés par CoreWeave sont des dettes, à savoir deux facilités de prêt à terme à tirage différé (vous avez accès à une partie de l’argent, distribué par tranches qui se débloquent après des périodes ou certaines étapes). DDTL 1 : 2,3 milliards de dollars (entièrement tirés) garantis par un taux d’intérêt annuel effectif de 14,11 %, nécessitant des paiements trimestriels de 250 millions de dollars (1 milliard de dollars par an) pour rembourser le prêt. DDTL 2 : 7,63 milliards de dollars (tirage à moitié) avec un taux d’intérêt annuel de 10,5 % qui doublerait en cas de tirage intégral, ce qui nécessite donc 760 millions de dollars de paiements d’intérêts annuels pour rembourser le prêt, pouvant potentiellement doubler pour atteindre 1,52 milliard de dollars. Pour aggraver les choses, on ne sait pas comment CoreWeave obtiendra suffisamment de capitaux pour honorer ses obligations. CoreWeave « devra dépenser plus de 39 milliards de dollars pour construire son infrastructure informatique sous contrat », a déjà contracté des emprunts massifs pour financer ses dépenses d’investissement agressives (qui stipulent que tous les capitaux levés à l’avenir doivent être affectés au remboursement de la dette) et ne dispose pas des revenus nécessaires pour soutenir ses opérations ou payer ses intérêts.
- Coreweave a mis en garantie des calculateurs GPU, un actif qui se déprécie et qui pourrait créer un piège. Les GPU comme le H100 voient leur valeur chuter rapidement, en partie parce que, même avant toute défaillance mécanique, ils deviendront obsolètes à mesure que des puces plus avancées ou des tâches encore plus intensives seront développées. Les prix de location ont chuté de 8 $/heure à 1,47 $/heure en mars (ils sont même tombés à 0,90 $/heure au moment de la publication). Il n’est pas difficile d’imaginer un scénario dans lequel nous assistons à une spirale de dépréciation, la garantie d’un emprunt massif perdant de sa valeur et pouvant déclencher des clauses qui obligent à un remboursement anticipé, ce que CoreWeave n’a pas les moyens de faire.
- CoreWeave a trouvé un partenaire non éprouvé en Core Scientific. Core Scientific est une entreprise différente, une société minière de bitcoins qui est entrée en bourse en 2022 via une fusion SPAC, le véhicule financier frauduleux qui permet aux entreprises d’entrer en bourse alors qu’elles n’ont aucune activité pour le faire (Core Scientific a déposé le bilan en vertu du chapitre 11 la même année où elle est entrée en bourse via SPAC). Cette entreprise est au cœur de la stratégie commerciale de CoreWeave, malgré le fait qu’elle ait peu d’expérience dans le domaine des centres de données HPC/IA et que son projet consistait à « raser et reconstruire » l’infrastructure minière Bitcoin dans l’espoir de la réutiliser pour l’intelligence artificielle. Le fait que les « 1,3 GW de puissance contractuelle » promis par CoreWeave correspondent exactement à la capacité que Core Scientific prétend pouvoir construire devrait susciter quelques interrogations, mais hélas, nous allons de l’avant à toute vitesse avec un plan ambitieux exécuté par un partenaire non éprouvé qui dépend d’un plan d’affaires circulaire.
- Le formulaire S-1 de CoreWeave soulève de nombreuses questions. Il admet « des faiblesses importantes dans [son] contrôle interne des rapports financiers », suggérant « qu’il existe une possibilité raisonnable que des inexactitudes importantes dans nos états financiers annuels ou intermédiaires ne soient pas évitées ou détectées en temps opportun », et ce au plus tôt vers 2026 — rien d’inquiétant à ce sujet ! Nous pouvons également réfléchir à la structure à deux catégories d’actions de CoreWeave, dans laquelle 82 % des droits de vote sont détenus par les fondateurs sans qu’ils détiennent 30 % du capital. C’est un excellent moyen de dire aux actionnaires d’aller se faire voir, en marginalisant leurs intérêts et en donnant la priorité à des décisions qui vous permettent, par exemple, de tirer profit d’une entreprise commerciale non viable en « encaissant près de 500 millions de dollars avant l’introduction en bourse ».
- Le modèle économique de CoreWeave ressemble à celui de l’« économie de l’IA ». Comme le dit Zitron, « NVIDIA vend les pioches pour la ruée vers l’or, CoreWeave vend les pelles, et il semble surtout que cela ne rapporte que de la poussière ». Nous ne voyons pas de revenus malgré son rôle central dans l’écosystème, nous ne voyons pas de plans d’expansion clairs, nous ne voyons aucun signe fort indiquant qu’elle va prospérer, et tout cela jette le doute sur chaque fil de l’« économie de l’IA » qui la traverse. La demande réelle et rentable n’est-elle pas suffisante ? Les entreprises ne sont-elles pas en mesure de trouver des cas d’utilisation clairs et démontrables pour cette technologie au-delà du round-tripping ? Où est l’argent ? Où sont les profits ?
PREMIERS SIGNES POSITIFS D’ADOPTION AVEC QUELQUES RÉSERVES
L’une des principales affirmations de Thompson est que l’IA générative connaît une adoption généralisée, rapide et positive. La Fed de Saint-Louis estime que l’adoption de l’IA générative progresse à un rythme environ deux fois supérieur à celui de l’Internet à ses débuts. Cette statistique (39,4 % d’adoption d’ici août 2024, soit environ deux ans après le lancement de ChatGPT, contre environ 20 % pour l’Internet à un stade similaire) est présentée comme la preuve d’un potentiel de transformation inévitable. En outre, Thompson cite également des enquêtes Gallup montrant que les enseignants déclarent eux-mêmes avoir gagné en efficacité, ainsi que des données Stripe indiquant que les start-ups spécialisées dans l’IA atteignent plus rapidement des objectifs de chiffre d’affaires, mais il insiste sur les arguments optimistes même si des études objectives révèlent que les travailleurs se sentent plus productifs sans l’être réellement.
En mars, McKinsey a constaté que 71 % des entreprises déclaraient utiliser l’IA générative et que plus de 80 % d’entre elles déclaraient n’avoir constaté « aucun impact tangible sur l’EBIT au niveau de l’entreprise résultant de leur utilisation de l’IA générative ». Une récente analyse des affirmations selon lesquelles l’intelligence artificielle créait des « shovelware » qui permettraient de réaliser des gains d’efficacité a observé qu’il n’y avait pas eu d’impact notable sur les versions logicielles à travers le monde ces dernières années. Torsten Sløk, économiste en chef chez Apollo Global Management, vient de publier un rapport s’appuyant sur les données du Bureau du recensement des États-Unis et a constaté une baisse des taux d’adoption de l’IA dans les grandes entreprises. Des chercheurs du MIT ont suivi 300 initiatives d’IA rendues publiques et ont constaté que 95 % d’entre elles n’avaient pas permis d’augmenter les bénéfices. Nous pourrions continuer ainsi indéfiniment.
Cependant, les preuves d’une adoption rapide, généralisée et positive deviennent rapidement les plus faibles lorsqu’on les examine dans le contexte plus large de l’écosystème et de ses résultats décevants. Après tout, si l’adoption est si rapide et soutenue par des investissements dans les infrastructures plus importants que lors du boom des dot-com, pourquoi les mesures concrètes de la valeur économique (revenus solides, rentabilité durable) sont-elles si difficiles à obtenir pour le secteur central de l’IA ?
Prenons un exemple relativement récent. En février 2025, Zitron a fait valoir que nous manquions de rigueur dans notre réflexion sur la croissance de l’IA générative. Les affirmations de ChatGPT concernant ses 300 millions d’utilisateurs hebdomadaires, publiées en décembre 2024, ont été largement acceptées sans que leur véracité ou l’artifice de cette mesure ne soient vraiment remis en question. La plupart des articles présentent de manière erronée les capacités des produits d’IA générative et, comme l’écrit le professeur Rasmus Nielsen pour le Reuters Institute for the Study of Journalism, « prennent souvent pour argent comptant les affirmations sur ce que la technologie peut et ne peut pas faire, et pourrait être capable de faire à l’avenir, contribuant ainsi au cycle de hype ».
Si ChatGPT comptait 300 millions d’utilisateurs hebdomadaires à l’époque, nous sous-estimons l’ampleur de la couverture médiatique qui met constamment l’accent sur les arguments optimistes et reproduit les arguments de l’entreprise comme un battage médiatique, stimulant la demande pour un produit disponible gratuitement mais qui ne répond pas aux attentes commerciales. Une façon d’envisager la question : existe-t-il un point de référence utile pour une start-up qui a bénéficié d’une couverture médiatique aussi largement optimiste et sans critique que OpenAI ?
Si cela est vrai, cependant, 300 millions d’utilisateurs hebdomadaires, c’est beaucoup. Et pourtant, cela ne nous apprend pas grand-chose sur le produit réel ou sur la façon dont il est utilisé ! S’agit-il d’une entreprise durable ou rentable ? Comment les gens l’utilisent-ils à la maison ou au travail, dans quelle mesure leur utilisation est-elle occasionnelle ou intensive, etc.
Les données de veille économique numérique obtenues par Zitron suggèrent que le nombre de visiteurs uniques mensuels de ChatGPT a atteint 247,1 millions en novembre, ainsi qu’un aperçu du trafic hebdomadaire des visiteurs en janvier et février 2025, qui a atteint 136,7 millions. En général, votre site attire plus de visiteurs que d’utilisateurs, ce qui signifie que l’écart entre le trafic déclaré et le trafic réel ne fait que se creuser. Il ne peut être comblé par les données relatives aux applications mobiles : l’application iOS a été téléchargée 353 millions de fois au total à la fin janvier, donc dans le meilleur des cas, il faudrait au moins 100 millions d’utilisateurs mobiles par semaine pour combler cet écart. Le nombre d’utilisateurs actifs par mois n’est pas communiqué, même si, en théorie, ce chiffre devrait être plus élevé (« un utilisateur actif par mois est une personne qui utilise une application au moins une fois au cours d’un mois donné »), car il pourrait révéler la faiblesse du taux de conversion payant de l’entreprise !
Je serais surpris que vous trouviez plus d’une poignée de personnes dans l’écosystème médiatique au sens large qui s’intéressent à une discussion critique sur les chiffres publiés par OpenAI, leur caractère artificiel, la signification de telle ou telle mesure, les informations sur leurs activités et l’utilisation par les consommateurs qui nous sont refusées, et la manière dont tout cela influe sur notre capacité à évaluer avec précision l’adoption, l’impact, la durabilité ou, plus généralement, ce fichu modèle économique !
LE TECHNO-OPTIMISME EST-IL JUSTIFIÉ ?
Pour conclure, je ne vois pas clairement ce qui justifie la vision techno-optimiste de ce qui constitue « l’économie de l’IA ». Elle ignore les aspects financiers : elle néglige l’écart entre les revenus et les dépenses d’investissement, écarte la question de la manière dont elle générera des profits, se livre à des récits historiques révisionnistes pour justifier cette mauvaise économie et passe sous silence les mines de la dette qui alimentent la croissance. Elle ignore la technologie : elle ne s’intéresse pas à la structure du marché, à l’ampleur des coûts ou aux feuilles de route des produits. Elle ignore la réalité de l’adoption : elle s’accroche au battage médiatique, se laisse séduire par des récits simplistes, répète les arguments des entreprises et reproduit des hypothèses fragiles. Il nous reste une image de la réalité qui nous empêche d’expliquer pourquoi les choses sont telles qu’elles sont et ce qu’il faut faire pour y remédier. L’« économie de l’IA » telle qu’elle est présentée dans les cercles traditionnels et optimistes offre une vision déconnectée de la réalité, suffisamment mousseuse pour noyer les sceptiques, alimenter la spéculation et servir de couverture à des intérêts bien établis qui cherchent à s’enrichir aux dépens de tous les autres.
