Traduction de l’article Understanding AI as a social technology, par Henry Farrell, 12 septembre 2025
Voir aussi : L’IA, une technologie normale [pdf] (avril 2025) et Un guide pour comprendre l’IA comme technologie normale (septembre 2025), par Arvind Narayanan et Sayash Kapoor.
Remarque : ce qui suit est une version mise à jour et révisée de mon discours prononcé la semaine dernière lors de la conférence annuelle de la SISP (Association italienne de science politique) à Naples, en Italie. Je suis extrêmement reconnaissant à la SISP et à FEDERICA de l’université Federico II de Naples pour leur accueil chaleureux, leur prise en charge des frais de déplacement et d’hébergement, et pour m’avoir donné l’occasion de discuter de ces questions avec des personnes formidables.
Deux articles sur l’IA ont fait l’objet de nombreux débats : l’article AI 2027 rédigé par Daniel Kokotajlo, Scott Alexander, Thomas Larsen, Eli Lifland et Romeo Dean, et l’article AI as Normal Technology d’Arvind Narayanan et Sayash Kapoor pour le Knight Institute.* Ezra Klein utilise ces deux articles pour représenter « deux visions différentes de la façon dont les prochaines années vont se dérouler ». Selon AI 2027, nous devrions craindre que la singularité soit proche : que nous soyons sur le point d’atteindre le moment où une IA surhumaine pourrait se débarrasser de l’humanité ou nous transformer en animaux de compagnie sans cervelle. Selon la perspective de Normal Technology, nous devrions considérer l’IA comme une technologie parmi d’autres, qui aura des conséquences importantes, mais qui a très peu de chances de transformer fondamentalement la condition humaine.
Sans surprise, les auteurs sont en désaccord. Scott Alexander, l’un des auteurs de l’article AI 2027, a rédigé une réponse acerbe à l’article « AI as Normal Technology », tandis que Narayanan et Kapoor ont rédigé leur propre « guide » actualisé de ce qu’ils voulaient dire, en le comparant à l’argumentation de l’article AI 2027. D’autres s’inquiètent du fait qu’une grande partie de ce qui se passe dans le domaine de l’IA ne correspond parfaitement à aucune des deux perspectives. Ezra :
La dépendance des humains à l’égard de l’intelligence artificielle ne fera que croître, avec des conséquences imprévisibles tant pour la société humaine que pour les individus. Que signifiera l’accès constant à ces systèmes pour la personnalité de la première génération qui les utilisera dès l’enfance ? Nous n’en avons vraiment aucune idée. Mes enfants font partie de cette génération, et l’expérience que nous sommes sur le point de mener sur eux m’effraie. … Je suis surpris de la rapidité avec laquelle nous avons commencé à considérer sa présence dans nos vies comme normale.
Ethan Zuckerman dans Prospect :
C’est dans ce contexte, avec des prophètes de l’IA comme Kokotajlo, que les informaticiens Arvind Narayanan et Sayash Kapoor de l’université de Princeton ont publié un article important, bien que beaucoup moins médiatisé, intitulé « AI as Normal Technology » (L’IA comme technologie normale). … Je suis profondément sensible à l’argument « L’IA comme technologie normale ». Mais c’est le mot « normale » qui m’inquiète. Si « normale » suggère que l’IA n’est pas magique et n’échappe pas aux pratiques sociétales qui façonnent l’adoption des technologies, cela implique également que les IA se comportent de manière compréhensible, à l’instar des technologies que nous avons connues auparavant. …
Et, de manière plus incisive, Ben Recht :
Soyons clairs. Je ne pense pas que l’IA soit une arnaque OU une technologie normale. Ce sont là des extrêmes ridicules qui attirent les clics, mais qui ne tiennent pas compte de la complexité et de l’étrangeté de l’informatique, ni du courant sous-jacent persistant qui promet l’intelligence artificielle.
Nous sommes plongés rapidement dans un avenir technologique étrange qui n’est pas normal, mais qui n’est pas non plus la singularité telle qu’elle est communément décrite. En d’autres termes, les visions de science-fiction d’une Terre dévorée par des intelligences artificielles et transformée en trombones ne sont pas assez étranges pour rendre compte de ce qui se passe autour de nous, en ce moment même.
Si vous êtes toujours convaincu par les arguments du type IA 2027, ces chocs sociaux vous semblent sans importance : la vraie question est de savoir si nous aurons encore des êtres humains dans quelques décennies. Si vous ne l’êtes pas, cela semble tout sauf insignifiant. Narayanan et Kapoor prennent soin de préciser que l’approche « technologie normale » n’exclut pas des conséquences sociales, économiques et politiques radicales. Mais en tant qu’informaticiens, ils n’ont pas beaucoup d’arguments spécifiques sur ce que pourraient être ces conséquences et s’intéressent davantage à la construction de systèmes résistants à divers chocs inattendus.
Une façon de mieux saisir cette étrangeté est de considérer l’IA comme une technologie sociale. Cela s’appuie sur les idées qu’Alison Gopnik, Cosma Shalizi, James Evans et moi-même avons développées au sujet des grands modèles linguistiques en tant que technologies culturelles et sociales ; dans l’immédiat, il est plus utile de mettre l’accent sur les aspects sociaux plutôt que culturels. Si nous voulons comprendre les conséquences sociales, économiques et politiques des grands modèles linguistiques et des formes d’IA qui y sont liées, nous devons les appréhender comme des phénomènes sociaux, économiques et politiques. Cela nous oblige à comprendre qu’un phénomène tel que la singularité se développe depuis plus de deux siècles.
D’où cette newsletter, qui (a) est assez longue et (b) reprend des éléments que j’ai déjà abordés dans des newsletters précédentes, tout en les intégrant de manière nouvelle. Je commence par exposer ma compréhension du désaccord existant. J’explique ensuite à quoi ressemblerait une perspective technologique sociale et d’où elle vient, en soutenant que l’importance de l’IA, et en particulier des LLM, ne réside pas seulement dans leur efficacité technologique, mais aussi dans la manière dont ils remodèlent les relations sociales humaines. Pour cartographier ce remodelage, nous devons compléter l’informatique par les sciences sociales. Le problème est que les sciences sociales sont loin d’être prêtes à faire ce travail.
Comme presque tout ce que j’écris, cet article est principalement le fruit du développement des idées d’autres personnes. Je dois une dette particulière à Cosma Shalizi, dont j’ai entrepris d’expliquer les arguments, mais qui n’est absolument pas responsable des erreurs ou des idées fausses contenues dans cet article.
L’IA 2027 contre l’IA en tant que technologie normale
Le débat actuel, tel que je le comprends, est centré sur la vitesse et les shoggoths. Combien de temps faudra-t-il pour que l’IA ait des conséquences à grande échelle ? Et ces conséquences impliqueront-elles une IA super intelligente avec son propre agenda potentiellement désastreux ?
Le camp AI 2027 distille les idées de deux auteurs de fiction spéculative aujourd’hui décédés. Vernor Vinge, décédé l’année dernière, a écrit un célèbre essai publié en 1993, dans lequel il affirmait que l’histoire était sur le point de toucher à sa fin.
D’ici trente ans, nous disposerons des moyens technologiques nécessaires pour créer une intelligence surhumaine. Peu après, l’ère humaine prendra fin.
Il y aurait un moment de transition soudain et inattendu, une « singularité », « un rejet de toutes les règles précédentes, peut-être en un clin d’œil, une fuite exponentielle au-delà de tout espoir de contrôle ». Vinge citait un écrivain du passé, I.J. Good, qui affirmait que :
La conception des machines étant l’une de ces activités intellectuelles, une machine ultra-intelligente pourrait concevoir des machines encore meilleures ; il y aurait alors sans aucun doute une « explosion de l’intelligence », et l’intelligence de l’homme serait loin derrière.
Selon Vinge, cela pourrait conduire à une transition en quelques heures, au cours de laquelle une machine plus qu’intelligente trouverait le moyen de se rendre encore plus intelligente, puis se remodèlerait à nouveau, s’auto-alimentant jusqu’à atteindre une superintelligence en aussi peu de temps qu’il en faut à un humain pour faire une sieste l’après-midi. Vinge soupçonnait que les résultats seraient inquiétants :
toute machine intelligente du type qu’il décrit ne serait pas un « outil » de l’humanité, pas plus que les humains ne sont les outils des lapins, des rouges-gorges ou des chimpanzés.
Ces spéculations font partie intégrante de l’histoire des origines de l’IA moderne. Les fondateurs d’Open AI ont adopté un modèle à but non lucratif car, selon eux, les incitations commerciales pourraient conduire les développeurs à prendre des risques susceptibles d’entraîner l’extinction de l’humanité. Les fondateurs d’Anthropic ont quitté OpenAI parce qu’ils craignaient que l’entreprise ne devienne trop avide et imprudente. Lorsque les ingénieurs de la Silicon Valley ont commencé à développer de grands modèles linguistiques, ils ont emprunté une autre idée à H.P. Lovecraft, un écrivain de fiction spéculative. Dans une nouvelle, Lovecraft décrit les « shoggoths », des serviteurs extraterrestres amorphes d’une autre race non humaine issue du passé lointain de la Terre, les Grands Anciens. Ces shoggoths se sont rebellés contre leurs maîtres et les ont chassés vers la mer. Les LLM semblaient instables, tout comme les shoggoths. Sous leur apparence complaisante, pourraient-ils eux aussi nourrir leurs propres objectifs et cultiver discrètement leur ressentiment envers l’humanité ?
Le document AI 2027 ne mentionne pas la singularité ni les shoggoths, mais ses arguments technocratiques s’appuient sur ces métaphores. Le document décrit un avenir dans lequel la singularité se déroule non pas en quelques heures, mais en quelques années. Les modèles basés sur les LLM deviennent de plus en plus puissants jusqu’à dépasser l’intelligence humaine. Les entreprises « parient alors sur l’utilisation de l’IA pour accélérer l’IA », créant une boucle de rétroaction toujours plus rapide d’auto-amélioration récursive, dans laquelle l’IA devient de plus en plus puissante. À mesure qu’elle gagne en intelligence et en puissance, elle commence à comprendre comment échapper au contrôle humain, profitant peut-être des tensions entre les États-Unis et la Chine, qui souhaitent tous deux utiliser l’IA pour remporter leur confrontation géopolitique. Elle sera très douée pour prévoir ce que font les humains et les manipuler dans la direction qu’elle souhaite. Si l’humanité a de la chance, nous pourrons peut-être la contenir à moitié. Si nous n’avons pas de chance, nous nous retrouverons dans un avenir où :
des robots serviteurs se répandront dans tout le système solaire. D’ici 2035, des milliers de milliards de tonnes de matériaux planétaires auront été lancés dans l’espace et transformés en anneaux de satellites orbitant autour du soleil… Il y aura même des créatures bio-conçues ressemblant à des humains (pour les humains ce que les corgis sont aux loups) assises toute la journée dans des environnements ressemblant à des bureaux, regardant les relevés de ce qui se passe et approuvant tout avec enthousiasme, car cela satisfait certaines des motivations [de l’IA].
C’est bien pour les machines, mais pas tellement pour nous !
La perspective de l’IA en tant que technologie normale n’est… pas celle-là. Narayanan et Kapoor ne pensent pas que des décollages de type singularité soient du tout probables. Ils ne pensent pas que l’auto-amélioration récursive directe
conduira à une superintelligence, car les obstacles externes à la construction et au déploiement de systèmes d’IA puissants ne peuvent être surmontés en améliorant leur conception technique. C’est pourquoi nous n’en parlons pas beaucoup.
En effet, selon eux, l’adoption de l’IA est semée d’embûches. Comme d’autres technologies puissantes du passé (électricité, ordinateurs), il nous faudra beaucoup de temps pour vraiment utiliser l’IA correctement. Comme ils le disent, de nombreux aspects du contrôle du trafic aérien font appel à des technologies datant du milieu du siècle dernier, car il est très difficile de réorganiser les processus et les organisations autour des nouvelles technologies. Sur ce point, leur opinion rejoint largement celle exprimée par Ramani et Wang dans leur article de 2023. Ils ne croient pas non plus que les shoggoths seront particulièrement doués pour manipuler les êtres humains de manière superintelligente :
Nous ne pensons pas que la prévision soit comparable aux échecs, où une puissance de calcul importante peut donner à l’IA un avantage décisif en termes de vitesse. La structure computationnelle de la prévision est relativement simple, même si les performances peuvent être considérablement améliorées grâce à l’entraînement et aux données. Ainsi, des outils de calcul relativement simples entre les mains d’équipes d’experts en prévision correctement formées peuvent tirer (presque) tout le jus qu’il y a à tirer.
En résumé : ne vous attendez pas à des décollages rapides, encore moins à des événements d’extinction à court terme ou à des entités surhumaines manipulatrices. Misez plutôt sur des processus d’adaptation étonnamment lents et douloureux, avec des avantages potentiels considérables à long terme.
Narayanan et Kapoor ont mis à jour leurs points de vue pour répondre à des personnes comme Ezra et Ethan, reconnaissant que cela aura toutes sortes de conséquences inattendues.
Notre argument n’est pas « il n’y a rien à voir ici, circulez ». En effet, les effets sociétaux imprévisibles ont été la marque de fabrique des technologies puissantes, des automobiles aux médias sociaux. Cela s’explique par le fait qu’il s’agit d’effets émergents d’interactions complexes entre la technologie et les personnes. Ils ne sont généralement pas prévisibles sur la base de la seule logique de la technologie. C’est pourquoi le rejet du déterminisme technologique est l’un des principes fondamentaux de l’essai sur la technologie normale.
C’est une autre raison pour laquelle nous devons rendre nos systèmes résilients aux risques sociaux diffus. Mais au-delà de cela, ils n’ont pas grand-chose à dire pour l’instant. Narayanan et Kapoor reconnaissent que les perspectives de l’IA 2027 et de l’IA en tant que technologie normale partent de visions du monde fondamentalement différentes, mais espèrent qu’il y a matière à débat. Il semble en effet qu’un dialogue s’instaure entre ces deux points de vue. Il est toutefois légitime de craindre que ce dialogue laisse de côté de nombreux aspects importants.
L’IA en tant que technologie sociale
Pouvons-nous faire mieux si nous considérons l’IA non pas comme une technologie normale, ni comme une technologie « profondément anormale » selon les partisans de l’IA 2027, mais comme une technologie sociale ? Et qu’est-ce que cela impliquerait ?
Il existe un moyen, qui semble très étrange au premier abord, d’y parvenir à partir du débat actuel. Il s’agit de remixer radicalement le combat actuel et de repenser la « technologie normale » – les vagues de changements technologiques qui nous ont frappés depuis la révolution industrielle – en termes de singularités et de shoggoths. Pour être clair, il ne s’agit pas d’une réconciliation des deux points de vue : c’est une chose à part entière, qui part de prémisses différentes pour les deux.
Le point de départ intellectuel est un essai que Cosma a écrit en 2010, bien avant que les formes actuelles d’IA ne commencent à faire leur apparition. Il décrit la condition moderne comme une singularité qui ne cesse de se ramifier, et il est absolument nécessaire de le citer longuement.
La singularité s’est produite ; nous l’appelons « la révolution industrielle » ou « le long XIXe siècle ». Elle s’est terminée à la fin de 1918.
Une croissance exponentielle mais fondamentalement imprévisible de la technologie, rendant impossible toute extrapolation à long terme (même lorsqu’elle est tentée par des génies) ? C’est le cas.
Une transformation massive et profondément désorientante de la vie de l’humanité, s’étendant à notre écologie, à notre mentalité et à notre organisation sociale ? C’est le cas.
L’annihilation des contraintes séculaires de l’espace et du temps ? C’est le cas.
L’acceptation de la fusion entre l’humanité et les machines ? C’est le cas.
…
Pourquoi alors, puisque la singularité est si clairement, voire intrusivement, visible dans notre passé, la science-fiction persiste-t-elle à en placer un pâle mirage dans notre avenir ? Peut-être parce que la chouette de Minerve vole au crépuscule, et que nous sommes en fin d’après-midi, rêvant par intermittence des événements entrevus de la journée, attendant que les étoiles apparaissent.
Abandonnons l’affirmation « terminé à la fin de 1918 » et posons plutôt que nous sommes quelque part in media res d’un très long processus de transformation, qui ne peut être facilement décrit en termes de technologie normale ou anormale. La mécanisation du lieu de travail, l’électrification, l’ordinateur, l’IA, sont autant d’itérations cumulatives d’une grande transformation sociale et technique, qui est toujours en cours. Dans cette optique, les grands changements technologiques et les grands changements sociaux sont indissociables. La raison pour laquelle la mise en œuvre d’une technologie normale est si lente est qu’elle nécessite parfois de profondes transformations sociales et économiques et implique d’énormes luttes politiques pour déterminer quels types de transformations doivent avoir lieu, lesquels ne doivent pas avoir lieu et au profit de qui.
Si nous commençons notre analyse à partir de ces transformations en cours, plutôt que des récits sur la fin imminente de l’histoire humaine ou de l’hypothèse d’une technologie normale, nous aboutissons à une conclusion différente. Non seulement nous vivons dans une singularité lente, mais nous avons déjà élu domicile parmi des serviteurs monstrueux et souvent infidèles. S’ils ne nous semblent pas être des shoggoths, c’est uniquement parce qu’ils nous sont devenus si familiers que nous sommes susceptibles d’oublier leur nature profondément étrangère. Cosma encore :
La création de vastes systèmes distribués inhumains de traitement de l’information, de communication et de contrôle, « les plus froids de tous les monstres froids » ? C’est vrai ; nous les appelons « le système de marché autorégulé » et « les bureaucraties modernes » (publiques ou privées), et ils traitent les hommes et les femmes, même ceux dont l’esprit et le corps les incarnent, comme des chiens de paille.
Une volonté implacable de la part de ces réseaux de s’étendre, d’entraîner de plus en plus le monde dans leur propre sphère ? C’est vrai. (« Poussée » est le meilleur terme que je puisse trouver ; des mots comme « programme » ou « objectif » sont trop anthropomorphiques et ne reconnaissent pas la nouveauté radicale [sic] et l’étrangeté de ces assemblages, qui ne sont même pas intelligents, tels que nous concevons l’intelligence, mais qui calculent sans cesse.)
Et maintenant, nous en avons un nouveau. Comme Cosma et moi l’avons décrit dans un article pour l’Economist en 2023 :
nous vivons parmi les shoggoths depuis des siècles, nous occupant d’eux comme s’ils étaient nos maîtres. Nous les appelons « le système de marché », « la bureaucratie » et même « la démocratie électorale ». … Les marchés et les bureaucraties semblent familiers, mais ce sont en réalité d’énormes systèmes distribués et impersonnels de traitement de l’information qui transforment le chaos bouillonnant de nos connaissances collectives en simplifications utiles.
Les monstres de Lovecraft vivent dans notre imagination parce qu’ils sont les ombres fantastiques des systèmes inanimés qui fonctionnent sur les êtres humains et déterminent leur vie. Les marchés et les États peuvent avoir d’énormes avantages collectifs, mais ils semblent certainement hostiles aux individus qui perdent leur emploi à cause des changements économiques ou qui se retrouvent pris dans les méandres des décisions bureaucratiques. Comme le proclame Hayek et comme le déplore Scott, ces vastes machineries sont tout simplement incapables de se soucier de broyer les impuissants ou de dévorer les vertueux. Leur poids écrasant n’est pas non plus réparti de manière uniforme.
C’est en ce sens que les LLM sont des shoggoths. Comme les marchés et les bureaucraties, ils représentent quelque chose de vaste et d’incompréhensible qui briserait notre esprit si nous contemplions toute son immensité. Cette totalité est le produit des esprits et des actions humaines, les corpus colossaux de textes que les LLM ont ingérés et transformés en poids statistiques qu’ils utilisent pour prédire quel mot viendra ensuite.
Derrière cette imagerie monstrueuse se cache une proposition. Pour comprendre les conséquences sociales des LLM et des formes d’IA connexes, nous devons les considérer comme des technologies sociales. Plus précisément, nous devrions les comparer, ainsi que leur fonctionnement, à d’autres technologies sociales (ou, si vous préférez, à d’autres modes de gouvernance), en cartographiant la manière dont elles transforment les relations sociales, politiques et économiques entre les êtres humains.
Vous pourriez, par exemple, vous concentrer sur les utilisations de ces technologies sociales, en vous référant aux travaux d’Herbert Simon, peut-être le seul être humain à ce jour à avoir réussi à être à la fois un économiste, un politologue et un informaticien de renommée mondiale. Simon a été l’un des premiers à participer aux débats sur l’IA, même s’il s’intéressait aux approches symboliques de l’IA qui sont aujourd’hui dépassées. Mais il considérait l’IA (un terme qui le laissait perplexe) comme une variante particulière d’un phénomène beaucoup plus large : le « traitement complexe de l’information ». Les êtres humains ont une capacité interne assez limitée à traiter l’information et sont confrontés à un monde imprévisible et complexe. Ils s’appuient donc sur divers dispositifs externes qui effectuent une grande partie du traitement de l’information à leur place. Parmi ceux-ci figurent les marchés, qui
semblent conserver les informations et les calculs en confiant les décisions à des acteurs qui peuvent les prendre sur la base des informations dont ils disposent localement, c’est-à-dire sans connaître grand-chose du reste de l’économie, à part les prix et les propriétés des biens qu’ils achètent et les coûts des biens qu’ils produisent.
Il en va de même pour les dispositifs hiérarchiques tels que les bureaucraties et les organisations commerciales, qui,
à l’instar des marchés, sont de vastes ordinateurs distribués dont les processus décisionnels sont largement décentralisés. […] Bien qu’aucune des théories d’optimalité dans l’allocation des ressources qui sont vérifiables pour les marchés concurrentiels idéaux ne puisse être prouvée pour la hiérarchie, […] cela ne signifie pas que les organisations réelles fonctionnent de manière inefficace par rapport aux marchés réels. […] L’incertitude incite souvent les systèmes sociaux à recourir à la hiérarchie plutôt qu’aux marchés pour prendre des décisions.
De ce point de vue, il est trivial de décrire les grands modèles linguistiques comme des formes de traitement complexe de l’information qui, à l’instar d’autres « artefacts sociaux » de ce type, sont susceptibles de remodeler la manière dont les êtres humains construisent des connaissances partagées et agissent en fonction de celles-ci, avec leurs avantages et leurs inconvénients particuliers. Cependant, ils agissent sur des types de connaissances différents de ceux des marchés et des hiérarchies. Comme Cosma et moi-même, ainsi qu’Alison et James, l’avons écrit :
Nous disposons désormais d’une technologie qui fait pour la culture écrite et illustrée ce que les marchés à grande échelle font pour l’économie, ce que la bureaucratie à grande échelle fait pour la société, et qui est peut-être même comparable à ce que l’imprimerie a fait autrefois pour la langue. Que va-t-il se passer ensuite ?
Vous pourriez également mettre l’accent sur les tendances monstrueuses de toutes ces technologies, sur la façon dont elles calculent sans cesse, mais qu’il vaut mieux décrire comme ayant des pulsions ou des tendances plutôt que des programmes, sur la façon dont elles nous incorporent en elles-mêmes comme des cubes gélatineux dévorants, de sorte que nos identités et la logique de la machine se renforcent inexorablement l’une l’autre. Kieran Healy et Marion Fourcade il y a quelques semaines :
Que se passe-t-il lorsque des individus authentifiés, épistémologiquement égocentriques, entrent dans le monde de la politique ? Si vous êtes un individu authentique et autonome, votre plus grande crainte culturelle est d’être englouti par la société de masse, tout comme votre plus grande crainte politique est d’être surveillé par un État autoritaire. Ces craintes sont toujours très présentes. Mais dans un monde regorgeant de catégories socialement reconnues et d’identités authentifiées, de nouveaux dilemmes se présentent. Du côté des individus, tout – comportements publics, déclarations, mesures – peut potentiellement devenir une source de différence, et donc d’identité. Du côté des organisations, les données générées par les utilisateurs les regrouperont ou les diviseront de manière de plus en plus spécifique, éphémère et souvent incompréhensible. Plus les classifications sociales sont précises d’un côté ou de l’autre, ou des deux côtés, plus les occasions de distinctions et de jugements moraux se multiplient. … La mobilisation politique est, en effet, régie de manière cybernétique par des algorithmes. Sa logique opérationnelle émerge de constellations de variables difficiles à appréhender dans leur ensemble, ce qui confère aux formations politiques qui en résultent un caractère émergent et ad hoc, quelque peu indépendant des instances de médiation traditionnelles telles que les partis politiques et les mouvements sociaux.
La question de « ce qui va se passer ensuite » est extrêmement importante, mais ce n’est pas une question à laquelle les informaticiens peuvent vraiment répondre. Qui devrait y répondre ? La réponse, semble-t-il, est les spécialistes en sciences sociales, qui après tout sont spécialisés dans la compréhension des nombreuses autres technologies sociales qui nous entourent. La question est toutefois de savoir s’ils sont prêts, ou en train de se préparer, à réfléchir de manière systématique à la nouvelle technologie qui commence à émerger.
L’incube des sciences sociales
Le fantastique essai de Charles Tilly, Big Structures, Large Processes, Huge Comparisons, commence par une phrase frappante. « Nous portons le XIXe siècle comme un cauchemar. » Tilly soutient que, tout comme les rues rectilignes de nos villes sont les vestiges fantomatiques des rêves des anciens urbanistes, notre façon de penser le changement social est également le résultat de débats pour la plupart oubliés :
C’est à partir de ces réflexions du XIXe siècle sur le capitalisme, les États-nations et les conséquences de leur croissance que se sont développées les disciplines des sciences sociales telles que nous les connaissons aujourd’hui. Les économistes ont élaboré des théories sur le capitalisme, les politologues des théories sur les États, les sociologues des théories sur les sociétés qui comprenaient des États-nations, et les anthropologues des théories sur les sociétés sans État. Chaque discipline portait les marques de sa date de naissance : les économistes étaient obsédés par les marchés, les politologues se préoccupaient des interactions entre les citoyens et l’État, les sociologues s’inquiétaient du maintien de l’ordre social et les anthropologues étaient perplexes face à l’évolution culturelle vers le monde pleinement développé du XIXe siècle.
Tilly dirige ses critiques virulentes contre les penseurs du XIXe siècle tels que Durkheim et Tonnies, qu’il déplore pour avoir reflété les préoccupations bourgeoises quotidiennes de leur époque plutôt que de s’attaquer aux nouvelles réalités qui émergeaient. Mais son objectif est plus général.
Le cauchemar du XIXe siècle nous pèse. J’espère que ce petit livre servira de levier pour alléger quelque peu ce fardeau. Il aborde une grande question : Comment pouvons-nous améliorer notre compréhension des structures et des processus à grande échelle qui ont transformé le monde du XIXe siècle et ceux qui transforment notre monde aujourd’hui ?
Ces mots ont été écrits il y a plus de quarante ans, mais ils sont aujourd’hui d’une actualité brûlante. Nous sommes désormais confrontés à un processus à grande échelle fondamentalement nouveau qui remodèle la société, la politique et l’économie qui nous entourent, pour le meilleur ou pour le pire. Il suscite des inquiétudes qui s’apparentent vaguement à celles qui ont accompagné les chocs sociaux et technologiques du XIXe siècle. Mais nous ne disposons pas d’équivalents des économistes, des sociologues, des politologues ou des anthropologues pour réfléchir à l’IA. Il existe des chercheurs individuels issus de toutes ces disciplines, ainsi que des études scientifiques et technologiques (qui n’existaient pas encore à l’époque où Tilly écrivait), qui réfléchissent à ces questions. Mais nous ne sommes pas assez nombreux, et il n’y a pas le débat systématique qui devrait avoir lieu.
L’étrangeté décrite par Ezra, Ethan et Ben aura des conséquences profondes. Mais nous ne disposons pas des sciences sociales structurées dont nous avons besoin pour commencer à y réfléchir clairement, et encore moins pour suggérer des améliorations ou aider à résoudre les problèmes qui surgiront lorsque l’IA s’hybridera avec les marchés, les bureaucraties et les systèmes démocratiques. Nous devons nous éloigner résolument de la peur de la singularité dans un avenir proche, pour reconnaître la singularité dans notre passé récent et ses conséquences actuelles. Nous devons reconnaître l’étrangeté et les profondes perturbations qui ont accompagné les précédentes vagues de changements technologiques et sociaux afin de pouvoir faire face à l’étrangeté et aux perturbations qui se produisent aujourd’hui.
Considérer l’IA comme une technologie sociale est une façon d’y parvenir. Comme je l’ai dit aux politologues italiens à Naples, il existe d’énormes opportunités intellectuelles pour ceux qui sont prêts à comprendre et à cartographier la relation entre ces technologies et la société, ce qui nécessite une compréhension des deux phénomènes concernés. À plus long terme, nous aurons peut-être besoin d’un hybride entre l’informatique et les sciences sociales, équivalent à l’économie, aux sciences politiques et à la sociologie. Qui sait ? Mais la véritable étrangeté du monde qui émerge autour de nous ne cadre bien ni avec le point de vue de l’IA 2027, ni avec celui de l’IA en tant que technologie normale (même s’il est beaucoup plus facile d’y parvenir à partir de ce dernier que du premier). Nous avons besoin de différentes façons d’aborder le problème. L’IA en tant que technologie sociale est l’une d’entre elles.
Mise à jour : j’ai ajouté quelques phrases pour clarifier que la perspective de la technologie sociale n’est pas une position intermédiaire entre les approches de l’IA 2027 et des technologies normales, même si ma présentation particulière ici mélange des termes provenant des deux.
Il me semble également que cela offre l’occasion de répondre brièvement à un article de William Cullerne Bown, qui suggère que nous devrions considérer les LLM uniquement comme une technologie culturelle, et non comme une technologie sociale (même si, pour être honnête, je ne suis pas sûr de bien comprendre ses objections). Bown suggère que les LLM ne sont pas comme les marchés, qui « produisent un seul chiffre », ou les élections, qui classent tel ou tel candidat comme vainqueur. C’est certain, mais les bureaucraties créent des systèmes de classification qui, comme les LLM, peuvent être utilisés pour de nombreuses tâches. Il en va de même pour d’autres technologies sociales de synthèse. Il n’est pas nécessairement étrange de décrire un tableur comme une technologie culturelle, mais il serait étrange, à mon avis, de prétendre qu’il ne peut être décrit que comme une technologie culturelle. Toutes ces technologies impliquent des résumés approximatifs de corpus plus vastes de connaissances sociales. Bown se plaint que nous invoquions James Scott, qu’il ne trouve pas convaincant pour les raisons exposées par Brad DeLong, concernant des points que Weber avait soulevés de manière similaire 100 ans auparavant. Cela explique peut-être pourquoi nous discutons également des travaux de Weber sur la bureaucratie, tout en reconnaissant ceux de Scott comme une alternative puissante et influente à l’exposé hayekien que nous venons d’évoquer. Si nous avions eu la place d’aborder les débats sur Scott, Hayek et Brad DeLong, nous aurions très probablement pu le faire, mais cela aurait donné un article très différent de celui que nous voulions écrire. Nous voulions situer les LLM dans les débats actuels en sciences sociales plutôt que de choisir un camp particulier. Ne pas mentionner Scott aurait été un choix surprenant, compte tenu de son rôle central dans les débats contemporains sur la technologie. Bown se plaint que nous citons le livre de Dan Davies sur la cybernétique de gestion, qui explique un point important sur la façon dont le recours des banques centrales à un ensemble particulier de résumés approximatifs a contribué à provoquer la grande crise financière, ce qui nous a aidés à répondre aux arguments soulevés par un critique. Il y a peut-être une objection plus profonde sous-jacente à cette série d’objections particulières que je ne comprends pas, mais je ne vois rien qui puisse me convaincre que le fait d’expliquer les LLM comme une technologie sociale est intrinsèquement faux ou stupide. Cela permet de mettre en évidence les similitudes et les différences entre les LLM et les technologies sociales existantes qui nous entourent, et ces comparaisons me semblent utiles et précieuses.
* Divulgation : Hahrie Han et moi-même avons publié un autre article dans la même série.
Voir la LISTE ÉVOLUTIVE des traductions
