La transformation infrastructurelle de la sphère publique par l’économie de plateforme : Facebook et Cambridge Analytica revisités

Anna-Verena Nosthoff et Felix Maschewski

Traduction de The platform economy’s infrastructural transformation of the public sphere: Facebook and Cambridge Analytica revisited, publié dans le numéro spécial de Philosophy & Social Criticism sur le thème Structural Transformation of the Public Sphere.


Résumé

Dans une perspective socio-théorique et médiatique, cet article analyse des pratiques exemplaires et les caractéristiques structurelles des campagnes politiques numériques contemporaines afin d’illustrer la transformation de la sphère publique à travers l’économie des plateformes. L’article examine tout d’abord Cambridge Analytica et reconstitue son mode de fonctionnement qui, loin d’impliquer des pratiques de campagne numérique exceptionnellement nouvelles, s’avère assez classique. Il évalue ensuite le rôle de Facebook en tant qu’« infrastructure affective » facilitatrice, orchestrant technologiquement les processus de formation de l’opinion politique. Une attention particulière est accordée aux différentes tactiques de « propagande par rétroaction » et d’engagement des utilisateurs basées sur des algorithmes qui reflètent, à un niveau plus théorique, la fusion de la commercialisation capitaliste de la surveillance avec une logique cybernétique de la communication. L’article suggère que cette dynamique techno-économique reflète la poursuite de la transformation structurelle de la sphère publique. Ce que Jürgen Habermas avait analysé en termes de fabrication économique de la sphère publique dans les années 1960 se poursuit aujourd’hui sous une forme plus radicale et sur une base plus programmatique, à travers l’architecture algorithmique des réseaux sociaux. Comme le soutiennent les auteurs, ce processus conduira à terme à une nouvelle forme de « pouvoir infrastructurel ».

Mots clés

campagne numérique, sphère publique, réseaux sociaux, Facebook, Cambridge Analytica, Habermas, cybernétique, capitalisme numérique, ciblage des électeurs, pouvoir infrastructurel


Introduction : Facebook et les « charlatans »1

Le 30 décembre 2019, Andrew Bosworth, ancien vice-président (VP) de Facebook chargé de la publicité et des affaires commerciales, aujourd’hui VP de la réalité augmentée et virtuelle (RA/RV), a publié une note à l’intention de ses collaborateurs sur sa page Facebook interne, dans laquelle il partageait quelques « réflexions pour 2020 ». Dans son message, « Boz », qui avait été personnellement responsable des publicités politiques pendant la campagne présidentielle américaine de 2016, a fait le bilan des dernières années et a noté, à propos de la victoire électorale de Donald Trump : « Il a été élu parce qu’il a mené la meilleure campagne publicitaire numérique que j’ai jamais vue de la part d’un annonceur ». Il a également fait référence à une entreprise qui a depuis acquis une grande notoriété : Cambridge Analytica (CA).

Bosworth a consacré une partie importante de sa déclaration à CA. D’une part, il a établi, en termes analytiques sobres :

« L’entreprise […] a commencé par mener des enquêtes sur Facebook afin d’obtenir des informations sur les utilisateurs. Elle s’est ensuite transformée en une société de publicité, faisant partie de notre programme Facebook Marketing Partner, que d’autres entreprises pouvaient engager pour diffuser leurs publicités. Elle s’est fait connaître grâce au ciblage psychographique. […] ; ses publicités n’étaient pas plus performantes que celles de n’importe quel autre partenaire marketing.»

D’autre part, le langage qu’il a choisi pour évoquer cette entreprise, qui a provoqué le plus grand scandale lié aux données dans l’histoire de Facebook et contraint Mark Zuckerberg à comparaître devant toutes sortes de commissions d’enquête spéciales, était parfois un peu plus émotionnel :

« Concrètement, Cambridge Analytica n’est qu’une tempête dans un verre d’eau. Ce sont des charlatans. Les outils qu’ils ont utilisés ne fonctionnaient pas et leur utilisation à grande échelle n’avait aucun sens. Toutes leurs affirmations sont sans fondement. »

La note de Bosworth, qui a été largement appréciée, partagée et commentée, a donné un aperçu intéressant des communications internes de Facebook. Non seulement il a montré, en termes de contenu, qu’une certaine forme de responsabilité interne existait bel et bien : comme l’a admis « Boz », « nous avons pris du retard […] en matière de sécurité des données, de désinformation et d’ingérence étrangère ». La remise en cause du rôle de CA a également attiré l’attention sur un autre facteur, à savoir l’importance de la plateforme Facebook elle-même. « Facebook est-il donc responsable de l’élection de Donald Trump ? Je pense que la réponse est oui ».2

Cette déclaration laisse déjà entendre que le réseau social est plus qu’un simple courtier en informations ou intermédiaire de communication individuelle. La « plateforme publicitaire »3 fonctionne de plus en plus comme une infrastructure4 de formation de l’opinion publique et un méta-média pour « l’industrie du marketing politique »5 transformée par le numérique, dont les conditions préalables et les effets programmatiques feront l’objet d’une réflexion plus approfondie dans la suite de cet article. Pour commencer, le cas de CA est reconstitué d’un point de vue médiotechnique et médiathéorique, non pas dans le but d’ajouter une nouvelle facette discursive au microciblage psychographique controversé de cette entreprise, mais afin d’étudier les « pratiques de campagne standard »7 établies par CA et, par là même, les mécanismes de fonctionnement de la plateforme Facebook. L’objectif est d’illustrer, à un niveau plus fondamental, comment Facebook contrôle une infrastructure affective qui combine la commercialisation « capitaliste de la surveillance » 8 avec une logique cybernétique de contrôle. Non seulement cette fusion transforme les campagnes politiques, mais le réseau induit une dynamique techno-économique qui peut être interprétée comme la poursuite ou l’intensification de la transformation (infra-)structurelle de la sphère publique par le biais des mécanismes de l’économie de plateforme. Ce que Jürgen Habermas analysait dès les années 1960 comme l’imprégnation de pouvoir [Vermachtung] et la fabrication de la sphère publique se poursuit ici au niveau supérieur d’une plateforme cybernétique, menaçant de se manifester à terme comme une « absence programmée d’alternatives ».

Le cas (classique) de Cambridge Analytica

En mars 2018, le Guardian et le New York Times ont publié des rapports d’enquête sur une « fuite de données » chez Facebook. Avec l’aide du lanceur d’alerte Christopher Wylie, ils ont braqué les projecteurs de l’opinion publique mondiale sur la société CA, une spin-off du Strategic Communication Laboratories Group (SCL).9 Il est apparu que CA avait eu accès aux données personnelles de 87 millions d’utilisateurs Facebook via l’« API Friends » de Facebook et l’application de quiz thisisyourdigitallife, développée par le psychologue comportementaliste Aleksandr Kogan, puis utilisé ces informations pour établir des profils de personnalité et les exploiter lors de la campagne électorale de Donald Trump en 2016. Bien que l’utilisation de données fournies par des tiers tels que CA constituait une violation des conditions d’utilisation de Facebook depuis 2015, l’entreprise a pu, jusqu’à ce que l’affaire soit révélée, se présenter comme un spécialiste du microciblage psychographique (l’appel ciblé à des individus sur la base de critères psychologiques). Et ce, alors même qu’elle vantait son rôle clé dans la campagne MAGA et indiquait qu’elle exploitait des bases de données qui avaient chacune accumulé quelque 5 000 points de données (DP) sur 230 millions d’Américains.10 Facebook avait été informé dès 2015 de la violation de ses règles par CA, mais avait négligé ses obligations de surveillance. En conséquence, un scandale mondial s’est progressivement déroulé, qui a de nouveau mis en lumière la question de la confidentialité et de la protection des données dans les médias sociaux, parallèlement à celle du profilage commercial des utilisateurs.11

Dans ce contexte, les pratiques de CA sont devenues le point central de débats assez binaires,12 dans lesquels d’un côté, certains identifient l’entreprise comme l’incarnation ultime de la manipulation numérique des électeurs13 et de l’autre, comme dans le cas de Bosworth, la considèrent comme une société de marketing hype dont les méthodes ne sont rien d’autre que de la « poudre aux yeux » ou des «conneries ».14 À la lumière des faits actuels et de l’enquête menée par le Bureau britannique du commissaire à l’information (ICO), une image plus nuancée se dégage : contrairement aux informations fournies par CA elle-même, il est peu plausible que l’entreprise ait procédé à un microciblage psychographique systématique tout en disposant d’« inventaires psychographiques »15 d’une dizaine de DP pour 30 millions de personnes. Il est donc peu probable que l’entreprise se soit livrée à une modélisation à grande échelle, mais plutôt, à l’approche des élections de 2016, à des expériences quelque peu rudimentaires sur la segmentation réactive de groupes cibles.16 D’autres chiffres ont également dû être corrigés : la majeure partie des données sur les consommateurs et les électeurs utilisées par CA étaient disponibles dans le commerce, et leur étendue et l’accumulation de points de données ont dû être estimées bien en deçà des chiffres annoncés – le nombre de personnes enregistrées n’était que de 160 millions au maximum, tandis que le nombre de données à caractère personnel n’aurait jamais dépassé 3 000.

Ce qui est remarquable dans le rapport de l’ICO, c’est que, bien que les ensembles de données aient pu être assez importants, ils ne révèlent pratiquement aucune pratique exceptionnelle. Au contraire, il souligne que CA a presque exclusivement, et certainement de manière intensive, utilisé des « technologies couramment disponibles » et des « algorithmes largement utilisés pour la visualisation, l’analyse et la modélisation prédictive des données »17 – et, tout au plus, a peut-être complété ses données avec celles de Facebook (570 DP sur 30 millions de personnes, accumulées via l’application de Kogan). En conséquence, CA doit être largement considéré comme la norme en matière de campagne numérique. Cela jette toutefois un éclairage encore plus défavorable sur les pratiques établies du marketing politique et met en fin de compte en évidence la manière dont la formation de l’opinion publique ou les campagnes électorales sont réorganisées (y compris sur le plan technologique) via le méta-média Facebook. Bien que, contrairement à l’image qu’elle donne d’elle-même, CA n’ait pas été le cerveau secret de la campagne MAGA, l’entreprise a bel et bien établi un lien médiatique et technique essentiel et, outre l’analyse et la modélisation des données, a participé à l’orchestration des publicités électorales, comme nous le verrons en détail dans la section suivante.

Campagnes numériques et engagement informatif

Comme on le sait, Facebook a développé une infrastructure capitaliste de surveillance qui permet à des entreprises de marketing telles que CA d’identifier, de regrouper et de cibler les utilisateurs en fonction d’« informations pertinentes »18 (sexe, lieu de résidence, préférences, etc.). Pour la campagne électorale de Trump, CA a développé un tableau de bord supplémentaire appelé « Siphon », qui enregistrait en temps réel les performances, les impressions et les interactions (visites de pages web, etc.) de chaque publicité de campagne, à la fois en fonction de segmentations (allant de « persuadés » à « persuadables », de « hispaniques » à « afro-américains ») et en termes de coûts.19 De cette manière, l’outil analytique a permis à l’équipe MAGA d’affiner la campagne sur la base des données, et de hiérarchiser et sélectionner les cycles publicitaires individuels. Cela a ouvert une certaine marge de manœuvre pour des corrections stratégiques : dès qu’un message semblait avoir un impact insuffisant et ne suscitait pas de réponse, des espaces publicitaires supplémentaires pouvaient être achetés via Siphon afin d’accélérer la diffusion d’une publicité ou d’étendre sa portée, y compris au-delà de la visibilité publique, Facebook proposant ce qu’il appelait alors des « dark posts » : des messages individualisés et non publics, uniquement visibles par des utilisateurs présélectionnés.20

Cette « sphère publique politique segmentée, algorithmique et, selon les termes de Habermas, « temporairement fabriquée »21, suivait principalement des paramètres économiques : le coût de ces campagnes variait entre 10 000 et 100 000 dollars et s’élevait à environ 44 millions de dollars pour la seule année 2016 (alors que la campagne Clinton a investi quelque 28 millions de dollars). Cela a permis de diffuser de multiples variantes de publicités (différentes en termes de couleurs, de slogans, etc.) qui mettaient particulièrement l’accent sur « l’engagement ».22 Comme l’écrit Brittany Kaiser, ancienne employée de CA :

« Par exemple, si la campagne diffusait une vidéo […], elle pouvait investir dans plusieurs versions différentes de la publicité et observer ses performances en temps réel afin de déterminer combien de personnes la regardaient, si elles mettaient la vidéo en pause et si elles la regardaient jusqu’au bout. Ont-elles cliqué sur les liens qui y étaient associés […] ? Ont-elles partagé le contenu avec d’autres personnes ? »23

L’accent mis sur les taux d’engagement reflète l’influence de Facebook, qui a transformé la publicité politique – tout comme la publicité commerciale – en une activité d’activation, de maintien d’une « économie de l’action ».24 Facebook ne vend pas aux annonceurs de simples espaces publicitaires, comme dans la presse écrite, afin de s’adresser de manière unidirectionnelle et uniforme à un large public ; il vend plutôt un certain résultat spécifique à un groupe, orchestré via l’algorithme du fil d’actualité, par exemple le nombre de visites sur une page web ou le nombre de « likes ». Ce processus est à la fois simple et automatisé : une fois qu’un annonceur a identifié ou segmenté un « groupe cible clé », Facebook recherche les profils qui présentent des préférences similaires à l’aide d’outils tels que « Custom » ou « Lookalike Audience ». Il génère ainsi des corrélations et cherche à initier, par le biais de produits de la plateforme tels que les publications sponsorisées ou (dans le passé) les publications cachées, ou encore par le biais de sondages ou de loteries, un processus qui génère des clics, des partages, des commentaires et donc un cycle constant de collecte d’informations. Dans le cas de la campagne MAGA, cela pouvait inclure des publicités pour un rassemblement, un « sondage officiel d’approbation » ou une tombola pour gagner une casquette MAGA, à laquelle toute personne intéressée pouvait participer en indiquant son numéro de téléphone et son adresse e-mail ou postale.25 De cette manière, l’équipe a accumulé des données qui lui ont permis de personnaliser son approche et de mieux coordonner les fonds, les investissements plus importants promettant un degré d’activité plus élevé.

Dans la plupart des cas, les publicités étaient conçues pour afficher – comme il est courant dans une « culture numérique entre surproduction et recombinaison »26 – des contenus légèrement différents, mais toujours personnalisés. L’objectif était de susciter un engagement phatique durable parmi les partisans de Trump. La conception des publicités et les thèmes abordés reposaient davantage sur un travail automatisé que sur des compétences rédactionnelles ; elles étaient basées sur les profils, les préférences et les caractéristiques des utilisateurs, ce qui a permis de les diffuser dans les fils d’actualité respectifs de manière fragmentée mais néanmoins standardisée. Au total, la campagne de Trump a diffusé environ 5,9 millions de variantes de publicités sur Facebook en 2016, contre 66 000 pour la campagne de Clinton. Dans le même temps, 84 % des publicités incitaient les électeurs à agir d’une manière ou d’une autre (par exemple, faire un don), alors que seulement la moitié environ des publicités de Clinton mettaient l’accent sur ce type de demande.27 L’essentiel du travail de CA consistait en une campagne numérique assez conventionnelle : l’entreprise n’avait pas besoin de procéder à un screening psychographique de l’électorat pour communiquer ses messages de campagne. En effet, CA s’est largement appuyée sur les mécanismes publicitaires de plateformes telles que Facebook, leurs modes de segmentation démographique et leurs services permettant de créer un bruit de fond permanent spécifique à un groupe cible.28 Outre ces boucles de rétroaction informative, qui visaient à créer « un climat de conformité »,29 CA s’est également attachée à alimenter une polarisation programmatique fondée sur la manipulation des affects.

Les effets antagonistes des réseaux : décontextualisation et démobilisation

L’aspect frappant des activités de campagne de CA était qu’elle tirait parti du placement publicitaire basé sur des algorithmes sur Facebook, qui privilégie non pas le plus offrant, mais la publicité qui est la plus susceptible de susciter l’attention, c’est-à-dire le feedback. Avec cette logique fonctionnelle d’une économie de l’attention, ou d’une économie de l’engagement, opérant en arrière-plan, la société de données a créé des publicités électorales guidées moins par les idéaux d’un discours rationnel que par la « politique affective des médias numériques ».30 L’objectif était à tout moment d’orchestrer des « effets de réseau »31 et de générer ainsi des réactions émotionnelles qui s’exprimaient principalement par le biais d’images, de vidéos et de mèmes – l’algorithme de Facebook privilégie le contenu audiovisuel par rapport au texte – et qui étaient partagées de manière virale grâce au renouvellement constant des flux d’informations. Ce faisant, CA a largement fait appel à une mentalité agressive de « l’ami ou l’ennemi » qui servait à distinguer la campagne de Trump ou à la mettre en contraste, en s’appuyant sur la décontextualisation dans les compositions image-texte (fake news, etc.). Elle a ainsi déployé une logique de « clash des filtres »32, c’est-à-dire une collision intentionnelle des positions politiques.

L’une des publicités particulièrement accrocheuses de CA était une vidéo fortement éditée d’une apparition de Michelle Obama pendant la campagne : dans l’original, datant de la campagne de son mari en 2007, elle soulignait que même si la famille était actuellement plongée dans la course à la Maison Blanche, l’éducation de ses deux filles restait une priorité, car après tout : « Si vous ne pouvez pas diriger votre propre maison, vous ne pouvez certainement pas diriger la Maison Blanche ». CA a ensuite sorti ces propos de leur contexte, les a recombinés, les a dirigés contre Hillary Clinton et les a diffusés sous le titre « Can’t Run Her Own House » (Incapable de diriger sa propre maison). Outre le fait de dénoncer les valeurs familiales ternies de Clinton, l’entreprise faisait également preuve d’un certain sexisme – en faisant allusion à l’affaire Lewinsky de Bill Clinton – donnant ainsi l’impression qu’il ne s’agissait pas seulement d’une lutte « démocrate contre démocrate » , mais aussi de « femmes contre femmes ».33 L’objectif de ce cadrage était d’augmenter la probabilité que les démocrates qui privilégiaient les valeurs familiales conservatrices à leur aversion pour Trump ne s’identifient pas à Clinton et s’abstiennent ainsi de voter pour elle.34 Des stratégies similaires ont été mises en œuvre à travers des vidéos dans lesquelles Clinton qualifiait les partisans de Trump de « panier de déplorables » ou les membres de gangs de jeunes de « super prédateurs » (1996).35 Ces publicités ont été spécifiquement placées dans les fils d’actualité des Afro-Américains dans les États indécis, dans le but de « dissuader »36 fermement, voire de supprimer des électeurs. Comme le soulignent Samuel Woolley et Douglas Guilbeault, elles étaient corrélées à « des objectifs moins conventionnels : semer la confusion, donner une fausse impression de soutien en ligne, attaquer et diffamer l’opposition, et diffuser des informations illégitimes ».37

Alors que Barack Obama avait déjà utilisé des plateformes telles que Facebook pour mobiliser les électeurs38 et que sa campagne avait toujours cherché à exploiter la « culture positive des affects »39, les publicités de CA visaient souvent exactement le contraire, à savoir susciter des « affects négatifs ».40 Les affects tels que le dégoût, la peur ou la colère étaient spécifiquement ciblés – les réactions négatives sont plus faciles à générer et donc moins coûteuses, et elles se propagent plus rapidement et plus largement sur les réseaux sociaux.41 Un autre axe était constitué par les efforts visant à déclencher des spirales d’indignation, à concentrer les « irritabilités »42 sur les réseaux sociaux : après tout, les publicités diffusées étaient censées avoir un effet à la fois interne – c’est-à-dire stimuler l’activation de l’ami, la base électorale républicaine – et un effet externe – la désactivation de l’ennemi, la démobilisation de l’opposition.43 Dans cette perspective, l’objectif était moins de convertir les électeurs démocrates en électeurs républicains – comme cela a souvent été insinué dans le débat public44 – que d’appliquer des stratégies antagonistes renforçant la division « nous contre eux » et sapant la légitimité des revendications des adversaires.45

En ce sens, les campagnes soulignent que CA a utilisé la différenciation variable de la communication en termes d’image, de texte, de vidéo ou de mème non seulement pour extraire des informations, mais aussi pour susciter des affects, afin d’alimenter la polarisation. Elles ont donc principalement servi au développement programmatique d’un populisme qui repose sur la dynamique de groupe plutôt que sur celle des masses. D’une part, des processus de mise en réseau ont été mis en place afin de former et d’engager des communautés affectives, c’est-à-dire des « collectifs particuliers » et, en lien avec cela, « la promesse d’une participation politique immédiate ».46 D’autre part, CA a également poursuivi exactement le contraire, c’est-à-dire la départicipation démocratique, une sorte de dépolitisation calculée. Cette corrélation ambivalente révèle en soi comment l’entreprise a transposé les formes de communication commerciales et affectives de Facebook dans le domaine politique et comment elle a déployé les mécanismes de « notation » et d’« interaction » de l’économie des plateformes dans le but d’exacerber les antagonismes. En bref : « Facebook a mis en place un système algorithmique d’achat de publicité avec une volonté mercenaire d’obtenir des résultats, et la campagne de Trump l’exploite sans relâche ».47

L’infrastructure affective : l’expérimentation interactive de Facebook

Le fait que les stratégies publicitaires de CA, telles que décrites ci-dessus, soient depuis longtemps devenues monnaie courante est souligné par le fait que l’entreprise travaillait déjà en 2014 sur l’« heuristique affective »48, c’est-à-dire la production d’affects sur des groupes Facebook spécifiques. À un niveau plus fondamental, l’importance de l’infrastructure de Facebook se reflète également ici, car c’est précisément l’objectif programmé de l’algorithme du fil d’actualité qui permet de polariser des groupes cibles sélectionnés, c’est-à-dire de déployer la plateforme comme une « machine à radicaliser ».49 À titre d’exemple, Wylie décrit le changement significatif dans le fil d’actualité qu’a provoqué un « j’aime » pour les « Proud Boys » par opposition à un « j’aime » pour des sites tels que Walmart, car « aimer un groupe extrême […] distingue l’utilisateur des autres de telle sorte qu’un moteur de recommandation donnera la priorité à ces sujets pour la personnalisation » et « commencera à proposer à l’utilisateur des articles et des pages similaires, le tout afin d’augmenter l’engagement ».50

Parallèlement à l’exploitation de ces modes de personnalisation, les « boucles de rétroaction affective »51 inhérentes à l’infrastructure du fil d’actualité ont également été utilisées à des fins d’activation : il s’agit de mécanismes « par lesquels l’affect circule de l’utilisateur vers le produit déterminé par l’algorithme, qui renvoie ensuite le contenu « souhaité » à l’utilisateur ».52 Wylie explique également ces « boucles ludiques » comme des « programmes de renforcement variables […] qui créent de l’anticipation, mais où la récompense finale est trop imprévisible […] pour pouvoir être planifiée », c’est-à-dire des méthodes qui créent un écosystème personnalisé et informatif et provoquent un « cycle auto-renforçant d’incertitude, d’anticipation et de rétroaction ». En conséquence, selon Wylie, la plateforme fonctionne avec le « caractère aléatoire d’une machine à sous ».53 L’attention de l’utilisateur est en outre captée par des messages clignotants, des vidéos en direct, des photos, ainsi que par des applications telles que le « mécanisme pull-to-refresh » (médié par le symbole de mise en mémoire tampon ou de chargement de l’application).54 Le contenu est conçu pour avoir un effet de récompense, et le « défilement infini » du fil d’actualité sans fin exprime la « peur de passer à côté » (FOMO) souvent citée.55

Sean Parker, président fondateur de Facebook, a déjà résumé l’objectif principal de « l’infrastructure sociale » (Zuckerberg) de son entreprise dans la question suivante : « Comment pouvons-nous occuper autant que possible votre temps et votre attention consciente ? », interprétant le bouton « J’aime » comme une « boucle de rétroaction de validation sociale », soulignant les « poussées de dopamine » qu’il déclenche et le définissant comme un mécanisme qui « [exploite] une vulnérabilité de la psychologie humaine ».56 La structure affective du réseau suit une logique comportementaliste et fondée sur l’économie comportementale. À travers la conception de son interface, il cherche à augmenter la probabilité d’un certain comportement, à pré-structurer des espaces d’action et de réaction sous une forme lisible par une machine (de l’émoticône « wow » aux variantes plus agressives). En effet, les différents outils tels que les messages push et les « pokes » rappellent littéralement le « nudging », qui pousse « dans la bonne direction »57, le comportement souhaité, qui, soit dit en passant, doit être constamment sollicité, étant celui qui génère de l’information.58 Facebook met ces instruments de la plateforme à la disposition d’un large éventail d’acteurs politiques ; ce que l’entreprise aime rappeler pour se présenter comme politiquement neutre. En 2016, Zuckerberg a ainsi nié toute ingérence dans les élections américaines, insistant sur le fait que Facebook est une « entreprise technologique » neutre, par opposition à une « entreprise médiatique » axée sur le contenu.59 L’idée plus nuancée selon laquelle la technologie pourrait théoriquement être conçue comme neutre, mais que Facebook en particulier n’agit jamais comme un simple support technologique neutre fonctionnant indépendamment de tout intérêt ou logique spécifique, est corroborée non seulement par la nature fondamentalement lucrative de la plateforme, mais surtout par ses expériences programmatiques et interactives.

Par exemple, des recherches internes ont été menées afin de trouver des moyens d’influencer le comportement des utilisateurs en repensant l’interface et/ou le fil d’actualité. Dans le cadre de l’« expérience sur l’influence sociale et la mobilisation politique menée auprès de 61 millions de personnes » pendant les élections législatives de 2016, un groupe d’utilisateurs Facebook s’est vu proposer non seulement de cliquer sur un bouton « J’ai voté » sur leur écran, mais aussi des informations indiquant si leurs amis avaient voté. Selon les chercheurs de Facebook, l’effet de ce « message social » a été d’augmenter de 0,26 % la probabilité que les utilisateurs recherchent des informations sur leur bureau de vote et de 0,39 % la probabilité qu’ils votent, ce qui s’est traduit par 340 000 votes supplémentaires.60 Dans une autre expérience sur la « contagion émotionnelle »61, Facebook a pu prouver en 2014 que les utilisateurs produisaient davantage de commentaires négatifs dès que leur fil d’actualité contenait moins de publications, démontrant ainsi qu’il était capable d’influencer le comportement des utilisateurs grâce à la curation algorithmique du contenu. Rétrospectivement, ces conceptions expérimentales reflètent un « expérimentalisme de plateforme » interactif, qui vise à mettre les outils propres à l’entreprise, fondés scientifiquement, à la disposition des entreprises et des groupes d’intérêt politiques. Comme l’écrit Wylie, Facebook a « souvent soutenu ces recherches psychologiques », accordant à des chercheurs universitaires comme Kogan un accès « privilégié » aux données privées de ses utilisateurs – et certainement pas pour des raisons purement altruistes – et avait déjà déposé en 2012 un brevet américain pour « la détermination des caractéristiques de la personnalité des utilisateurs à partir des communications et des caractéristiques des réseaux sociaux ».64

Dans la littérature scientifique sur la communication politique, les plateformes sont souvent conceptualisées comme de simples canaux de distribution neutres.65 Pourtant, les expériences menées en matière de publicité stratégique dans l’économie de l’engagement mettent en évidence le fait que Facebook, avec sa motivation axée sur le profit, contredit ces interprétations. La plateforme est tout sauf un simple moyen de communication entre émetteur et récepteur. Elle constitue plutôt son propre mode de communication – à la fois canalisé et canalisant –, convertit les effets de réseau en affects de réseau et applique avec force ses mécanismes commerciaux, souvent en combinaison avec des mécanismes cybernétiques.

Communication cybernétique et logique de la propagande par rétroaction

En examinant l’infrastructure de Facebook, nous pouvons identifier la stimulation d’« effets de contagion sociale »66 à travers la logique de rétroaction, effets qui transforment les communautés numériques en « systèmes nerveux », et nous pouvons ainsi conclure, de manière plus générale, à la fusion de la commercialisation avec les logiques cybernétiques de contrôle.67 Sous cet angle, le réseau social désigne un lieu où les informations – qu’elles soient vraies ou fausses – peuvent être amplifiées (voire exacerbées) à grande vitesse, déclenchant ainsi une dynamique productive essentielle au système (d’information) Facebook : d’où, pour ce dernier, la valeur ajoutée d’une polarisation affective (voir CA) ne résulte pas tant d’un désaccord prétendument pluraliste. L’objectif est plutôt la quête cybernétique classique d’informations et de communications exploitables, la canalisation et l’accélération de leur débit (likes, partages, etc.), c’est-à-dire une circulation constante qui est perpétuellement réajustée par une curation contrôlée et automatisée du fil d’actualité. Ce qui se développe, c’est une « communication qui engendre la communication »68, se reproduisant de manière indépendante et s’intensifiant dans une boucle récursive pratiquement infinie.

Les acteurs tels que CA représentent, au mieux, des variables dans le fonctionnement de la plateforme, l’expression d’une infrastructure cybernétique-capitaliste qui fournit la base programmatique de la propagande par rétroaction. Cette dernière comprend le placement de publicités incitant à l’interaction, dont la portée (voir le tableau de bord Siphon) est testée et contrôlée en temps réel dans des paramètres de rétroaction expérimentaux, et qui sont axées sur la variabilité et la viralité. Dans le même temps, elle exploite les utilisateurs comme des relais pour diffuser des publicités électorales polarisantes. Gary Coby, directeur numérique de la campagne Trump en 2016, explique ce qu’il appelle « les tests A/B sous stéroïdes » : « Ils [Facebook] ont l’avantage d’une plateforme dont les utilisateurs sont conditionnés à cliquer, à s’engager et à donner leur avis. […] Chaque jour, […] la campagne diffusait entre 40 000 et 50 000 variantes de ses publicités, afin de tester leur performance dans différents formats ».70 La logique cybernétique englobe ainsi une « épistémologie expérimentale » (McCulloch), un travail récursif en cours, créant constamment de nouveaux résultats, qui sont réinjectés dans le système sous forme d’entrées et créent ainsi de nouveaux résultats – tout à fait dans la lignée du système homéostatique qui repose sur une activité et une agitation constantes pour être productif, c’est-à-dire pour survivre.

Cette dynamique reflète non seulement la définition initiale de Norbert Wiener de la rétroaction – « le contrôle d’un système par la réinsertion dans le système des résultats de son fonctionnement »71 – mais renvoie également à un concept cybernétique de la communication : après tout, pour Facebook, la valeur d’un message ne réside pas tant dans son contenu réel que dans son contenu informationnel formel. La plateforme actualise ainsi le modèle de communication basé sur la théorie de la décision de Claude Shannon, qui mettait l’accent sur le caractère processuel et la gestion sans friction des flux d’informations. Dans la préface de l’ouvrage de Shannon, The Mathematical Theory of Communication, son collègue Warren Weaver souligne l’importance accordée au calcul et à l’opérabilité, et non au sens ou à la sémantique, en soulignant que du point de vue des technologies de l’information, il est indifférent qu’un message comprenne l’intégralité du texte de la Bible ou simplement le mot « oui ».72 Le choix des variantes publicitaires par CA n’était pas non plus basé sur la qualité du contenu : seul comptait leur potentiel affectif et mobilisateur, c’est-à-dire leur capacité à générer des informations et une communication ultérieure. Le choix d’un message particulier n’était pas fondé sur son contenu véridique, mais plutôt sur sa valeur en termes d’engagement. Cette réduction de la communication à des paramètres mathématiques explique non seulement le désintérêt de la machine cybernétique pour la régulation du contenu, mais en fait également une interface idéale pour polariser les pratiques, voire les privilégier dans le contexte des flux d’informations fluides.

Gouvernementalité cybernétique

Outre la cybernétique de l’action communicative, le cas de CA illustre également la cybernétique des sujets, qui est abordée ici en termes de « meilleur conducteur possible de la communication sociale, lieu d’une boucle de rétroaction infinie ».73 En effet, la cybernétique primitive partait d’une image des sujets non pas comme des acteurs réfléchis, mais comme des acteurs réagissant de manière adaptative qui s’ajustent à des environnements changeants. Wiener et W. Ross Ashby, dès les années 1940 et 1950, se sont intéressés au « comportement adaptatif »74 des individus et des systèmes, bien qu’avec des accents différents. Ils l’ont fait quelque temps avant que le spécialiste de la politique cybernétique Eberhard Lang n’affirme le « besoin d’instructions » politique existentiel des individus, auquel la « recherche comportementale »75 a contribué à répondre. Le sujet apparaissait ainsi comme une boîte noire programmée de manière comportementaliste, qui n’avait d’importance non pas en termes de motivation intrinsèque ou de psychologie existentielle, mais, tout au plus, en termes d’entrées et de sorties enregistrables et quantifiables. Cela, déjà des décennies avant que des chercheurs comportementaux comme Kogan ne nous éclairent sur le potentiel des réseaux sociaux grâce à leurs expériences basées sur des données76.

De même, Facebook ne s’embarrasse pas de spéculations sur l’intentionnalité potentielle d’une action, mais s’intéresse aux corrélations et aux modèles mesurables, une sorte de « psychologie sans psyché » (Hans Jonas) qui permet de déduire des traits de caractère, des préférences ou des comportements électoraux prévisibles. L’objectif est donc simplement de valoriser les comportements quantifiables et, si nécessaire, d’ajuster les stimuli de manière à ce qu’ils aient un impact affectif et, en étant introduits dans un circuit communicatif, permettent un retour d’information. La transformation par Facebook de la communication en une opération lisible par des algorithmes et formulée mathématiquement concrétise essentiellement ce que Tiqqun décrit comme « l’hypothèse cybernétique »:77, à savoir que les modes de comportement social peuvent être façonnés ou modélisés par des boucles de rétroaction. Dans ce contexte, Tiqqun identifie un sujet dépourvu de toute substance dont les actions peuvent être ajustées en façonnant son environnement. La plateforme Facebook propose des programmes similaires de « modification du comportement »78, car elle décode et analyse les modèles de comportement de ses utilisateurs et les structure selon une cybernétique émotionnelle – et donc, d’une certaine manière, les gouverne.

Si l’on définit le gouvernement selon Michel Foucault comme « une structure totale d’actions exercées sur des actions possibles », comme un cadre qui « incite, […] induit, […] séduit »79, alors la plateforme Facebook marque l’établissement d’un nouvel art de gouverner sui generis : une gouvernementalité cybernétique. Elle ne suit peut-être pas une ligne politique définie, mais elle vise à générer des retours d’information, les flux de communication indispensables à son modèle économique, et à exercer un contrôle souverain sur les canaux. Cela dit, il convient de souligner que la communication cybernétiquement structurée de Facebook ne crée en aucun cas une machine à gouverner numérique, comme le craignaient les premiers détracteurs de la cybernétique, qui déplacerait les masses d’une simple pression sur un bouton – ou, comme on le suggère souvent, qui « piraterait » même les électeurs.80 Les réflexes de contrôle actuels sont plus subtils, rarement unidirectionnels et, compte tenu de leur portée, axés sur une productivité systématique sous le couvert d’une dynamique de rétroaction constante. Il est donc logique que Facebook ne s’intéresse nullement aux registres hiérarchiques de suppression de la communication si caractéristiques de la propagande classique. Au contraire, les codes de l’évolution communicative sont orchestrés par le « contrôle de l’information ».81

L’art cybernétique du gouvernement repose donc sur l’expansion constante des canaux de communication, voire de la logique de la plateforme. Il dépend de manière cruciale d’une infrastructure fournissant sans cesse des stimuli affectifs toujours plus nombreux, une variété toujours plus grande d’options et de incitations, de sorte que lorsqu’un problème – une perturbation ou, en termes cybernétiques, un cas de bruit – survient, il est rare que des restrictions substantielles sous forme d’excommunications (comme dans le cas de Trump en janvier 2021) soient mises en place. L’objectif, à tout moment, est la circulation de l’information et l’ (au mieux, homéostatiquement stabilisatrice) de l’autorégulation, grâce à laquelle toute nouvelle crise – ou toute exigence croissante en matière de régulation des contenus – est simplement traitée par la conception de nouveaux outils visant à générer une mise en réseau encore plus réactive (même l’intégration des utilisateurs dans le processus de modération des contenus en leur offrant la possibilité de « signaler » des contenus peut être interprétée comme un exemple de génération d’informations). Dans ce système d’objectifs, le diktat de la connectivité informative a toujours été accompagné de l’affirmation d’une forme spécifique de communication, qui conçoit, dessine et structure la formation de l’opinion individuelle et publique comme une séquence de signaux et de choix lisibles par des machines et commercialisables.

La transformation infrastructurelle de la sphère publique par l’économie des plateformes

L’« infrastructure sociale » appelée Facebook potentialise ce que Habermas appelle la « transformation de la fonction politique de la sphère publique » qui accompagne la fabrication de la sphère publique et son imprégnation de pouvoir [Vermachtung].82 Le philosophe diagnostique de manière célèbre « une sorte de reféodalisation »83 de la sphère publique dans la perspective de sa commercialisation (y compris dans le contexte des « services de formation de l’opinion »84 émergents et du domaine de plus en plus dominant des relations publiques), et retrace comment, à partir du XIXe siècle, cette sphère publique a été de plus en plus façonnée par les intérêts commerciaux privés via la presse économique. En ce qui concerne le rôle des plateformes telles que Facebook et des entreprises de marketing comme CA, on observe une poursuite, voire une intensification de cette « transformation structurelle de la sphère publique », suivant la logique de l’économie des plateformes. Les réseaux sociaux ont longtemps réussi à se présenter comme l’incarnation d’un pluralisme radicalement démocratique, comme les pionniers de l’« égalité d’accès » et d’une « culture de la participation » numérique, dans laquelle les questions d’intérêt public pouvaient, selon eux, être librement discutées sans aucune forme de domination. Pourtant, aujourd’hui, il ne fait aucun doute – malgré tout le « potentiel émancipateur » que Habermas accorde même à la nouvelle sphère publique numérique libérée des « conditions d’accès »85 – que ces intermédiaires accélèrent non seulement la commercialisation de la sphère publique, mais concentrent également les structures de pouvoir à un niveau programmatique.

D’un point de vue médiatico-technique, la transformation infrastructurelle de l’économie des plateformes repose essentiellement sur des mécanismes cybernétiques qui établissent une dialectique de l’engagement et du contrôle afin de permettre une fragmentation de la sphère publique, comme l’illustrent ici Facebook et CA. Ce faisant, la plateforme, fermement ancrée dans la logique du feedback, contrôle une infrastructure hautement réactive qui, contrairement aux médias de masse unidirectionnels tels que la presse écrite ou la télévision, sélectionne des contenus spécifiques – conformément au concept d’entrées et de sorties fluides – via la réactance et la performance, et réajuste et optimise en permanence les flux d’informations. Les changements dans la fabrication numérique de la sphère publique apparaissent ainsi au niveau du tri algorithmique des contenus d’information par le gatekeeper Facebook86 et, par conséquent, dans le remplacement de la fonction de filtrage des médias classiques par des pratiques automatisées de notation et de sélection telles que l’algorithme du fil d’actualité87. Facebook agit donc comme une architecture de programme préexistante et présélective qui décide quels contenus et quelle sphère publique sont montrés à qui et quand. Dans le même temps, compte tenu du bouclier propriétaire – l’algorithme du fil d’actualité de Facebook reste un secret commercial – et de la révision programmatique constante du code, les mécanismes de sélection ne sont pas transparents pour le public et les décisions des modérateurs de contenu ne suivent pas toujours des critères cohérents ou transparents.

Pourtant, si les informations sont de plus en plus programmées et triées en fonction des modèles d’interactions et des préférences personnelles plutôt que de leur pertinence sociale ou de leur rationalité, et si les utilisateurs – ou les électeurs – sont, au mieux, « pris en charge » en tant que « groupes cibles clés » ou audiences, alors il existe un risque – et, plus récemment, Habermas l’a d’ailleurs reconnu – que le cadre de référence collectif pour la formation de l’opinion politique se perde89 et soit remplacé par des affects situationnels. Au-delà de l’horizon normatif d’un discours délibératif et transparent, il semble également y avoir une « mise en place immanente d’une multiplicité de sphères publiques parallèles » qui, « dans des cas extrêmes », peut éroder « la base commune d’un débat entre les sujets ».90 Cette dynamique prend précisément de l’ampleur en ce qui concerne Facebook – voir également les stratégies de démobilisation de CA.

L’absence programmée d’alternatives et le pouvoir infrastructurel

Dans ce contexte, la plateforme Facebook constitue une « technologie persuasive », une architecture de programme intrusive, qui structure la sphère publique (politique) principalement selon les principes de l’économie de l’attention ou de l’engagement et la façonne par le biais d’une immédiateté connectée – comprise ici, de manière quelque peu réductrice, comme une participation basée sur le clic [Teilnahme], par opposition à l’inclusion participative au sens de prise de part [la dimension plus large impliquée dans Teilhabe, au sens de participer à quelque chose].91 Sous le couvert des formes d’interaction de la gouvernementalité cybernétique, elle absolutise et monétise non seulement des modes spécifiques d’information et de communication, mais se manifeste aussi de plus en plus comme ce que l’on peut qualifier d’absence programmée d’alternatives. Après tout, « l’objectif ultime des entreprises Internet telles que Facebook », comme le résume William Davies à propos des « plateformes gatekeeper »92 de la Silicon Valley, « est de fournir l’infrastructure à travers laquelle les humains rencontrent le monde. […] Selon cette vision, lorsque l’esprit veut savoir quelque chose, il se tourne vers Google ; lorsqu’il veut communiquer avec quelqu’un, il se tourne vers Facebook ».93

Cet aspect a également des conséquences sur la scène politique : si un parti souhaite atteindre ses électeurs et diffuser ses positions et son programme dans notre époque numérique, il est contraint de s’adapter à la logique, aux codes et aux expérimentations de la plateforme – comme le suggère d’ailleurs le mémo Bosworth94. Facebook est donc tout sauf une entreprise impartiale ou un média neutre ; elle agit plutôt comme une infrastructure para-démocratique95 dont le monopole découle de plus en plus d’une prédominance épistémique, c’est-à-dire de son savoir-faire technologique lui-même. Après tout, l’absence programmée d’alternatives sur la plateforme englobe également l’expertise de la formation de l’opinion politique ou publique et la structure des campagnes électorales, car il existe un acteur particulier qui, grâce aux outils les plus efficaces, est particulièrement bien informé sur à peu près tout : l’architecte de la plateforme. Dans ce scénario, Facebook ne fonctionne pas seulement comme un canal de distribution, mais aussi comme un consultant, et il semble plausible que les équipes de campagne numérique deviennent obsolètes à court ou moyen terme, car leur travail est entièrement externalisé vers les plateformes.96 Il semblerait donc logique, à l’ère des « campagnes à forte intensité technologique »97, que les experts des entreprises vantent activement leurs produits auprès des partis politiques, que les campagnes collaborent étroitement avec Facebook et que des « relations symbiotiques »98 puissent même se développer entre les acteurs politiques et la Silicon Valley. En conséquence, Kreiss et McGregor ont conclu, peu après l’élection de Trump en 2016, que nous assistons à une domination croissante des « publicités électorales clickbait, où la capacité technologique et la motivation des entreprises et des campagnes à monétiser l’engagement conduisent à une communication politique de plus en plus sensationnaliste et ciblée ».99

Cette tendance a été démontrée et même renforcée par les modes de communication qui ont dominé la campagne présidentielle américaine de 2020, notamment en raison de l’essor d’une « industrie de l’influence » active depuis longtemps à l’échelle mondiale. Même la concession de Facebook d’autoriser les utilisateurs à désactiver les publicités électorales reflète un objectif cybernétique-capitaliste, car chaque choix représente une information supplémentaire lucrative qui alimente les profils des utilisateurs. Hormis une suspension générale du ciblage calculé – et même l’interdiction de 7 jours sur la publicité politique juste avant les élections américaines constitue une exception qui confirme la règle –, tout est censé rester dans la boucle de contrôle de la plateforme, et l’accent est donc toujours mis sur l’autorégulation systémique plutôt que sur la législation externe. Même la « déplatforming » de Trump à la suite de l’attaque du Capitole, aussi compréhensible que nécessaire à l’époque, souligne cette logique. Facebook a poussé la privatisation de la sphère publique à un point tel que la plateforme, en tant que méta-média (à ne pas confondre avec le nouveau nom de l’entreprise), développe son propre pouvoir infrastructurel, qui fixe les normes (communautaires), c’est-à-dire le cadre constitutif de ses différents publics,101 et, dans des cas exceptionnels, décide, de manière technocratique et directe, de l’exclusion d’un utilisateur.102 De cette manière, la plateforme ne se contente pas de trier la pertinence en fonction des performances d’engagement et de préparer l’espace algorithmique propriétaire pour les « politiques obscures d’intérêts particuliers »,103 comme l’avait déjà souligné Habermas, mais elle détermine en fait, en tant que « plateforme gardienne », ce qui est affiché aux utilisateurs, quand, comment et par qui, tout en contrôlant l’accès global.104 En d’autres termes : souverain est celui qui décide de la norme communicative.

La transformation infrastructurelle de la sphère publique par l’économie des plateformes renforce donc le diagnostic de Habermas, en ce sens que, au-delà même de l’économisation de la sphère publique et de sa « transformation […] en un moyen de publicité »105, les contours du monopole de Facebook en tant que méta-média apparaissent clairement.106 Sous cet angle, le cas (classique) de CA ne met pas seulement en lumière des évolutions particulières dans le domaine des campagnes politiques. Il représente plutôt une configuration de pouvoir programmatique spécifique à l’entreprise, qui entremêle étroitement les intérêts économiques et la logique cybernétique de la communication. Il soumet ainsi la sphère publique (politique) à son code, avec un effet de plus en plus durable, via un niveau infrastructurel préalable, et la centralise conformément à la logique de la plateforme.

Dans la poursuite prudente de leur intérêt propre, les producteurs de la plateforme ont longtemps réussi à se présenter publiquement comme des entreprises technologiques neutres, qui modèlent la sphère publique, comme le dit Habermas, comme le « rêve cybernétique d’une auto-stabilisation virtuellement instinctive »107 et reprogramment l’échange communicatif. Cependant, la présentation des médias sociaux comme des « organismes apprenants » (Zuckerberg) ayant une mission impartiale ne peut guère masquer le fait que, dans l’application capitaliste et surveillée de la logique cybernétique à la formation de l’opinion publique, « le système de valeurs [se contracterait] […] en un ensemble de règles visant à maximiser le pouvoir et le confort ».108 En conséquence, notamment au vu des tentatives maladroites des opérateurs de plateformes pour reprendre le contrôle des effets antagonistes du réseau à l’aide d’outils algorithmiques, ce que Habermas avait déjà établi dans les années 1960 est encore plus valable aujourd’hui : « Ce défi technologique ne peut être relevé par la seule technologie ».109


Notes:

1.This article is a translated and modified version of the article ‘Der plattformökonomische Infrastrukturwandel der Öffentlichkeit: Facebook und Cambridge Analytica revisited’, which was published in a special issue of the journal Leviathan in 2021. This version is based on a translation by Jan-Peter Herrmann.
2.Bosworth 2020.
3.See Srnicek 2017, pp. 50ff.
4.The notion of the platform as an infrastructure, or ‘infrastructuralized platform’ (Plantin et al. 2018, p. 298) advanced in this article adheres to the definition put forward by Daniel Kreiss und Shannon McGregor: ‘As infrastructure, the platforms these firms support are widely (and publicly) accessible and provide the basis of a generally invisible context for everyday sociality, even as these infrastructures, as platforms, are dynamic, competitive, private, and commercialized’. (Kreiss, McGregor 2017, p. 19).
5.Habermas 1991, p. 216.
6.See Nosthoff, Maschewski 2017.
7.Avirgan et al. 2018.
8.Zuboff 2019.
9.The article, ‘Ich habe nur gezeigt, dass es die Bombe gibt’ (‘I only showed that the bomb exists’), by Hannes Grassegger and Mikael Krogerus in Das Magazin, subsequently published in English as ‘The Data That Turned the World Upside Down’, turned international attention to CA as early as December 2016, prompting an incipient debate on personalized targeting, the possibilities of political influence on social media, and Facebook’s underlying accumulation of user data (see Grassegger, Krogerus 2016; Nosthoff, Maschewski 2017).
10.See Nix 2016.
11.See Cadwalladr 2018; Rosenberg et al. 2018.
12.On the dynamic of the debate, see Nosthoff, Maschewski 2018.
13.See Anderson, Horvath 2017.
14.Karpf 2016.
15.See Information Commissioner’s Office (ICO) 2020, p. 13.
16.See Kaiser 2019, p. 232ff. According to Kaiser, CA found out through its own tests based on the ‘OCEAN’ Big Five model (see Kosinski et al. 2015) that users who had been identified as ‘highly neurotic’ and leaned towards voting Republican could be reached most efficiently by frightening narratives.
17.ICO 2020, p. 16.
18.Kaiser 2019, p. 225.
19.See ibid.
20.Green, Issenberg 2016.
21.Habermas, 1991, p. 216.
22.See Frier 2018.
23.ibid., p. 226.
24.See Zuboff 2019, pp. 296ff. Also: Tufekci 2014 or Kreiss 2016.
25.This form of communication is particularly successful in terms of increasing voter turn-out and donations (see Baldwin-Philippi 2019).
26.Reckwitz 2017, p. 238 (translation amended).
27.See Frier 2018.
28.Trump’s election campaign in 2020 also displayed such patterns: in the context of a rally in January 2020 advertised on Facebook, only 3.6 per cent of the 1,800 ad variants specified individual groups more closely in demographic terms (see Bogost; Madrigal 2020).
29.Habermas, Transformation, p. 195.
30.Boler, Davis 2020.
31.See Maschewski, Nosthoff 2019, p. 60. In this context, the ‘network affects’ correspond to the definition put forward by Megan Boler and Elisabeth Davis, who construe affects as ‘emotions on the move’ and place a special focus on the relationality: ‘Affect may be understood as emotions that are collectively or intersubjectively manifested, experienced, and mobilized, out of the “private,” individual realm and into shared, even public spaces, which may then be channeled into movement(s)’. (Boler, Davis 2018, p. 81).
32.Pörksen 2018, pp. 116ff.
33.Kaiser 2019, p. 233.
34.See ibid., p. 231f.
35.See ibid., p. 228ff. In autumn 2020, the British broadcaster Channel4 conducted an investigation of the campaign; as the Guardian reported: ‘In Michigan, a state that Trump won by 10,000 votes, 15% of voters are black. But they represented 33% of the special deterrence category in the secret database, meaning black voters were apparently disproportionately targeted by anti-Clinton ads’ (Sabbagh 2020).
36.Kaiser 2019, p. 222.
37.Woolley, Guilbeault 2017, p. 5.
38.See Tufekci 2014.
39.Reckwitz 2017, p. 270.
40.ibid.
41.See Lanier 2018, p. 28f.; also: Vosoughi et al. 2018.
42.Pörksen 2018 (translation amended).
43.See Kaiser 2019, p. 218. The effectiveness of this method cannot be verified empirically, as CA’s data are kept under wraps (see Kreiss 2017). That said, reactions in the form of open protest against Clinton, including by Black Lives Matter activists, were indeed recorded (see Gearan, Phillip 2016).
44.See Resnick 2018.
45.See Mouffe 2005, p. 20. As the attack on the Capitol in January 2021 seems to have proven, social media undermine what Mouffe defines as the very task of democratic politics: ‘to transform antagonism into agonism’. CA’s campaigns also highlight that the means of the platform economy at times cause the exact opposite. Mouffe points out an indispensable requirement for a functioning democracy capable of dealing with conflict, namely the sharing of ‘a common symbolic space within which the conflict takes place’ (ibid.).
46.Vogl 2021, p. 176 (translation amended).
47.Bogost, Madrigal 2020.
48.Wylie 2019, p. 67.
49.Ebner 2019.
50.Wylie 2019, p. 120.
51.Papacharissi 2015, p. 23.
52.Boler, Davis 2018, p. 76.
53.Wylie 2019, pp. 120–21.
54.See Lewis 2018.
55.See Pörksen 2018, p. 121.
56.Parker, quoted in Solon 2017.
57.Thaler, Sunstein 2009 (translation amended).
58.See Maschewski, Nosthoff 2019, pp. 62f.
59.Zuckerberg, quoted in Wagner 2016. For a critical treatment, see Nosthoff, Maschewski 2019, pp. 77f. and Vogl 2021, p. 130.
60.Bond et al. 2012.; for a critical treatment, see Zuboff 2019, p. 296ff.
61.Kramer et al. 2014.
62.Maschewski, Nosthoff 2019.
63.See Zuboff 2019, pp. 297f.; Kreiss, McGregor 2017.
64.Wylie 2019, p. 96.
65.See Stromer-Galley 2014; Weeks et al. 2015.
66.Bond et al. 2012, p. 295.
67.On cybernetic capitalism, see Tiqqun 2010 or Buckermann et al. 2017.
68.Mersch 2013, p. 41 (translation amended).
69.In this sense, feedback propaganda cannot be reduced to ‘computational propaganda’ in the sense of automated bots (see Woolley, Guilbeault 2017), for it also includes such phenomena as the so-called ‘fake engagement’ (see Wong 2021).
70.Quoted in Kreiss, McGregor 2017, p. 20.
71.Wiener 1985, p. 71.
72.See Weaver 1963, p. 9.
73.Tiqqun 2010, p. 10.
74.See Ashby 1960 [1952]; on Wiener’s earlier understanding, see Bigelow et al. 1943.
75.Lang 1970, p. 63.
76.In this regard, see also Kosinski et al. 2015; for a critical treatment, see Richterich 2018.
77.Tiqqun 2010, p. 5.
78.Zuboff 2019, pp. 296ff.
79.Foucault 1982, p. 789.
80.Hersh 2015.
81.Staab 2019, p. 177.
82.Habermas 1991, p. 181. Habermas has recently reassessed his earlier account of the transformation of the public sphere vis-à-vis current digital networks, see Habermas 2022.
83.Habermas 1991, p.142.
84.Habermas 1991, p. 195.
85.Habermas 2020b, p. 108 (translation amended).
86.See Stark, Magin 2019, pp. 386f.
87.See Habermas 2020a., p. 27; Vogl 2021, p. 127.
88.For a more detailed discussion of content moderation and the associated problems, see Gillespie 2018, pp. 111–40.
89.See Habermas 2020a, p. 27.
90.Reckwitz 2017, p. 269, (translation amended).
91.See Mersch 2013, p. 52.
92.Piétron, Staab 2021, p. 99.
93.Davies 2018, p. 186.
94.The rise of political influencer campaigning, which is predominant especially on Meta’s – and thus, Facebook’s sister platform – Instagram, attests to this logic as well.
95.See Vogl 2021, p. 117.
96.See Kreiss, McGregor 2017, p. 19.
97.Kreiss 2016.
98.Kaiser 2019, p. 223.
99.Kreiss, McGregor 2017, p. 19.
100.Tactical Tech 2019.
101.Since October 2020, Facebook has been advised on matters concerning content moderation by a specially installed independent Oversight Board. Trump’s deplatforming was initially enacted by the platform itself, but the board subsequently confirmed it in May of 2021 and extended the ban for two more years until 7 January 2023.
102.See Maschewski, Nosthoff 2021.
103.Habermas 1974, p. 55.
104.See Staab 2019, p. 223.
105.Habermas 1991, p. 189.
106.This tendency is also aggravated by the fact that established media increasingly depend on ‘social’ media in order to even reach an audience and are more and more often being subsidized by the platforms – in this regard, it is Google, alongside Facebook, that has stood out more recently. See Dachwitz; Fanta 2020.
107.Habermas 1989, p. 186.
108.ibid.
109.ibid.

Références

Anderson Berit, Horvath Brett. 2017. The Rise of the Weaponized AI Propaganda Machine. https://medium.com/join-scout/the-rise-of-the-weaponized-ai-propaganda-machine-86dac61668b. Accessed 09 14, 2020.
Ashby W. Ross. 1960 [1952]. Design for a Brain. The Origins of Adaptive Behaviour. London: Wiley. Crossref.
Avirgan Jody, Kreiss Daniel, Melone Claire. 2018. Politics Podcast: What the Cambridge Analytica Story Is Really about. https://fivethirtyeight.com/features/politics-podcast-what-the-cambridge-analytica-story-is-really-about/. Accessed 09 14, 2020.
Baldwin-Philippi Jessica. 2019. “Data Campaigning: Between Empirics and Assumptions.” Internet Policy Review 8, no. 4: 1–16. Accessed 03 13, 2021. doi:Crossref.
Bigelow Julian, Rosenblueth Arturo, Wiener Norbert. 1943. “Behavior, Purpose, Teleology.” Philosophy of Science 10: 18–24. Crossref.
Bogost Ian, Madrigal Alexis C. 2020. How Facebook Works for Trump. https://www.theatlantic.com/technology/archive/2020/04/how-facebooks-ad-technology-helps-trump-win/606403/. Accessed 09 14, 2020.
Boler Megan, Davis Elisabeth. 2018. “The Affective Politics of the “Post-Truth” Era: Feeling Rules and Networked Subjectivity.” Emotion, Space and Society 27: 75–85. Crossref. Web of Science.
Boler Megan, Davis Elisabeth 2020. “Introduction: Propaganda by Other Means.” In Affective Politics of Digital Media, id. (ed.), 1–50. New York; London: Routledge. Crossref.
Bond Robert M., Fariss Christopher J., Jones Jason J., Kramer Adam D. I., Marlow Cameron, Settle Jaime E., Fowler James H. 2012. “A 61-Million-Person Experiment in Social Influence and Political Mobilization.” Nature 489: 295–298. Crossref. PubMed. Web of Science.
Bosworth Andrew. 2020. Lord of the Rings, 2020 and Stuffed Oreos: Read the Andrew Bosworth Memo. https://www.nytimes.com/2020/01/07/technology/facebook-andrew-bosworth-memo.html. Accessed 09 14, 2020.
Buckermann Paul, Koppenburger Anne, Schaupp Simon. 2017. Kybernetik, Kapitalismus, Revolutionen. Münster: Unrast.
Cadwalladr Carole. 2018. ‘I Made Steve Bannon’s Psychological Warfare Tool’. https://www.theguardian.com/news/2018/mar/17/data-war-whistleblower-christopher-wylie-faceook-nix-bannon-trump. Accessed 09 14, 2020.
Davies William. 2018. Nervous States. How Feeling Took over the World. London: Jonathan Cape.
Ebner Julia. 2019. Radikalisierungsmaschinen. Berlin: Suhrkamp.
Fanta Alex, Dachwitz Ingo 2020. Medienmäzen Google. OBS-Arbeitsheft 103. Frankfurt am Main: Otto-Brenner-Stiftung.
Frier Sarah. 2018. Trump’s Campaign Said it Was Better at Facebook. Facebook Agrees. https://www.bloomberg.com/news/articles/2018-04-03/trump-s-campaign-said-it-was-better-at-facebook-facebook-agrees. Accessed 09 14, 2020.
Foucault Michel. 1982. “The Subject and Power.” Critical Inquiry 8, no. 4 (Summer): 777–795. Crossref.
Gillespie Tarleton. 2018. Custodians of the Internet. Platforms, Content Moderation and the Hidden Decisions that Shape Social Media. New Haven; London: Yale University Press.
Grassegger Hannes, Krogerus Mikael. 2016. Ich habe nur gezeigt, dass es die Bombe gibt. https://www.tagesanzeiger.ch/ausland/europa/diese-firma-weiss-was-sie-denken/story/17474918. Accessed 06 05, 2021.
Green Joshua, Issenberg Sasha. 2016. Inside the Trump Bunker. With Days to Go. https://www.bloomberg.com/news/articles/2016-10-27/inside-the-trump-bunker-with-12-days-to-go. Accessed 09 14, 2020.
Hersh Eitan D. 2015. Hacking the Electorate. New York: Cambridge University Press. Crossref.
Habermas Jürgen. 1989. “Technology and Science as “Ideology”.” In Toward a Rational Society. Student Protest, Science, And Politics, edited by Habermas J., Shapiro Jeremy J., 81–122. Boston, MA: Beacon Press.
Habermas Jürgen. 1974. “The Public Sphere: An Encyclopedia Article.” New German Critique 3 (Autumn): 49–55. Crossref.
Habermas Jürgen. 1991. The Structural Transformation of the Public Sphere. Cambridge, MA: MIT Press.
Habermas Jürgen. 2020a. “Moralischer Universalismus in Zeiten Politischer Regression.” In Leviathan 48, no. 1: 7–28. [“Moral Universalism in a time of political regression — Jürgen Habermas in an interview about the world today and his life’s work, transl. by Frederik can Gelder, April 2020, available at: https://www.researchgate.net/publication/340903038_translation_Jurgen_Habermas_Moral_Universalism_in_a_time_of_political_regression_-_Jurgen_Habermas_in_an_interview_about_the_world_today_and_his_life’s_work_interview_of_Jan_2020. Accessed March 18, 2023. Crossref.
Habermas Jürgen. 2020b. “Warum Nicht Lesen?” In Warum Lesen. Mindestens 24 Gründe, edited by Raabe Katharina, Wegner Frank, 99–123. Berlin: Suhrkamp.
Habermas Jürgen. 2022. “Reflections and Hypotheses on a Further Structural Transformation of the Political Public Sphere.” Theory, Culture & Society 39, no. 4: 145–171. Accessed April 7, 2023. doi:Crossref. Web of Science.
Information Commissioner’s Office. 2020. ICO Investigation into Use of Personal Information and Political Influence. https://ico.org.uk/media/action-weve-taken/2618383/20201002_ico-o-ed-l-rtl-0181_to-julian-knight-mp.pdf. Accessed January 9, 2021.
Kaiser Brittany. 2019. Targeted: My inside Story of Cambridge Analytica and How Trump, Brexit and Facebook Broke Democracy. London: Harper Collins.
Karpf David. 2016. Preparing for the Campaign Tech Bullshit Season. https://civichall.org/civicist/preparing-campaign-tech-bullshit-season/. Accessed September 14, 2020.
Kramer Adam, Guillory Jamie E., Hancock Jeffrey T. 2014. “Experimental Evidence of Massive-Scale Emotional contagion through social networks.” PNAS 111, no. 24: 8788–8790. Crossref. PubMed. Web of Science.
Kosinski Michal, Youyou Wu, Stillwell David. 2015. “Computer-Based Personality Judgments are More Accurate Than Those Made by Humans.” PNAS 112, no. 4: 1036–1040. Crossref. PubMed.
Kreiss Daniel. 2016. Prototype Politics. Oxford: Oxford University Press. Crossref.
Kreiss Daniel, McGregor Shannon C. 2017. “Technology Firms shape political Communication: The Work of Microsoft, Facebook, Twitter, and Google with Campaigns During the 2016 U.S. Presidential Cycle.” Political Communication 35, no. 2: 155–177. Accessed July 2, 2021. doi:Crossref.
Kreiss Daniel. 2017. “Micro-Targeting, the Quantified Persuasion.” Internet Policy Review 6, no. 4: 1–14. Accessed 03 13, 2021. doi:Crossref.
Lang Eberhard. 1970. Zu einer kybernetischen Staatslehre. Salzburg: Pustet.
Lanier Jaron. 2018. Zehn Gründe, warum du deine Social Media Accounts sofort löschen musst. Hamburg: Hoffmann und Campe.
Lewis Paul. 2017. ‘Our Minds Can Be Hijacked’: The Tech Insiders Who Fear a Smartphone Dystopia. https://www.theguardian.com/technology/2017/oct/05/smartphone-addiction-silicon-valley-dystopia. Accessed 09 14, 2020.
Maschewski Felix, Nosthoff Anna-Verena. 2018. Facebook löschen oder Facebook regulieren? Anmerkungen zur aktuellen Aufregung um Cambridge Analytica & Co. https://www.rosalux.de/publikation/id/38734/facebook-loeschen-oder-facebook-regulieren. Accessed 5 6, 2021.
Maschewski Felix, Nosthoff Anna-Verena. 2019. “Netzwerkaffekte. Über Facebook als kybernetische Regierungsmaschine und das Verschwinden des Subjekts.” In Affekt Macht Netz. Auf dem Weg zu einer Sozialtheorie der Digitalen Gesellschaft, edited by Mühlhoff Rainer, Brejak Anja, Slaby Jan, 55–80. Bielefeld: transcript. Crossref.
Maschewski Felix, Nosthoff Anna-Verena. 2021. Die Macht der Metamedien. https://www.philomag.de/artikel/die-macht-der-metamedien. Accessed 02 12, 2021.
Mouffe Chantal. 2005. On the Political. London/New York: Routledge.
Mersch Dieter. 2013. Ordo Ab Chao. Zürich: Diaphanes.
Nosthoff Anna-Verena, Maschewski Felix. 2017. Order from Noise: On Cambridge Analytica, Cybernetic Governance and the Technopolitical Imaginary. https://publicseminar.org/2017/03/order-from-noise/. Accessed January 09, 2021.
Nosthoff Anna-Verena, Maschewski Felix. 2019. “The Obsolescence of Politics: Rereading Günther Anders’s Critique of Cybernetic Governance and Integral Power in the Digital Age.” Thesis Eleven 153, no. 1: 75–93. Crossref. Web of Science.
Nix Alexander 2016. The Power of Big Data and Psychographics. https://www.youtube.com/watch?v=n8Dd5aVXLCc (Accessed 14 September 2020).
Papacharissi Zizi. 2015. Affective Publics: Sentiment, Technology, and Politics. Oxford; New York: Oxford University Press.
Piétron Dominik, Staab Philipp. 2021. “EU Gegen Big Tech: Das Ende der Gesetzlosigkeit?” Blätter für deutsche und Internationale Politik 2, no. 2021: 95–101.
Plantin Jean-Christoph, Lagoze Carl, Edwards Paul N., Sandvig Christian. 2018. “Infrastructure Studies Meet Platform Studies in the Age of Google and Facebook.” New Media & Society 20, no. 1: 293–310. Crossref. Web of Science.
Pörksen Bernhard. 2018. Die große Gereiztheit. Wege aus der kollektiven Erregung. München: Hanser. Crossref.
Resnick Brian. 2018. Cambridge Analytica’s ‘psychographic Microtargeting’: What’s Bullshit and What’s Legit. https://www.vox.com/science-and-health/2018/3/23/17152564/cambridge-analytica-psychographic-microtargeting-what. Accessed 09 14, 2020.
Reckwitz Andreas. 2017. Die Gesellschaft der Singularitäten. Berlin: Suhrkamp.
Richterich Annika. 2018. “How Data-Driven Research Fuelled the Cambridge Analytica Controversy.” PACO 11, no. 2: 528–543.
Rosenberg Matthew, Confessore Nicholas, Cadwalladr Carole. 2018. How Trump Consultants Exploited the Facebook Data of Millions. https://www.nytimes.com/2018/03/17/us/politics/cambridge-analytica-trump-campaign.html. Accessed 01 09, 2021.
Srnicek Nick 2017. Platform Capitalism (Theory Redux), Cambridge: Polity.
Solon Olivia. 2017. Ex-Facebook President Sean Parker: Site Made to Exploit Human ‘vulnerability’. https://www.theguardian.com/technology/2017/nov/09/facebook-sean-parker-vulnerability-brain-psychology. Accessed 09 14, 2020.
Staab Philipp. 2019. Digitaler Kapitalismus. Markt und Herrschaft in der Ökonomie der Unknappheit. Berlin: Suhrkamp.
Sabbagh Dan. 2020. Trump 2016 Campaign ‘targeted 3.5m Black Americans to Deter Them from Voting’. https://www.theguardian.com/us-news/2020/sep/28/trump-2016-campaign-targeted-35m-black-americans-to-deter-them-from-voting. Accessed 1 09, 2020.
Stark Birgit, Magin Melanie. 2019. “Neuer Strukturwandel der Öffentlichkeit durch Informationsintermediäre: Wie Facebook, Google & Co. die Medien und den Journalismus verändern.” In Wandel der Öffentlichkeit und Gesellschaft, edited by byEisenegger Mark, Udris Linards, Ettinger Patrik, 377–406. Wiesbaden: Springer VS. Crossref.
Stromer-Galley Jennifer. 2014. Presidential Campaigning in the Internet Age. New York: Oxford University Press. Crossref.
Sunstein Cass, Thaler Richard. 2009. Nudge. Wie Man Kluge Entscheidungen Anstößt. Berlin: Econ.
Tactical Tech. 2019. Personal Data. Political Persuasion. Inside the Influence Industry. https://cdn.ttc.io/s/tacticaltech.org/methods_guidebook_A4_spread_web_Ed2.pdf. Accessed 1 09, 2020.
Tiqqun. 2010. The Cybernetic Hypothesis. London/Cambridge, MA: Semiotext. (e) (Retrieved on 18 March from: https://theanarchistlibrary.org/library/tiqqun-the-cybernetic-hypothesis.pdf).
Tufekci Zeynep. 2014. “Engineering the Public: Big Data, Surveillance and Computational Politics.” First Monday 19, no. 7: Accessed 03 13, 2021. doi:Crossref.
Vosoughi Soroush, Roy Deb, Aral Sinan. 2018. “The Spread of True and False News Online.” Science 359, no. 6380: 1146–1151. Crossref. PubMed. Web of Science.
Wagner Kurt. 2016. Mark Zuckerberg Says It’s ‘crazy’ to Think Fake News Stories Got Donald Trump Elected. https://www.vox.com/2016/11/11/13596792/facebook-fake-news-mark-zuckerberg-donald-trump. Accessed 09 14, 2020.
Weaver Warren. 1963. “Recent Contributions to the Mathematical Theory of Communication.” In The Mathematical Theory of Communication, edited by Shannon Claude, Weaver Warren, 1–28. Urbana; Chicago: University of Illinois Press.
Weeks Brain E., Ardèvol-Abreu Alberto, Gil de Zúñiga Homero. 2015. “Online Influence? Social Media Use, Opinion Leadership, and Political Persuasion.” International Journal of Public Opinion Research 29, no. 2: 214–239.
Vogl Joseph. 2021. Kapital und Ressentiment. Eine kurze Theorie der Gegenwart. München: C.H. Beck. Crossref.
Wiener Norbert. 1950. The Human Use of Human Beings. Cambridge, MA: Riverside Press.
Wong Julia Carrie. 2021. How Facebook Let Fake Engagement Distort Global Politics: A Whistleblowers Account. https://www.theguardian.com/technology/2021/apr/12/facebook-fake-engagement-whistleblower-sophie-zhang. Accessed 04 14, 2021.
Woolley Samuel C., Guilbeault Douglas R. 2017. Computational Propaganda in the United States of America: Manufacturing Consensus Online. http://comprop.oii.ox.ac.uk/wp-content/uploads/sites/89/2017/06/Comprop-USA.pdf. Accessed 09 14, 2020.
Wylie Christopher. 2019. Mindf*ck. Cambridge Analytica and the Plot to Break America. New York: Random House.
Zuboff Shoshana. 2019. The Age of Surveillance Capitalism. London: Profile.