- Retour au menu
- Retour au menuTarifs
- Retour au menuRecherche
- Retour au menuConsensus
- Retour au menu
- Retour au menu
- Retour au menu
- Retour au menuWebinaires et Événements
« Indifférence radicale » : comment le capitalisme de surveillance a conquis nos vies
« La désinformation est une conséquence courante du capitalisme de surveillance », déclare Shoshana Zuboff, auteur de « Surveillance Capitalism », dans une interview de grande envergure.
Si Shoshana Zuboff me rappelle avec 15 minutes de retard, c'est parce que son précédent appel avec une organisation en Israël a été interrompu à mi-chemin et qu'il leur a fallu un certain temps pour se reconnecter. Tel est le danger de fonctionner en confinement, alors même que les entreprises technologiques exercent un pouvoir plus grand que jamais.
Au lieu de disposer du temps nécessaire pendant l'été pour réfléchir et planifier son prochain livre comme elle le souhaitait, Zuboff a été très occupée par les personnes souhaitant lui parler et participer à des Événements virtuels. C'est en partie pour cette raison que, depuis quatre mois, nous essayons d'organiser un appel, mais la date est sans cesse repoussée.
Le chant des oiseaux résonne en arrière-plan pendant notre conversation téléphonique, un élément essentiel de l'ambiance de la maison de campagne de Zuboff. Elle se dit chanceuse d'être là, compte tenu des difficultés que rencontrent ses amis pour concilier la COVID-19 et la vie en ville. Le chant des oiseaux bat le rythme dystopique des camions de glaces alors qu'ils sillonnent New York à la recherche de clients en pleine pandémie.
« La vie en temps de pandémie prend tellement de temps », dit-elle. « Entre trouver comment faire les courses et tout le reste, c'est tellement laborieux. »
Voir aussi :Dans le duel Trump-Twitter, la technologie décentralisée pourrait WIN
Zuboff est l'auteur def "« L'ère du capitalisme de surveillance : la lutte pour un avenir Human à la nouvelle frontière du pouvoir », et professeur émérite Charles Edward Wilson à la Harvard Business School. Zuboff affirme que l'ouvrage (660 pages) « synthétise des années de recherche et de réflexion afin de révéler un monde où les utilisateurs de Technologies ne sont ni des clients, ni des employés, ni des produits. Ils sont plutôt la matière première de nouvelles procédures de fabrication et de vente qui définissent un ordre économique entièrement nouveau : une économie de la surveillance. »
Zuboff et moi discutons du cadre du capitalisme de surveillance. Mais j'ai hâte de connaître son point de vue sur les manifestations qui secouent les États-Unis et sur la politique du président Donald Trump.décret exécutif sur l'article 230, une loi qui accorde aux réseaux sociaux une immunité en matière de responsabilité pour leurs contenus, et que le président a contestée. Il semble opportun de réfléchir au contexte qu'Internet donne à ces Événements et à ceux qui le contrôlent.
Cette conversation a été éditée pour des raisons de longueur et de clarté.

Décrivez le capitalisme de surveillance et ce que cela signifie pour les personnes qui ne le connaissent peut-être pas.
Le capitalisme de surveillance a été inventé chez Google entre 2000 et 2001 en réponse à la crise financière provoquée par l'éclatement de la bulle Internet. C'étaient les plus brillants, dotés du meilleur moteur de recherche et des investisseurs en capital-risque les plus prestigieux. Mais même eux ont été mis sous pression, leurs investisseurs menaçant de se retirer. À cette époque, ils ont décidé de trouver une voie rapide vers la monétisation, et ce serait par la publicité, une option qu'ils avaient jusque-là rejetée.
Ils ont découvert que les données comportementales résiduelles sur leurs serveurs, appelées « données d'échappement », étaient en réalité riches en signaux prédictifs. Or, ces signaux prédictifs restaient inutilisés, dépassant les besoins d'amélioration des produits ou services. J'appelle ces données comportementales des « excédents ». C'est en entraînant leurs capacités d'analyse déjà très sophistiquées sur ces flux excédentaires et en extrayant ces signaux prédictifs, puis en les utilisant à des fins d'analyse, qu'ils ont découvert qu'ils pouvaient prédire sur quel type de publicité un utilisateur est susceptible de cliquer et s'il cliquerait pour accéder au site web. C'est ce que nous appelons aujourd'hui le « taux de clics ».
Le taux de clics est un outil informatique qui prédit un fragment du comportement Human . Il s'est avéré qu'il existait un marché très important de clients professionnels désireux de connaître les comportements des clients et de prédire le comportement des utilisateurs.
Les annonceurs et leurs clients ont donc abandonné la relation traditionnelle entre un produit et sa publicité, où une entreprise décide où placer ses publicités en fonction des valeurs de sa marque. Même les premières années de la publicité en ligne ont maintenu cette continuité. Mais Google leur a fait une offre qu'ils T pouvaient refuser, et ils l'ont acceptée après de BIT débats et conflits. Ils ont accepté d'acheter le produit sans demander à voir le contenu de la boîte noire de Google et de laisser les machines décider de l'emplacement des publicités.
Comment ce modèle peut-il s’étendre jusqu’à englober la quasi-totalité d’Internet ?
Il ne s'agit pas d'un simple accident survenu chez Google. Il s'agit d'une logique économique qui a connu un tel succès chez Google qu'en quelques années seulement, elle est devenue le modèle par défaut de tout le secteur technologique, puis s'est propagée à l'ensemble de l'économie, jusqu'à devenir la logique économique dominante de notre époque.
Entre 2001, année où cette logique a commencé à être appliquée systématiquement, et 2004, année de l'introduction en bourse de Google (la première fois que nous avons pu consulter ses chiffres), son chiffre d'affaires a augmenté de 3 590 %. Cette croissance exponentielle représente ce que j'appelle le dividende de la surveillance. À ce moment-là, ils avaient déchiffré le code et de nombreuses entreprises ont trouvé une voie vers la monétisation. Du fabricant de téléviseurs à Ford Motor Company, tout le monde a commencé à dire : « Au diable le produit, on veut les données. » Tous les secteurs sont à la poursuite du dividende de la surveillance.
On raconte l'histoire de jeunes cadres de Google, assis dans un bureau en 2001, essayant de répondre à la question : « Qu'est-ce que Google ? » Et personne n'avait de réponse convaincante. Larry Page a finalement commencé à partager des informations et, selon lui, si Google avait une activité, ce serait des données personnelles. Les gens vont produire tellement de données. Il y aura des caméras et des capteurs bon marché partout. Il y aura tellement de données sur la vie des gens que toute l'expérience Human sera consultable et indexable. Il avait la vision que les données personnelles étaient la clé du succès. Le capitalisme de surveillance est une logique économique fondée sur le vol unilatéral et Secret de l'expérience privée comme source inépuisable de matière première gratuite, et cette matière première gratuite devient un actif à coût nul [ce qui signifie que, après les coûts d'installation, sa production est gratuite]. Elle peut être traduite en données comportementales. Ces données comportementales sont désormais revendiquées comme propriétaires et sont collectées dans de nouveaux écosystèmes complexes de chaînes d'approvisionnement.
C’est le chemin que suit le capitalisme de surveillance : non seulement pour tout savoir et l’utiliser à des fins de prédiction, mais aussi pour influencer le comportement Human .
Tout alimente la chaîne d'approvisionnement. Non seulement vos activités en ligne, mais aussi tout ce que vous faites sur votre téléphone, toutes ses applications et, comme Page l'avait prédit, tous les appareils photo et capteurs collectent des données. Toutes les données comportementales sont désormais considérées comme propriétaires et alimentent des écosystèmes complexes avant d'être transmises aux usines informatiques du capitalisme de surveillance, appelées intelligence artificielle. Le résultat est des produits informatiques qui prédisent le comportement Human et sont vendus sur les Marchés, à l'instar des Marchés à terme sur la poitrine de porc ou le pétrole.
Qu’est-ce que cela signifie pour la vie quotidienne des gens ?
Les Marchés à terme Human sont soumis à une dynamique concurrentielle. Sur ces Marchés, les acteurs et les vendeurs se disputent la certitude. Ils vendent cette certitude à leurs clients, et les meilleures prédictions WIN. Nous avons eu un aperçu de ces pôles industriels il y a quelques années grâce à un document Facebook divulgué en 2018Le document révèle que, dans le hub d'IA de Facebook, des milliards de données sont ingérées chaque jour et que 6 millions de prédictions comportementales sont produites chaque seconde. C'est donc de cette échelle dont nous parlons. En analysant la concurrence sur ces Marchés de prédiction, et en la décortiquant, on commence à voir très clairement les impératifs économiques à l'œuvre.
Le ONE est l'échelle. Pour que l'IA soit efficace dans ses prédictions, elle a besoin de beaucoup de données. Le ONE est la portée. Outre le volume, il faut de la variété. Cela implique de faire sortir les gens de leur ordinateur de bureau, de leur ordinateur portable, et de les faire explorer le monde, de leur maison, de leur voiture, de leur ville. Donnez-leur un petit ordinateur, qu'ils peuvent emporter dans leur poche et qui nous dira tout ce qu'ils font. Appelons ça un téléphone. Ce sont des économies de portée.
La À découvrir finale a été que les meilleures données prédictives proviennent d'une intervention numérique sur le comportement des individus, permettant d'apprendre à ajuster et à orienter leur comportement de manière à maximiser la force de leurs prédictions et, par conséquent, les résultats pour les clients. Cela a donné lieu à un nouveau champ d'expérimentation. L'échelle d'extraction est immense, mais conceptuellement simple. Le champ d'application est vaste, mais a nécessité beaucoup d'invention. Facebook, par exemple, travaille actuellement sur la traduction. les ondes cérébrales en langage.
Comment modifier concrètement les comportements pour optimiser les flux de revenus ? Ce n'est pas aussi simple. Il s'agit d'un nouveau domaine d'expérimentation, et les entreprises se sont donc lancées dans des expériences. On peut citer les expériences de contagion à grande échelle de Facebook, ou encore Pokémon Go de Google, le jeu de réalité augmentée qui expérimentait comment diriger les gens à travers leurs villes et villages vers les établissements qui payaient Niantic Labs, créateur de Pokémon Go et issu de Google, pour une fréquentation garantie. La structure est identique à celle des Marchés publicitaires en ligne qui paient au taux de clics, et on a maintenant un établissement du monde réel qui paie pour une fréquentation garantie.
Voir aussi :Pourquoi la « guerre culturelle » du Bitcoin est importante
C'est ce que les data scientists appellent le passage de la surveillance à l'actionnement. C'est à ce moment-là que l'on dispose de suffisamment de connaissances sur un système machine pour pouvoir le contrôler à distance et l'automatiser. On peut modifier les paramètres ou effectuer tout ce qu'on veut à distance grâce à une masse d'informations sur le système qui surveille l'actionnement. C'est l'évolution du capitalisme de surveillance : non seulement tout savoir et l'utiliser à des fins de prédiction, mais aussi influencer le comportement Human , social et individuel afin d'orienter les comportements vers la direction optimale pour générer des revenus.
Nous le voyons dansmicro-ciblage basé sur la psychologieOn le constate dans l'utilisation en temps réel de récompenses et de punitions, délivrées via votre téléphone. On le constate également dans l'importation de la gamification pour orienter les utilisateurs vers des résultats commerciaux satisfaisants. Pokémon Go en est un exemple. Le fait est que, lorsque les gens réfléchissent à ces questions, ils ne pensent qu'à des publicités ciblées. Ils pensent qu'il ne s'agit que de publicité. Ce n'est plus le cas. Il s'agit de votre compagnie d'assurance qui vous récompense et vous punit en temps réel en fonction de la pression que vous exercez sur l' GAS . En temps réel, cela peut augmenter ou diminuer vos primes en fonction de votre comportement immédiat.
Alors, quel est l'objectif final de ce scénario ? Vous évoquez l'expérimentation précédente de Sidewalk Lab avec Toronto, une « ville intelligente » qui échange des données contre toutes sortes de privilèges. À quoi cela ressemble-t-il ?
Une telle expérience remplace les décisions que prennent les citoyens sur la façon dont ils souhaitent vivre ensemble, qui sont les fondements de toute démocratie. Le citoyen n'a d'autre rôle que de participer à ce système plus vaste. Et ces entreprises affirment que si vous acceptez de nous communiquer toutes vos données et de nous rendre votre vie entièrement accessible, vous aurez droit à tous ces nouveaux services intéressants.
En revanche, si vous optez pour la Politique de confidentialité et l'anonymat, vous serez exclu des services proposés. Vous T bénéficier des nouveaux systèmes de transport, de sécurité ni de livraison de repas. Voici les récompenses et les sanctions en temps réel. Googleparlé deUtilisation des données pour établir des scores de réputation. Les personnes et les entreprises qui respectent les paramètres algorithmiques obtiennent des scores de réputation plus élevés, ce qui les privilégie en matière de prêts bancaires et d'autres services. Les personnes qui enfreignent les paramètres algorithmiques sont sanctionnées, car elles sont exclues de ces relations et services, et ne peuvent donc T progresser.
Voir aussi :La décentralisation et ce que l'article 230 signifie réellement pour la liberté d'expression
C'est une vision d'avenir : une entreprise privée au pouvoir irresponsable. Un avenir où nous n'aurons T la grande démocratisation de l'information que nous attendions à l'ère numérique, bien au contraire. Nous reviendrons à un modèle féodal, avec ces immenses concentrations de savoir et ce nouveau type de pouvoir.
Ce pouvoir, ce ne sont pas des soldats qui débarquent chez vous en pleine nuit et vous emmènent au goulag. Ce n'est ni violence, ni terreur, ni meurtre. C'est un pouvoir qui opère à distance grâce à l'instrumentation numérique. Si vous pensez que de tels systèmes ne sont que le sujet des épisodes de « Black Mirror », lisez l'histoire du XXe siècle, où il a fallu toute l'alliance occidentale pour repousser un autre type de pouvoir totalitaire qui voulait un contrôle total sur les individus et la société : le totalitarisme. Ce pouvoir est différent, car il arrive généralement avec un cappuccino plutôt qu'avec une arme.
L’indifférence radicale vise à maximiser les flux de données, non pas parce que ces personnes sont malveillantes, mais parce que c’est la contrainte de cette logique économique.
Quel impact le décret de Trump attaquant l’article 230 – qui absout les entreprises de toute responsabilité civile pour le contenu en ligne – pourrait-il avoir sur ce point, le cas échéant ?
La désinformation est une conséquence courante de la logique économique que nous venons d'évoquer. Elle résulte des impératifs d'économies d'échelle et de gamme. Tous les systèmes ont été conçus dès le départ pour maximiser les flux de la chaîne d'approvisionnement. Pour reprendre le langage euphémique des capitalistes de la surveillance, il s'agit d'engagement. Cette logique économique ne laisse aucune place à l'évaluation de la qualité de l'approvisionnement. T importe. L'échelle compte. La portée compte. L'action qui nous permet d'accroître la précision des prévisions compte. C'est tout.
C'est ce que j'appelle l'indifférence radicale. T importe que vous soyez heureux ou triste. Ce qui nous importe, c'est d'obtenir les données. T importe que vous ayez un cancer, que vous vous mariez ou que vous planifiez un attentat terroriste, ce qui nous importe, c'est d'obtenir les données. L'indifférence radicale consiste à maximiser les flux de données, non pas parce que ces personnes sont malveillantes, mais parce que c'est la contrainte de cette logique économique. Tant que nous n'interromprons pas et n'interdirons pas cette logique économique, nous aurons de la désinformation.
La nature Human est telle que, si vous conduisez sur une route et qu'il y a un accident, vous vous arrêtez pour regarder. Si vous conduisez sur la route et qu'il y a un beau saule, vous KEEP à rouler. Il s'avère que les contenus violents, polémiques, haineux, incitant à la colère et mensongers incitent les gens à s'arrêter et à regarder. C'est ça, l'accident de voiture.
Parce que les systèmes sont conçus pour maximiser l'offre, et parce que les gens s'arrêtent pour observer les épaves de voitures, cela permet l'apparition d'armées de robots et de trolls. Voilà ce qu'est M. Trump.
L'article 230 n'avait aucun moyen d'anticiper le capitalisme de surveillance. Il n'y a aucune incitation à éliminer les contenus malveillants et des incitations massives à KEEP les chaînes d'approvisionnement pleines. Il s'avère qu'Internet n'est pas un tableau d'affichage, comme l'imaginaient les créateurs de l'article 230. Internet est plutôt le système sanguin du corps politique mondial. Grâce aux impératifs économiques du capitalisme de surveillance, ceux qui possèdent et exploitent Internet sont incités à permettre à n'importe qui d'introduire n'importe quel poison dans le sang sans antidote. Voilà où nous en sommes aujourd'hui.
L'article 230 doit-il donc être examiné de près ? Oui, mais il doit l'être dans le cadre d'une discussion plus large sur les cadres législatifs, les paradigmes réglementaires, les chartes des droits ou les institutions nécessaires pour rendre Internet compatible avec la démocratie.
Nous sommes dans la troisième décennie du siècle numérique. Il faut trouver une solution. M. Trump arrive et attire l'attention sur l'article 230, ce ONE pourrait sembler une bonne chose, mais voilà que nous subissons un deuxième coup du lapin. Ce coup du lapin, c'est que M. Trump se bat pour le droit d'empoisonner à volonté le système sanguin mondial. Il se bat pour le droit de mentir. Il se bat pour le droit d'introduire des informations contrefactuelles dans le corps politique.
Nous devons construire un État de droit compatible avec la démocratie, qui réponde aux questions CORE du capitalisme de surveillance et de la propriété et de l'exploitation d'Internet. Nous devons le faire pour qu'Internet soit sûr pour la vérité, et non pour les mensonges. Il y a des domaines où Analyses est présente, mais d'autres où les faits sont présents. Nous avons désormais un système sanguin mondial dans lequel aucune institution ne fonctionne sous protection et contrôle démocratiques. Cela a rendu nos démocraties intenables.
Benjamin Powers
Powers est journaliste spécialisé dans les technologies chez Grid. Auparavant, il était journaliste Politique de confidentialité chez CoinDesk , où il se concentrait sur la Politique de confidentialité des données et des finances, la sécurité de l'information et l'identité numérique. Ses travaux ont été publiés dans le Wall Street Journal, le Daily Beast, Rolling Stone et le New Republic, entre autres. Il possède des Bitcoin.
