Accueil > Bibliothèque > L’Âge du capitalisme de surveillance, par Shoshana Zuboff

L’Âge du capitalisme de surveillance, par Shoshana Zuboff

par Jean-Marie NICOLLE, le 3 mars 2021

Enregistrer au format PDF
L’Âge du capitalisme de surveillance, par Shoshana Zuboff (Paris, éd. Zulman, 2020)

Rien n’est gra­tuit en ce monde. On devrait s’étonner de la naï­veté des inter­nau­tes qui croient encore en la gra­tuité des ser­vi­ces rendus sur le réseau, comme s’il n’y avait rien à payer pour écouter de la musi­que, voir des films, obte­nir des ren­sei­gne­ments médi­caux, trou­ver des conseils de jar­di­nage, etc. Qu’y a-t-il der­rière cette appa­rente gra­tuité ?

Peu de gens connais­sent l’orga­ni­sa­tion économique des sites web car les gran­des socié­tés du numé­ri­que se gar­dent bien de four­nir des infor­ma­tions sur leurs véri­ta­bles acti­vi­tés. Derrière l’écran lumi­neux qui verse géné­reu­se­ment des flots d’infor­ma­tions, il y a la face cachée et même assez sombre du marché numé­ri­que. Les véri­ta­bles clients de l’inter­net ne sont pas les uti­li­sa­teurs ordi­nai­res du réseau, mais les usa­gers qui achè­tent d’autres ser­vi­ces.

Lesquels ? Ce sont les pro­duits trans­for­més d’une matière pre­mière four­nie gra­tui­te­ment et à leur insu par les uti­li­sa­teurs, à savoir leurs don­nées per­son­nel­les. Google, Facebook, Amazon et Cie se sont spé­cia­li­sées dans l’extrac­tion des « data » et ont fait for­tune grâce à leur exploi­ta­tion. La com­mu­ni­ca­tion des don­nées per­son­nel­les est la nou­velle dîme par laquelle les inter­nau­tes finan­cent sans le savoir la pseudo-gra­tuité des ser­vi­ces.

Shoshana Zuboff, spé­cia­liste de psy­cho­lo­gie sociale, ana­lyse dans L’Âge du capi­ta­lisme de sur­veillance la jeune his­toire de cette nou­velle indus­trie flo­ris­sante et révèle les coups four­rés, les trans­gres­sions de la loi, tous les crimes contre la démo­cra­tie qui ont permis ce capi­ta­lisme de sur­veillance. Si son style est un peu lourd, encom­bré par le jargon des scien­ces socia­les, si ses expli­ca­tions sont un peu lon­gues et répé­ti­ti­ves (l’ouvrage fait 850 pages !), si ses ana­ly­ses poli­ti­ques et phi­lo­so­phi­ques man­quent d’ampleur, il n’en demeure pas moins que son enquête, qui suit pas à pas l’évolution des gran­des socié­tés de l’Internet, nous livre une docu­men­ta­tion consi­dé­ra­ble (les notes occu­pent 100 pages). Son mérite est d’avoir obtenu des ren­sei­gne­ments essen­tiels sur des pra­ti­ques soi­gneu­se­ment occultées par le bien com­mode secret indus­triel.

L’ouvrage est divisé en trois par­ties cor­res­pon­dant aux trois étapes de cette nou­velle indus­trie : 1. L’extrac­tion des don­nées per­son­nel­les ; 2. Leur exploi­ta­tion pour conce­voir des pré­dic­tions de com­por­te­ments ; 3. La cons­truc­tion d’un pou­voir ins­tru­men­ta­li­sant.

1. L’extraction des données personnelles 

Commençons par le projet de l’Aware Home qui visait à créer un réseau de cap­teurs sur tous les objets d’une maison et ses habi­tants, en cir­cuit fermé, pour amé­lio­rer le confort d’un chez-soi. En 2018, Google acquiert les dif­fé­ren­tes socié­tés du projet et télé­charge toutes les don­nées sur ses ser­veurs, rom­pant ainsi le contrat de confi­den­tia­lité passé avec les uti­li­sa­teurs. Les don­nées per­son­nel­les font alors l’objet d’un nou­veau marché car elles vont per­met­tre d’élaborer des don­nées com­por­te­men­ta­les pré­dic­ti­ves. L’extrac­tion des don­nées per­son­nel­les a com­mencé avec le lan­ce­ment des moteurs de recher­che dont le plus impor­tant est Google. Au lieu d’effa­cer au fur et à mesure les requê­tes et les his­to­ri­ques de navi­ga­tion, Google les conserve pour les ana­ly­ser et les trans­for­mer en de nou­vel­les don­nées. Déjà, en 2004, Gmail, lancé par Google, explo­rait la cor­res­pon­dance privée de ses uti­li­sa­teurs pour leur envoyer de la publi­cité ciblée. En 2007, Facebook per­met­tait à ses annon­ceurs de suivre les uti­li­sa­teurs sur Internet et de divul­guer leurs achats à leur réseau per­son­nel sans auto­ri­sa­tion. Devant de tels viols de la vie privée, des uti­li­sa­teurs ont déposé plainte. La cour de jus­tice de l’Union Européenne a alors pro­mul­gué un droit à l’oubli en 2014, mais cela n’empê­cha pas Google de pour­sui­vre son pillage des don­nées per­son­nel­les par d’autres voies.

Ses ingé­nieurs ont bien vu que les rési­dus des inte­rac­tions avec les uti­li­sa­teurs (nombre de recher­ches, tour­nure de la requête, ortho­gra­phe des mots, ponc­tua­tion, temps passé, loca­li­sa­tion de l’uti­li­sa­teur, etc.) valaient de l’or si on savait bien les exploi­ter. Cette énergie dépen­sée par les uti­li­sa­teurs est un tra­vail récu­péré par Google, mais un tra­vail non rému­néré, car il n’y a aucun contrat. Les uti­li­sa­teurs sont des sour­ces gra­tui­tes d’appro­vi­sion­ne­ment de matière pre­mière.

Par l’ana­lyse des don­nées, on a d’abord pu affi­ner le ciblage de la publi­cité qui n’est plus liée aux mots-clés d’une requête ; elle devient plus « per­son­nelle », liée au savoir que l’on a pu recons­ti­tuer sur chaque uti­li­sa­teur. Google a pu ainsi aug­men­ter le prix de ses publi­ci­tés en garan­tis­sant à l’annon­ceur une plus grande pré­ci­sion dans le ciblage. Le ser­vice rendu aux uti­li­sa­teurs du moteur de recher­che devient secondaire ; ce qui compte, c’est de déchif­frer le profil de chacun pour faire cor­res­pon­dre les publi­ci­tés à ses cen­tres d’inté­rêt, les­quels sont déduits des traces de son com­por­te­ment face à son écran. La visée obte­nue est moins aléa­toire, plus sûre, et donc, vaut plus cher.

Comme lors de l’impé­ria­lisme colo­nia­liste, le capi­ta­lisme a su pro­fi­ter d’un vide juri­di­que sur un nouvel espace trans­fron­ta­lier. Profitant de l’effet de sur­prise, le capi­ta­lisme numé­ri­que prend de court les États qui réa­gis­sent tard et mala­droi­te­ment ; il invo­que la liberté d’inno­ver contre les régle­men­ta­tions contrai­gnan­tes, et gagne ainsi de consi­dé­ra­bles marges de manœu­vre pour exploi­ter ses affai­res. Constituées en groupe de pres­sion (lobby), les socié­tés numé­ri­ques font passer des lois en leur faveur. Ainsi, en 1996, une loi est adop­tée au Congrès amé­ri­cain qui pro­tège les sites de toute res­pon­sa­bi­lité (sec­tion 230 du Communications Decency Act) : « Aucun four­nis­seur, aucun uti­li­sa­teur d’un ser­vice infor­ma­ti­que inte­rac­tif ne sera traité comme l’éditeur ou l’émetteur d’une infor­ma­tion livrée par un autre four­nis­seur de contenu infor­ma­tif. » On ne pourra pour­sui­vre en jus­tice une plate-forme en ligne pour le contenu des infor­ma­tions qu’elle affi­che.

Pour obte­nir encore plus de don­nées, Google n’a pas hésité à favo­ri­ser des fabri­cants de télé­pho­nes mobi­les, comme les appa­reils Android, afin d’y intro­duire des appli­ca­tions à son ser­vice. La fonc­tion de télé­phone recou­vre en fait une fonc­tion d’appro­vi­sion­ne­ment des don­nées per­son­nel­les. Malgré le sys­tème d’auto­ri­sa­tions pré­senté à l’uti­li­sa­teur pour sélec­tion­ner la com­mu­ni­ca­tion de ses don­nées sur son télé­phone, en réa­lité, Android donne tout à Google. Des appli­ca­tions appa­rem­ment inno­cen­tes comme la météo, les lampes de poche, le covoi­tu­rage, etc., contien­nent des pro­gram­mes de tra­çage. Par exem­ple, le télé­phone émet un son imper­cep­ti­ble à l’oreille humaine qui permet de détec­ter sa pré­sence dans tel ou tel immeu­ble doté de cap­teurs. Même si le télé­phone est éteint, la géo­lo­ca­li­sa­tion est main­te­nue : « Les télé­pho­nes Android recueillent depuis le début 2017 des infor­ma­tions en trian­gu­lant l’antenne la plus proche, et ceci même si la géo­lo­ca­li­sa­tion est éteinte, que les applis sont toutes éteintes et qu’il n’y a pas de carte SIM dans le télé­phone. »

Une autre tech­ni­que d’extrac­tion de don­nées per­son­nel­les consiste à intro­duire un « assis­tant numé­ri­que » dans un logi­ciel, comme Microsoft l’a fait avec Cortana : sous pré­texte d’aider l’uti­li­sa­teur dans ses dif­fi­cultés tech­ni­ques, on insère un pro­gramme espion qui permet de com­plé­ter son profil. Cependant, com­ment faire lors­que l’uti­li­sa­teur change d’appa­reil ? Comment conti­nuer à le suivre lorsqu’on a perdu l’iden­ti­fiant de sa machine et que les coo­kies envoyés ne répon­dent plus ? Une société amé­ri­caine, Verizon, a mis au point un numéro de suivi dis­si­mulé et inef­fa­ça­ble pour chaque uti­li­sa­teur, un iden­ti­fiant incontour­na­ble par la navi­ga­tion privée ou d’autres outils de confi­den­tia­lité. Le nœud une fois fermé, l’uti­li­sa­teur ne peut plus s’en défaire. Plus aucune pro­cé­dure de retrait ne fonc­tionne.

La pra­ti­que du selfie est aussi une source extra­or­di­naire. En explo­rant tous les visa­ges pho­to­gra­phiés et mis en ligne sur Facebook (350 mil­lions de photos par jour !), cette entre­prise a mis au point un logi­ciel de reconnais­sance faciale qui appro­che les 100% de réus­site. En ana­ly­sant les poses, le regard, l’habille­ment, la coif­fure, les pos­tu­res, etc., on peut pro­fi­ler les indi­vi­dus et pré­dire leurs com­por­te­ments. Après le visage, la voix : les répon­deurs vocaux com­plexes, qui pro­po­sent une sorte de « conver­sa­tion » avec le client, enre­gis­trent des paro­les faci­le­ment ana­ly­sa­bles par la suite. « Il fut un temps où vous explo­riez grâce à Google. Maintenant, c’est vous que Google explore. »

Le poste de télé­vi­sion peut aussi nous sur­veiller, comme la Smart TV de Samsung qui enre­gis­tre tout ce qui se dit à proxi­mité du poste. Les jouets comme les pou­pées inte­rac­ti­ves ou les robots gla­nent des infor­ma­tions auprès des enfants en leur deman­dant leur adresse par exem­ple. Amazon a obtenu de cer­tai­nes entre­pri­ses de BTP l’ins­tal­la­tion dans les pla­fonds des immeu­bles en cons­truc­tion d’encein­tes connec­tées, des ser­ru­res, des ther­mo­stats, des inter­rup­teurs qui trans­met­tent des don­nées per­son­nel­les. La même tech­ni­que est uti­li­sée dans les entre­pri­ses pour espion­ner le per­son­nel.

Lorsque de telles pra­ti­ques sont révé­lées, la stra­té­gie réac­tive des socié­tés numé­ri­ques est tou­jours décli­née en quatre étapes : incur­sion, accou­tu­mance, adap­ta­tion, redi­rec­tion.

— 1. L’incur­sion consiste à s’intro­duire par­tout où c’est pos­si­ble pour extraire des don­nées nou­vel­les. Par exem­ple, l’opé­ra­tion Street View de Google Maps a permis, en envoyant cir­cu­ler des voi­tu­res équipées de cap­teurs, de col­lec­ter secrè­te­ment des don­nées per­son­nel­les depuis les réseaux privés Wifi. Ainsi, des mots de passe, des noms, des numé­ros de télé­phone, des infor­ma­tions ban­cai­res, des e-mails, des infor­ma­tions médi­ca­les, des photos, etc. étaient glanés à l’insu des rive­rains.
— 2. L’accou­tu­mance vise à vain­cre la résis­tance que ne manque pas de sus­ci­ter la révé­la­tion des incur­sions. On gagne du temps grâce aux ser­vi­ces d’une armée d’avo­cats dont le tra­vail consiste à faire trai­ner la com­mu­ni­ca­tion de docu­ments à la jus­tice, à mul­ti­plier les manœu­vres dila­toi­res, à exploi­ter les moin­dres failles de la loi, puis, en der­nier recours, à passer un accord pour payer une amende réduite. Pendant ce temps, on déve­loppe le site incri­miné pour accou­tu­mer les uti­li­sa­teurs à s’en servir, au point qu’il leur paraît indis­pen­sa­ble.
— 3. L’adap­ta­tion consiste à faire sem­blant de reconnaî­tre ses torts, à faire amende hono­ra­ble, à pro­met­tre des remè­des, à dépla­cer quel­ques cadres dési­gnés comme res­pon­sa­bles de l’erreur, à faire quel­ques conces­sions aux déci­sions judi­ciai­res (comme le flou­tage des visa­ges sur les photos de rues), mais sans renon­cer à la quête de don­nées.
— 4. Enfin, la redi­rec­tion permet de repren­dre l’incur­sion en pro­po­sant ce qui appa­raî­tra comme un nou­veau ser­vice, par exem­ple en fai­sant passer Google Maps pour une entre­prise de car­to­gra­phie du monde avec tous ses milieux natu­rels (sen­tiers de ran­don­née, étangs, parcs) et les ser­vi­ces utiles (lignes de ferry, auto­rou­tes, etc.). En 2011, Google fran­chit la fron­tière entre l’exté­rieur et l’inté­rieur en géo­lo­ca­li­sa­tion les gens à l’inté­rieur des aéro­ports, cen­tres com­mer­ciaux, hôtels, res­tau­rants. On peut alors vendre des visi­tes vir­tuel­les qui ache­mi­nent les clients vers tel ou tel lieu de consom­ma­tion.

2. Leur exploitation pour concevoir des prédictions de comportements 

Que fait-on de toutes ces don­nées ? Éric Schmidt, un cadre de Google déclara à Davos qu’Internet allait dis­pa­raî­tre, non au sens d’être anéanti, mais au sens où le réseau allait se fondre com­plè­te­ment dans le pay­sage quo­ti­dien grâce aux objets connec­tés. Des archi­tec­tu­res infor­ma­ti­ques vont être implan­tées par­tout dans le monde réel. Cette inven­tion pro­vient d’une tech­ni­que de l’éthologie : la télé­mé­trie consiste à poser un émetteur minia­ture d’un signal radio sur un animal pour le suivre à dis­tance. Appliquée aux hommes déten­teurs d’un télé­phone mobile, cette tech­ni­que permet de suivre les migra­tions de trou­peaux humains. La mise sur le marché d’objets connec­tés permet de mul­ti­plier les cap­teurs, l’essen­tiel ensuite étant de struc­tu­rer les don­nées de façon à pou­voir les exploi­ter.

Par exem­ple, les com­pa­gnies d’assu­rance atten­dent des don­nées très pré­ci­ses sur la conduite au volant de leurs assu­rés, de façon à contrô­ler leur com­por­te­ment en temps réel, en allant même jusqu’à blo­quer le démar­rage du véhi­cule si néces­saire. On pourra ainsi punir le conduc­teur en aug­men­tant ses primes, ou le récom­pen­ser avec des bons points. Même chose pour les assu­ran­ces médi­ca­les qui pour­ront contrô­ler le res­pect d’un régime ali­men­taire ou d’un trai­te­ment médi­cal par les assu­rés. Les assu­reurs ne se conten­tent pas des contrats signés par les assu­rés car les contrats sup­po­sent de leur faire confiance, ce qui ne donne aucune cer­ti­tude. Les assu­reurs veu­lent éliminer la part de risque inhé­rente à leur acti­vité. Aussi récla­ment-ils des pro­gram­mes qui déci­de­raient auto­ma­ti­que­ment de sanc­tion­ner les mau­vais conduc­teurs, avant toute perte pour eux. Ils ins­tau­rent la notion de « décontrat », non pas au sens d’annu­la­tion de contrat, mais au sens de sup­pres­sion des rela­tions contrac­tuel­les et de leur rem­pla­ce­ment par l’exé­cu­tion uni­la­té­rale de « déci­sions » auto­ma­ti­ques.

La ges­tion des flux auto­mo­bi­les démon­tre com­ment on arrive déjà à orien­ter les com­por­te­ments par des « déci­sions » auto­ma­ti­ques (ralen­tis­se­ments, fil­tra­ges, dévia­tions, etc.). La ges­tion auto­ma­ti­sée du parc de sta­tion­ne­ment d’une ville permet de faire tour­ner les places, non pour faci­li­ter le ser­vice mais pour obte­nir le meilleur ren­de­ment pour la société ges­tion­naire. Elle peut aussi pous­ser les auto­mo­bi­lis­tes à « pré­fé­rer » le ser­vice d’un véhi­cule Uber, plutôt que d’atten­dre le pas­sage d’un bus. Toutes ces tech­ni­ques d’orien­ta­tion des com­por­te­ments ont été ren­dues pos­si­bles par la maî­trise en temps réel de mul­ti­ples don­nées géo­lo­ca­li­sées.

Les objets connec­tés intro­duits dans les mai­sons, comme les ther­mo­stats ou les aspi­ra­teurs robots, élargissent la col­lecte à l’inté­rieur même des mai­sons. Les aspi­ra­teurs per­met­tent de car­to­gra­phier avec pré­ci­sion toutes les pièces, et si l’ache­teur refuse de livrer ses don­nées, il est privé de la plu­part des fonc­tion­na­li­tés de l’appa­reil. Les mate­las connec­tés ana­ly­sent votre som­meil : rythme car­dia­que, res­pi­ra­tion, horaire et durée du som­meil, posi­tions du corps, etc. Reliés au télé­phone, ils déclen­chent des appli­ca­tions pour le sport, le régime ali­men­taire. C’est tout le corps qui est connecté.

Certains se conso­lent en se disant que toutes ces don­nées mélan­gées four­nis­sent des sta­tis­ti­ques ano­ny­mes, ce qui ne remet­trait pas en cause leur vie privée, mais c’est oublier qu’il suffit « de trois petits bouts de don­nées extrai­tes des regis­tres publics – date de nais­sance, code postal et sexe – pour désa­no­ny­mer des méta­don­nées avec une « trou­blante faci­lité », par des tech­ni­ques de ré-iden­ti­fi­ca­tion. » Grâce à des pro­fils, on peut agir non pas sur des ensem­bles à partir de pré­dic­tions sta­tis­ti­ques, mais véri­ta­ble­ment sur des per­son­nes.

On en arrive main­te­nant à explo­rer les émotions et des aspects pro­fonds de la per­sonne, grâce à des modè­les psy­cho­lo­gi­ques de per­son­na­lité. La col­lecte a com­mencé avec des appli­ca­tions sur Facebook per­met­tant à l’uti­li­sa­teur d’effec­tuer des tests psy­cho­mé­tri­ques. Ce qui est pré­senté comme un aima­ble jeu avec soi-même a permis de dres­ser des pro­fils de réfé­rence pour l’ana­lyse de gran­des popu­la­tions. En croi­sant les don­nées de tests de per­son­na­lité et les réseaux d’ « amitié » de Facebook, on a pu res­ti­tuer entre 50 et 87 mil­lions de pro­fils psy­cho­lo­gi­ques sur la popu­la­tion amé­ri­caine.

Cette pre­mière expé­rience a ins­piré ensuite le cabi­net Cambridge Analytica pour mener une atta­que de micro-ciblage com­por­te­men­tal à des fins poli­ti­ques. Les modè­les se sont affi­nés dans un intense aller et retour entre pro­fils et ana­lyse des don­nées. Ainsi, pour évaluer un com­por­te­ment, il est pos­si­ble d’ana­ly­ser les échanges de mes­sa­ges, en fai­sant abs­trac­tion de leurs conte­nus, car ce qui est révé­la­teur, c’est plus le « com­ment » que le « quoi » : la lon­gueur et la com­plexité des phra­ses plus que les mots, le par­tage ou le refus de par­tage d’images plus que les images elles-mêmes, la façon de donner rendez-vous plus que le rendez-vous, etc. Ainsi les uti­li­sa­teurs se livrent-ils com­plè­te­ment sans le savoir. Cambridge Analytica pos­sède entre 4000 et 5000 points de don­nées sur chaque amé­ri­cain adulte. Il ainsi pos­si­ble de repé­rer à l’avance des indi­vi­dus sus­cep­ti­bles de chan­ger de marque de vête­ment ou d’opi­nion poli­ti­que. De telles pré­dic­tions pous­sent les publi­ci­tai­res qui en sont infor­més à envoyer des mes­sa­ges agres­sifs pour rete­nir le client ou pour le capter.

En 2015, une petite société (Realeyes) a mis au point une tech­no­lo­gie de lec­ture des émotions d’un indi­vidu qui regarde un pro­gramme vidéo afin d’amé­lio­rer l’effi­ca­cité des publi­ci­tés. On arrive donc à déce­ler des mani­fes­ta­tions de l’incons­cient psy­chi­que. Plus les gens sont émus, plus ils dépen­sent. S’ouvre alors un nou­veau domaine, « l’infor­ma­ti­que affec­tive », déve­lop­pée par Rosalind Picard. Il s’agit de res­ti­tuer les émotions cons­cien­tes et incons­cien­tes sous la forme d’un com­por­te­ment coda­ble et cal­cu­la­ble. La fina­lité était au départ, comme tou­jours, bien­veillante : aider un étudiant à pré­pa­rer un entre­tien d’embau­che, aider les enfants autis­tes à déve­lop­per leurs apti­tu­des, former les joueurs pour qu’ils contrô­lent l’expres­sion de leurs émotions, etc. Au bout de trois ans, R. Picard fut remer­ciée et le projet fut entiè­re­ment réo­rienté vers la publi­cité ciblée et « per­son­na­li­sée ».

3. La construction d’un pouvoir instrumentalisant

Après la col­lecte des don­nées, puis leur trans­for­ma­tion en pré­dic­tions de com­por­te­ments, il reste à agir sur l’uti­li­sa­teur. Comment ? En recou­rant à des res­sorts bien connus de la psy­cho­lo­gie com­por­te­men­tale. Par exem­ple, pour inci­ter les étudiant à manger des fruits de pré­fé­rence à des pâtis­se­ries, le res­pon­sa­ble d’un resto U pré­sen­tera les fruits devant les pâtis­se­ries. On peut aussi pous­ser à une déci­sion en ren­dant dif­fi­ci­les ou impos­si­bles les autres choix alter­na­tifs. Le mimé­tisme est également un res­sort très puis­sant. En 2012, aux États-Unis, pour pous­ser des électeurs à aller voter, on a mani­pulé 61 mil­lions d’uti­li­sa­teurs de Facebook : à côté d’un mes­sage encou­ra­geant le vote, était dis­posé un bouton « j’ai voté », avec un comp­teur du nombre d’uti­li­sa­teurs qui l’avaient cliqué ; appa­rais­saient aussi des photos d’amis qui avaient déclaré avoir voté. On obtint ainsi 340000 votants sup­plé­men­tai­res. Plusieurs expé­rien­ces de ce type ont été menées avec des mes­sa­ges subli­mi­naux.

Une des expé­rien­ces les plus étonnantes eut lieu en 2016 avec le jeu Pokémon. Il s’agit d’une chasse au trésor vir­tuelle dans le monde réel. Une appli sur télé­phone arti­cu­lée avec le GPS et la caméra permet de chas­ser des créa­tu­res vir­tuel­les, les Pokémon. Celles-ci appa­rais­sent sur l’écran et leur cap­ture est récom­pen­sée par des points. L’objec­tif est de cap­tu­rer la série des 151 Pokémon. On a alors vu de véri­ta­bles hordes de chas­seurs enva­hir des rues, des jar­dins privés, des monu­ments. L’objec­tif pour les clients (pas pour les joueurs) était double : extraire des don­nées nou­vel­les pour la car­to­gra­phie de lieux exté­rieurs et inté­rieurs, publics et privés, et amener un flux de clients vers des piz­ze­rias, des drug­sto­res, des maga­sins dont les patrons avaient acheté des parts de visi­teurs. Le jeu n’était qu’un leurre habile pour former un trou­peau humain mal­léa­ble, l’igno­rance de l’uti­li­sa­teur étant la condi­tion pre­mière de réus­site de cette entre­prise.

S. Zuboff consi­dère que le capi­ta­lisme de sur­veillance met en place un pou­voir « ins­tru­men­ta­rien », à savoir « l’ins­tru­men­ta­tion et l’ins­tru­men­ta­li­sa­tion du com­por­te­ment à des fins de modi­fi­ca­tion, de pré­dic­tion, de moné­ti­sa­tion et de contrôle. » Peut-on dire qu’il s’agit d’un nou­veau tota­li­ta­risme ? Les capi­ta­lis­tes de sur­veillance ne cher­chent pas à éliminer des grou­pes eth­ni­ques, ni à réfor­mer l’âme d’un peuple, alors que le tota­li­ta­risme nazi ou sta­li­nien est d’abord poli­ti­que ; il use de la vio­lence et cher­che à trans­for­mer les inten­tions des indi­vi­dus. Le pou­voir ins­tru­men­ta­rien est avant tout un projet com­mer­cial, indif­fé­rent à ce que pen­sent les hommes, et il n’use pas de vio­lence phy­si­que.

Selon S. Zuboff, son ins­pi­ra­tion vient essen­tiel­le­ment de la théo­rie com­por­te­men­ta­liste de B. Skinner. Celui-ci a d’abord étudié le com­por­te­ment animal (sur des pigeons, des rats) pour mettre au point des pro­cé­dés per­met­tant de chan­ger les com­por­te­ments et de cons­truire des com­por­te­ments arti­fi­ciels. Puis, il a trans­posé ses recher­ches sur l’homme en par­tant du prin­cipe (posé par Watson en 1913) qu’il n’y a pas de dif­fé­rence fon­da­men­tale entre l’homme et l’animal. L’être humain doit être étudié ni plus ni moins comme un orga­nisme. Sa liberté n’est qu’un leurre. Elle n’est « que l’igno­rance qui attend son conqué­rant ». Skinner prône un beha­vio­risme radi­cal, c’est-à-dire qui doit être l’étude d’une action dénuée de toute attri­bu­tion sub­jec­tive. Tout com­por­te­ment peut être réduit à un schéma met­tant en évidence des rela­tions cau­sa­les entre l’envi­ron­ne­ment et le com­por­te­ment. Grâce à cer­tai­nes tech­no­lo­gies, on pour­rait pré­dire et mode­ler avec effi­ca­cité le com­por­te­ment humain, comme la phy­si­que et la bio­lo­gie ont pu chan­ger le monde.

Pour les beha­vio­ris­tes, la démo­cra­tie ne sau­rait cons­ti­tuer une solu­tion, car elle ne fait que per­pé­tuer l’illu­sion de la liberté. La bonne solu­tion est une tech­ni­que qui dépasse l’usage de la force et qui rejette le besoin de domi­ner l’âme humaine. Il faut déve­lop­per une tech­no­lo­gie com­por­te­men­tale puis­sante et pré­cise, un outil uni­ver­sel de modi­fi­ca­tion des com­por­te­ments. Le capi­ta­lisme de sur­veillance réa­lise cette tech­no­lo­gie. Il ne pro­meut aucun régime poli­ti­que, aucune reli­gion, aucune morale : le seul péché, c’est l’auto­no­mie de l’indi­vidu, l’audace de faire obs­truc­tion à la col­lecte de ses don­nées per­son­nel­les. Cette liberté est confis­quée par les clients du numé­ri­que, sous l’impé­ra­tif de la cer­ti­tude. Même les gou­ver­ne­ments « exi­gent les machi­nes à cer­ti­tude qui pro­met­tent des moyens fia­bles de détec­tion et de pré­dic­tion et même l’actua­tion auto­ma­ti­que de contre-mesu­res. »

Le sys­tème chi­nois du crédit social est le plus avancé dans la col­lecte et l’exploi­ta­tion des don­nées à des fins de contrôle des indi­vi­dus et des entre­pri­ses. C’est l’apo­théose du pou­voir ins­tru­men­ta­rien. Le plus scan­da­leux, selon S. Zuboff, ce n’est pas le tota­li­ta­risme chi­nois, mais c’est que ce modèle ouvre la voie à des che­mins simi­lai­res dans la Silicon Valley. La seule dif­fé­rence est dans la fina­lité ultime : pour la Chine, le contrôle de l’État ; pour la Silicon Valley, le profit com­mer­cial. « L’ins­tru­men­ta­risme recher­che la tota­lité comme domi­na­tion de marché et compte pour libé­rer la voie sur son contrôle de la divi­sion du savoir dans la société, rendue pos­si­ble et assu­rée par Big Other. »

Le capi­ta­lisme de sur­veillance enserre les uti­li­sa­teurs dans un esprit de ruche où tous les mou­ve­ments sont préa­la­ble­ment défi­nis, gérés en har­mo­nie, opérés à l’unis­son en conver­gence vers l’effi­ca­cité maxi­male. Par exem­ple, on peut orga­ni­ser un chan­tier à partir de la qua­li­fi­ca­tion de chaque employé ; si un employé non qua­li­fié pour manier un mar­teau-piqueur s’en appro­che et le prend, un signal d’alerte reten­tit et l’outil se désac­tive auto­ma­ti­que­ment. Grâce à l’intel­li­gence arti­fi­cielle, « on peut fouiller le monde réel à la recher­che de gens, d’objets et d’acti­vi­tés et leur appli­quer des règle­ments. » Les lieux de tra­vail sont conçus comme les labo­ra­toi­res de Skinner pour les rats et les pigeons. On obtient des com­por­te­ments cali­brés, sûrs, har­mo­nieux, sans résis­tance pos­si­ble. L’esprit de ruche permet d’éliminer tous les éléments de chaos et de garan­tir les résul­tats fixés par le plan.

Dès que quelqu’un tombe malade, il reçoit auto­ma­ti­que­ment un rendez-vous médi­cal ; le bus passe au moment où il arrive à l’arrêt ; chez son méde­cin, son dos­sier s’affi­che tout de suite sur l’ordi­na­teur, etc. Tout peut être prévu et orga­nisé de telle sorte qu’il ne se pro­duise aucune fric­tion. En réa­lité, ce fonc­tion­ne­ment pro­fite moins à la popu­la­tion qu’aux quel­ques-uns qui en tirent profit. Les consi­dé­ra­tions indi­vi­duel­les, comme le ques­tion­ne­ment moral ou les repè­res poli­ti­ques, sont écartées parce qu’elles font perdre du temps et qu’elles détour­nent de la conver­gence des com­por­te­ments. Une nou­velle classe domi­nante appa­raît, celle des ajus­teurs de com­por­te­ment, pour pro­duire les com­por­te­ments les plus effi­ca­ces du point de vue du col­lec­tif, au-delà des liber­tés indi­vi­duel­les.

Des psy­cho­lo­gues ont lon­gue­ment tra­vaillé sur la concep­tion des machi­nes à sous pour les casi­nos de Las Vegas, de façon à ce que le joueur, en s’oubliant lui-même, soit pris dans une zone telle qu’il ne puisse plus se détour­ner du jeu, comme une main est prise dans un gant. Facebook appli­que les mêmes prin­ci­pes de l’addic­tion tech­no­lo­gi­que ; il est conçu comme un média dont les uti­li­sa­teurs n’éprouvent jamais le besoin de détour­ner le regard. Il englou­tit en masse le temps et la cons­cience de ses uti­li­sa­teurs. Le réseau Facebook est un agen­ce­ment de mil­lions de miroirs, chaque « like » actionné don­nant un nou­veau détail sur la main, ce qui permet d’ajus­ter davan­tage le gant et de pré­dire ce que va faire l’uti­li­sa­teur. L’uti­li­sa­tion se déroule comme une boucle de rétroac­tion de plus en plus courte et serrée. Il n’y a plus de refuge pos­si­ble, plus de recoin, plus aucun sanc­tuaire dans lequel on pour­rait échapper au pou­voir tota­li­sant. La ques­tion « Mais qu’avez-vous donc à cacher ? » est posée pour dés­ta­bi­li­ser l’uti­li­sa­teur par un sen­ti­ment de culpa­bi­lité. Mais, en réa­lité, si l’on n’a rien à cacher, c’est que l’on n’a plus de vie privée, c’est que l’on n’est plus rien à ses pro­pres yeux.

La règle­men­ta­tion euro­péenne (RGPD) a pu nous redon­ner un espoir, mais ceux qui ont voulu se battre pour faire appli­quer ses pré­co­ni­sa­tions n’y sont pas par­ve­nus, tant les obs­ta­cles sont consi­dé­ra­bles. Facebook refuse abso­lu­ment, au nom du secret indus­triel, de donner le « texte fan­tôme » élaboré à partir des don­nées per­son­nel­les. Par un sub­ter­fuge sur ses condi­tions d’uti­li­sa­tion, Facebook a fait passer en 2018 les don­nées per­son­nel­les sous le coup des lois amé­ri­cai­nes, pour échapper à la règle­men­ta­tion euro­péenne. Il fau­drait une orga­ni­sa­tion col­lec­tive des uti­li­sa­teurs pour mener le combat.

4. Les rapports du capitalisme aux nouvelles technologies

Une ques­tion com­plexe se pose : com­ment s’arti­cu­lent le capi­ta­lisme et les tech­no­lo­gies ? Sans la trai­ter spé­ci­fi­que­ment, S. Zuboff four­nit quel­ques éléments de réponse. Son expres­sion « capi­ta­lisme de sur­veillance » est dis­cu­ta­ble, car la sur­veillance n’est encore qu’un moyen en vue d’une autre fin : tirer profit des don­nées per­son­nel­les. L’expres­sion « capi­ta­lisme des don­nées » aurait été plus adé­quat et, en même temps, plus iro­ni­que avec l’équivocité du mot « don­nées ».

Le capi­ta­lisme numé­ri­que s’est arrogé le droit de déci­der, à la place de l’indi­vidu, de ce qui res­te­rait privé et de ce qui serait rendu public. Cette déci­sion prise par les diri­geants de Google n’est pas un acci­dent mal­heu­reux, ni une erreur occa­sion­nelle, ni une néces­sité économique, ni une consé­quence néces­saire du déve­lop­pe­ment tech­no­lo­gi­que, mais bien un choix humain pour conver­tir des don­nées gra­tui­tes en revenu. La déci­sion d’inves­tir dans le numé­ri­que consiste à saisir une bonne occa­sion, au bon moment, et à cher­cher tous les moyens de récu­pé­rer un retour sur inves­tis­se­ment, rapide et maxi­mal, sans aucun scru­pule éthique.

On doit dis­tin­guer deux savoirs cor­res­pon­dant à deux textes numé­ri­ques : 1. Le texte fami­lier connu des uti­li­sa­teurs et le texte fan­tôme connu des seuls usa­gers (les « data scien­tists »). Le para­doxe est que le texte fan­tôme en sait plus sur nous-mêmes que ce que nous pou­vons connaî­tre de nous-mêmes. On a formé un nou­veau clergé qui sait ce que les autres ne savent pas. Quand une per­sonne est har­ce­lée sur Internet, elle sait qu’elle est har­ce­lée ; mais quand on pro­duit des infor­ma­tions sur elle sans qu’elle le sache, on fran­chit la limite du droit démo­cra­ti­que. Le capi­ta­lisme de sur­veillance est anti-démo­cra­ti­que, mais son pou­voir ne pro­vient ni de l’État, ni de la seule tech­no­lo­gie, ni de mau­vai­ses inten­tions de cer­tains. « Ce sont les consé­quen­ces d’une logi­que d’accu­mu­la­tion réus­sie. » La guerre de l’infor­ma­tion tourne le dos à la démo­cra­tie. Trois ques­tions se posent : Qui sait ? Qui décide ? Qui décide qui décide ? « Dans l’état actuel des choses, ce sont les entre­pri­ses capi­ta­lis­tes de sur­veillance qui savent. C’est la forme du marché qui décide. C’est la lutte concur­ren­tielle entre les capi­ta­lis­tes de sur­veillance qui décide qui décide. » L’infor­ma­ti­cien employé par les socié­tés du numé­ri­que en est réduit à quel­ques ques­tions de cons­cience morale : « Qu’ai-je réel­le­ment fait ? Quels sont l’appli­ca­tion et l’usage ulti­mes des fruits de mon tra­vail ? […] Suis-je satis­fait d’avoir contri­bué à cet usage ? Ou bien mort de honte ? » Mais son employeur n’en a que faire.

Le capi­ta­lisme de sur­veillance intro­duit trois nou­veau­tés par rap­port aux formes anté­rieu­res du capi­ta­lisme : 1. Il affirme pour le capi­ta­liste une liberté et un savoir illi­mi­tés sur les indi­vi­dus ; 2. Il rompt avec toute idée de contrat et de réci­pro­cité ; 3. Il cons­truit une vision col­lec­ti­viste nour­rie par l’indif­fé­rence radi­cale sur le modèle de la ruche.

Ses pro­fits sont énormes, avec très peu de masse sala­riale. En 2016, Google valait 532 mil­liards de dol­lars avec seu­le­ment 75000 emplois, Facebook 332 mil­liards avec 18000 emplois, alors que General Motors a péni­ble­ment atteint, en 1965, 225 mil­liards avec 735000 emplois. Les entre­pri­ses du numé­ri­que rédui­sent au maxi­mum le lien avec l’emploi, et, en consé­quence, sont com­plè­te­ment indif­fé­ren­tes aux enjeux poli­ti­ques de la société, aux consé­quen­ces socia­les de leurs inno­va­tions.

Ce qui leur importe, c’est d’obte­nir des pro­duits qui atti­rent tout le monde, quelle qu’en soit la qua­lité éthique. C’est pour­quoi la dés­in­for­ma­tion, les dis­cours de haine, les escro­que­ries cir­cu­lent sur les réseaux sociaux, tant que cela contri­bue au flux des uti­li­sa­teurs. La pré­ten­due « modé­ra­tion des conte­nus » n’est uti­li­sée qu’en cas de menace de réduc­tion du flux, non par un quel­conque sens des res­pon­sa­bi­li­tés. Elle est sous-trai­tée auprès d’une main d’œuvre de plus de 100000 employés, qui ont pour consi­gne de ne pas effa­rer les uti­li­sa­teurs. Des outils exis­tent pour éliminer les Fake news, mais puisqu’elles atti­rent les uti­li­sa­teurs, il ne faut pas les dépu­blier. Le sen­sa­tion­na­lisme fait grim­per le nombre de clics. « Tant que les tuyaux cou­lent à flots, peu importe ce qu’ils char­rient. »

5. Le projet politique de l’Internet

Les socié­tés du numé­ri­que se défen­dent de tout parti pris poli­ti­que, au sens où elles ne sont ni de gauche, ni de droite, mais elles impo­sent bien un projet poli­ti­que fon­da­men­tal dans la for­ma­tion d’une société sur le modèle de la ruche. « La société idéale de Google est une popu­la­tion d’uti­li­sa­teurs dis­tants et non de citoyens. Google idéa­lise les gens qui sont infor­més, mais seu­le­ment par les moyens que l’entre­prise choi­sit. Ce qui signi­fie que nous devons être doci­les, har­mo­nieux et, par-dessus tout, reconnais­sants. » En 2017, aux USA, un débat opposa le parti répu­bli­cain, opposé à la régle­men­ta­tion res­trei­gnant l’emprise des socié­tés numé­ri­ques sur les don­nées per­son­nel­les, et le parti démo­crate consi­dé­rant que ces don­nées étaient la pro­priété de l’uti­li­sa­teur. Le parti répu­bli­cain l’a emporté. Cette dépos­ses­sion des uti­li­sa­teurs repose sur cinq pré­ten­tions du capi­ta­lisme de sur­veillance : 1. Il reven­di­que la pos­ses­sion des don­nées per­son­nel­les. 2. Il affirme le droit de les conver­tir en don­nées com­por­te­men­ta­les. 3. Il reven­di­que la pro­priété de ces der­niè­res. 4. Il reven­di­que le droit de savoir ce que révè­lent ces pré­dic­tions com­por­te­men­ta­les. 5. Il s’arroge le droit de déci­der d’en faire ce qu’il veut. Il impose les condi­tions de tous ces droits.

Le capi­ta­lisme de sur­veillance vise à éliminer le plus pos­si­ble tous les éléments d’incer­ti­tude sur le marché. Par exem­ple, au lieu d’envoyer un huis­sier pour pro­cé­der à une saisie de biens chez un vieux couple endetté, on pré­fère pra­ti­quer le « décontrat », à savoir la « déci­sion » auto­ma­ti­que imposé par un logi­ciel sans aucun recours pos­si­ble, car l’huis­sier demeure après tout un être humain sen­si­ble qui pour­rait frei­ner la récu­pé­ra­tion de la dette. La confiance est d’emblée éliminée et rem­pla­cée par l’a priori de la méfiance ; la vie sociale est trans­for­mée en méca­ni­que numé­ri­sée. Le sujet est dépourvu de projet et est réduit à l’état d’objet connecté, sans retrait pos­si­ble, sans résis­tance, sans pro­tec­tion de ses droits.

Le capi­ta­lisme de sur­veillance est une force anti­dé­mo­cra­ti­que qui a réussi un coup d’État, non contre l’État lui-même, mais contre le peuple. C’est une forme de tyran­nie qui se nour­rit du peuple sans en émaner. Son but n’est pas la domi­na­tion de la nature, mais la domi­na­tion de la nature humaine. Certains d’entre nous res­te­ront des sujets, tandis que tous les autres ne seront que des objets ; cer­tains sont des sti­muli, et la plu­part ne sont que des réac­tions. La loi du marché des don­nées n’est plus com­pa­ti­ble avec la démo­cra­tie. Est-il juste de reti­rer à chacun d’entre nous la sou­ve­rai­neté sur sa propre vie ?

Jean-Marie Nicolle, le 1er mars 2021.