Retour aux articles →

L’usage des « big data » pour gouverner

th-1024×0-franki_38-convertimage.jpg
th-1024×0-franki_38-convertimage.jpg
Pour lutter contre la propagation du coronavirus, les pouvoirs publics font appel aux technologies de big data afin de circonscrire la pandémie par le traçage des contacts. Cet usage des données numériques massives suscite des débats passionnés quant à la place des technologies numériques dans les décisions publiques et la protection des libertés individuelles. Antoinette Rouvroy, titulaire de la chaire Francqui (au titre belge) à l’ULiège en 2019-2020, y consacre ses travaux de recherche.

Cet article a paru dans le n°112 de Politique (juillet 2020)

Vos travaux sur la « gouvernementalité algorithmique » interrogent les limites et les enjeux des rapports entre le droit, les sciences et technologies et les modes de gouvernement. Comment trouvent-ils un écho particulier dans la gestion de la crise sanitaire du coronavirus ?

Antoinette Rouvroy : Cette crise sanitaire est un « événement » au sens le plus interruptif du terme. Les données massives et l’intelligence artificielle sont supposées accroître nos capacités d’anticipation des phénomènes émergents, l’efficacité opérationnelle dans tous les domaines d’activité et de gouvernement qui s’y convertissent, et neutraliser l’incertitude. Elles n’avaient pourtant strictement rien vu venir. Cette effraction spectaculaire et tragique du monde et de ses pangolins dans la trame illusoire du contrôle, de l’optimisation et de la préemption, dévoile les limites de la data science-fiction[1.L’idéologie technique des data sciences (un oxymore particulièrement convaincant) pourrait s’exprimer comme suit : “Don’t interpret the past, don’t understand the present, don’t imagine the future: make it all a data science fiction!” (« N’interprétez pas le passé, ne comprenez pas le présent, n’imaginez pas le futur : faites de tout cela une science-fiction des data »).]. Elle met à mal les prétentions techno-immunitaires de la « gouvernementalité algorithmique ». Cette gouvernementalité algorithmique s’appuie sur la perspective d’une modélisation et d’une régulation automatiques du social, fondées sur la collecte et le traitement algorithmique des données numériques disponibles en quantités massives, plutôt que sur la politique, le droit et les normes sociales.

Cette crise sonne la sortie d’un rêve, ou de l’illusion immunitaire d’une « société numérisée » déterritorialisée, dématérialisée, illimitée, indemne. En même temps qu’elle fait trembler le constat désabusé de l’écrivain et philosophe britannique Mark Fisher : « Il est devenu plus facile d’imaginer la fin du monde que d’imaginer la fin du capitalisme. » Cette « crise » au sens le plus littéral et étymologique – moment décisif, point de basculement entre vie et mort – est un « événement ». Être dignes de ce qui nous arrive, comme dirait Deleuze – alors que nous ne savons pas exactement ce qui nous arrive –, requiert peut-être, en première instance, de reconnaître cet état de theoria interrupta, cette confrontation à l’irreprésentable, cet excès du monde par rapport à toute représentation.

Cependant, l’un des traits de génie du capitalisme en général, et du capitalisme numérique en particulier, réside dans l’invincibilité apparente de ses capacités recombinantes. Alors que des pans entiers de l’économie sont sur le point de s’effondrer, l’après-coronavirus apparaît comme un avenir radieux pour les industriels du numérique. Dans la perspective de faire perdurer – ou de retourner le plus rapidement possible à – l’anormale normalité d’un mode de fonctionnement économique et social pourtant extrêmement peu résilient et très peu soutenable du point de vue d’une écologie environnementale, climatique, sociale et psychique, l’événement se trouve rapidement disqualifié en « occasion »: occasion, notamment, pour le capitalisme numérique ou capitalisme des plateformes, de transformer une situation de dominance en statut hégémonique.

Le sort des « travailleurs des plateformes » reste cependant peu enviable. La mystique futuriste de la Silicon Valley idéalise le « sans contact » en invisibilisant les travailleurs qui assurent la logistique de « l’économie numérique ». Cette population est d’autant moins protégée que, par la grâce de l’uberisation de l’économie, le droit du travail se trouve manifestement contourné : la nouvelle dés-organisation du travail met chaque travailleur en contact direct et individualisé avec la plateforme et le soumet à l’évaluation « en direct » par ses utilisateurs, en fonction de critères infiniment mobiles et subjectifs. La visibilité nouvelle gagnée par ces travailleurs, à la faveur du confinement de tous les autres, ne suffira sans doute pas à leur assurer un surcroît de pouvoir de négociation dans un contexte économique plus que défavorable.

Le confinement à domicile imposé à une portion gigantesque de la population mondiale, et le basculement « en ligne » de pans entiers de l’activité et des interactions humaines, ont également constitué une occasion : occasion de déploiement de nouveaux services (plateformes d’enseignement à distance, de consultations médicales à distance,…) – ressentis, souvent à juste titre, comme absolument indispensables –, occasion d’intensification de la collecte de données relatives aux comportements et modes de vie (données bien utiles pour développer les algorithmes d’intelligence artificielle), occasion d’accaparement – par les plateformes de commerce en ligne – des parts de marché précédemment détenues par les commerces conventionnels… À ces plateformes numériques, la confiance du consommateur semble acquise d’emblée, alors que les autorités publiques, quant à elles, suscitent beaucoup de méfiance dès lors qu’elles entendent collecter des données personnelles – quitte à les anonymiser –, notamment à des fins de santé publique.

Ces technologies font l’objet d’un certain fantasme de toute-puissance. Toutefois, l’examen des apports du contact tracing dans le cadre d’autres épidémies – notamment celle d’Ébola au Sierra Leone en 2014 – a pu démontrer que l’intelligence artificielle n’est pas toujours à la hauteur, parce qu’elle ne prend pas en compte les comportements humains, parfois déterminants dans le cadre d’une épidémie. Quelle peut donc être la place de ces technologies dans la prise de décision ?

Antoinette Rouvroy : Alors qu’elles avaient manqué d’alerter sur l’émergence de la pandémie, les technologies numériques sont aujourd’hui particulièrement mobilisées pour en limiter l’expansion, tout en facilitant la reprise de l’activité économique[2. Voir par exemple le récent rapport de la Human Technology Foundation intitulé Gouverner la technologie en temps de crise – Aide à la décision dans le cadre du covid-19.]. Le traçage numérique des promiscuités potentiellement contaminantes est opéré par enregistrement des signaux bluetooth émis par les smartphones de ceux qui auraient téléchargé l’application. Que cette dernière soit plus ou moins conforme aux grands principes de la protection des données, que ces données soient conservées de manière plus ou moins centralisée ou décentralisée, que le téléchargement de l’application soit rendu obligatoire ou non. Ce traçage instaure surtout une nouvelle manière de cartographier le phénomène épidémique à l’échelle du signal numérique mobile déterritorialisé, dans un espace géométrique abstrait, où seules comptent les distances entre signaux captés et la durée de cette « promiscuité » numérique, à l’exclusion du contexte physique, social, environnemental dans lequel ces signaux sont émis.

Indépendamment des éventuelles menaces pour la vie privée et la protection des données, un des nombreux problèmes que présentent ces dispositifs, on le sent bien, réside dans la « réduction informatique » qu’ils opèrent par rapport à la complexité des contextes. Cette réduction « biaise » bien évidemment, de manière invincible, les résultats. Le « biais » principal de ces applications est l’existence d’un monde physique, organique, matériel qui excède de toute part la « réalité numérique » haute résolution/dissolution numérique.

Un exemple : la promiscuité potentiellement contaminante détectée entre deux smartphones ne tient pas compte de la présence éventuelle, entre ces deux émetteurs, d’une paroi en plexiglas excluant toute possibilité de contamination, ou du port de masques en réduisant fortement la probabilité. La carte n’est pas le territoire et, à défaut de prise en compte du contexte, les signaux ne disent rien de la matérialité des situations dont ils prolifèrent. De même, ne sont pas prises en compte la variabilité des taux de détention de smartphones suivant les âges et le statut socio-économique des personnes, ou la variabilité d’intensité des signaux bluetooth émis par les téléphones de marques ou de gammes différentes… Dès lors que les signaux numériques ont appréhendé « toutes choses étant égales par ailleurs », l’abstraction numérique est aussi une « naturalisation » et une « dépolitisation » des états de fait numérisés.

Est-ce à dire qu’il s’agirait de fortement limiter l’usage des outils technologiques à l’avenir ?

Antoinette Rouvroy : Les outils numériques et algorithmiques ne sont bien entendu pas à exclure a priori dans la lutte contre la pandémie, mais ils ne peuvent dispenser de stratégies sanitaires plus globales. Le tracking risque de rester totalement inefficace, par exemple, dès lors qu’une portion importante de la population n’a pas d’accès effectif aux soins de santé (faute d’assurance universelle), et sera donc réticente à demander un test afin de connaître son statut sérologique. C’est en protégeant prioritairement les personnes les plus vulnérables socialement que l’on pourra mieux lutter contre la pandémie. Identifier ces vulnérabilités nécessite bien entendu tout autre chose que la collecte de signaux bluetooth émis par les smartphones. Le tracking numérique apparaît, dans cette perspective, comme une sorte de gadget : une réponse technologiquement sophistiquée à une question mal posée. Le risque est que le « solutionnisme technologique » détourne l’attention de ces enjeux-là, qui sont à la fois des enjeux sanitaires et des enjeux de justice sociale. Lorsque des solutions technologiques sont proposées, il convient d’être toujours très attentif à ce qu’elles ne le soient pas pour compenser des désinvestissements dans les services publics essentiels ou dans la constitution de réserves stratégiques pour faire face à l’improbable (contre quoi la gouvernementalité algorithmique – ou la clôture du numérique sur lui-même – prétend nous immuniser).

Les institutions existent précisément pour prendre en charge l’excès du possible sur le probable, c’est-à-dire en prenant en charge l’irreprésentable ou l’incalculable. La gouvernementalité algorithmique, en revanche, exclut l’idée même d’incalculabilité – soit l’interruption des fluidités en raison d’un avenir incertain – puisqu’elle prétend neutraliser l’incertitude. Elle est tributaire d’une croyance en la capacité de ce système, de ce nouveau Léviathan numérique, à s’autoréguler et à métaboliser les événements de manière qu’ils ne fassent même plus événements. Mais il s’agit là d’une « data science-fiction » : le rêve d’un monde dépeuplé, d’une planète propre et morte, inaltérable, impassible, sans organisme qui vive, dans lequel les intelligences artificielles comptent des cailloux, les rangeant et les re-rangeant en fonction de patterns dont elles ont le secret. Ce rêve-là n’est pas le nôtre et c’est ailleurs, sur Terre, que nous avons à faire monde avec les vivants. Le réveil a sonné.

Utiliser les algorithmes prédictifs dans la gestion d’une crise sanitaire nous place à mi-chemin entre la protection des citoyens et leur surveillance dans l’espace public autant que privé. L’exemple de la SNCB est éclairant : on se demande si l’intelligence artificielle est utilisée pour protéger les travailleurs, comme l’annonce l’entreprise publique, ou pour contrôler le respect des règles de distanciation physique dans des espaces définis. Comment le concept de « gouvernementalité », issu des travaux de Michel Foucault, vous permet-il d’appréhender ce mode de gouvernement et cette tension entre protection et surveillance ?

Antoinette Rouvroy : Il faut lire une interview intitulée « La sécurité et l’État[3. « Michel Foucault : la sécurité et l’État » (entretien avec R. Lefort), Tribune socialiste, 24-30 novembre 1977, p. 3-4.] » que Michel Foucault a donnée en 1977. Tout l’intérêt du propos est à trouver dans ce qui fait son inactualité, une inactualité qui nous oblige à penser – un peu comme on tenterait de détecter, entre deux images apparemment semblables, des différences plus ou moins subtiles – ce qui, dans la « société de contrôle » contemporaine, est réellement inédit. Ainsi, par exemple, le « pacte de sécurité » propre à la « société assurancielle » (ou à l’État providence) qui lie les individus à l’État engage les premiers à obéir en échange de la garantie de leur sécurité (en ce compris leur sécurité sanitaire). Alors que des années de politiques austéritaires ont fait perdre aux gouvernants l’habitude et les moyens d’assurer effectivement la sécurité et la santé des citoyens, cette « garantie » n’apparaît plus aujourd’hui que comme un souvenir de promesses non tenues. D’autant que la gouvernementalité algorithmique promet une sortie encore plus radicale de toute perspective de collectivisation ou de mutualisation des risques, au profit d’une hyper-individualisation par affinement, et donc d’une fragmentation virtuellement infinie des catégories statistiques. Il nous incombe d’identifier ce que promet aujourd’hui spécifiquement l’État à sa population en échange de sa docilité, de son acceptation éventuelle de formes (très atténuées, il faut bien le dire, si l’on compare avec la situation chinoise, par exemple) de « surveillance de masse ». Quelle est donc la substance du « donnant-donnant » aujourd’hui ?

Certains intellectuels dénoncent l’autoritarisme des mesures sanitaires imposées à la population et y voient le symptôme d’une « hystérie de la survie » s’imposant au détriment de la qualité (en ce compris politique) de la vie. Ces mesures sanitaires sont-elles de nature totalitaire ? Foucault explique que « un État totalitaire au sens strict est un État dans lequel les partis politiques, les appareils d’État, les systèmes institutionnels, l’idéologie font corps en une espèce d’unité qui est contrôlée de haut en bas, sans fissure, sans lacune et sans déviation possible ». En l’occurrence, ce dont nous faisons l’expérience aujourd’hui, c’est exactement l’inverse : on a l’impression que si nos gouvernants ont un engouement pour les réponses technologiques, c’est bien plutôt pour pouvoir se dispenser d’avoir à gouverner, et donc d’assumer une autorité concrète. « Faire gouverner les algorithmes » pour n’avoir plus à assumer la charge de gouverner, c’est-à-dire de prendre des décisions auxquelles on se tient et d’en rendre compte. On a vu, pendant le confinement, le pouvoir quasi-organique pris par les chiffres, courbes et statistiques sur la vie. Et la question centrale n’est alors plus « qui assume la charge de gouverner ? », mais bien « qui gouverne les algorithmes ? » : comment comptabilise-t-on les morts ? à partir de quelle distance entre des signaux bluetooth doit-on considérer qu’il y a risque de contamination ? Ce sont là des questions qui sont à la fois éminemment techniques, scientifiques et politiques.

Peut-on dire que les dispositifs numériques enrôlés dans la gestion de la pandémie participent d’une dérive totalitaire du pouvoir ? Foucault concluait son interview comme ceci : « Que la désignation du danger soit l’effet d’un pouvoir n’autorise pas à parler d’un pouvoir de type autoritaire. C’est un pouvoir de type nouveau. Le problème n’est pas de recoder les phénomènes actuels avec les vieux concepts historiques. Il faut désigner, dans ce qui se passe actuellement, ce qu’il y a de spécifique, s’adresser à cette spécificité et lutter contre elle, en essayant de l’analyser et de lui trouver les mots et les descriptions qui lui conviennent. »

Les big data sont régulièrement pointés du doigt pour le danger que les algorithmes prédictifs font peser sur nos droits et libertés. À cet égard, le traçage du covid-19 au sein de la population a ravivé de nombreuses inquiétudes quant au traitement des données personnelles. Pourtant, vous nuancez régulièrement, dans vos travaux, le « fétichisme des données personnelles », en soulignant combien il masque tous les enjeux collectifs des big data. Quels en sont dès lors les enjeux réels ?

Antoinette Rouvroy : Le droit à la protection des données personnelles a notamment pour mérite de donner à la personne la possibilité de surgir comme sujet de droit, plutôt que comme (in-)dividu soluble dans les données, ou comme simple agrégat temporaire de données infra-personnelles métabolisées à l’échelle industrielle. Cela dit, ce qui confère aux modélisations algorithmiques leur aura d’impartialité ou de neutralité axiologique, c’est précisément qu’elles ne « concernent » pas les personnes, qu’elles se désintéressent de la singularité des vies (je sais, c’est une nouvelle « baffe » narcissique !) au profit de ce qui en relie statistiquement des « attributs » discrets aux modélisations impersonnelles mais « prédictives ».

L’enjeu n’est dès lors pas tant la protection des données personnelles, ni même de la vie privée, que la capacité à décider collectivement des critères de mérite, de besoin, de désirabilité, de dangerosité présidant à la répartition des ressources et des opportunités, et à les contester. Du coup, la juxtaposition de consentements individuels obtenus séparément ne garantit aucunement le caractère « démocratique » ou « soutenable » des dispositifs de gouvernementalité algorithmique. Seuls des agencements collectifs territorialisés peuvent permettre aux individus de prendre la consistance de sujets politiques. L’enjeu, c’est de refaire des agencements collectifs de discussion, d’énonciation, y compris par rapport à la ressource extrêmement précieuse que constituent les cartographies rendues possibles par les données massives : on peut produire une multitude de « cartes » différentes, qui donnent chaque fois une perspective nouvelle sur le monde et ce(ux) qui (s’)y passent, sur le territoire et la population, pour agir différemment. Ce sont ces cartes qui ont de la valeur, et non les données personnelles. C’est le savoir qui peut en être inféré et qui peut aussi nous rendre collectivement plus intelligents… à condition de ne pas s’en satisfaire, de poser les bonnes questions et d’en assurer un usage commun.

Propos recueillis par Vaïa Demertzis, édités par Antoinette Rouvroy et retranscription par Thibault Scohier.

(Image de la vignette et dans l’article sous copyright de l’ULiège ; Antoinette Rouvroy lors d’une leçon inaugurale, en mars 2020.)