Thomas Berns : “sortir de l’utopie de la neutralité technologique”

par | Démocratie, INTERFÉRENCES, Libertés & Sécurités, Technologies

Sommes-nous devenus accros aux données et statistiques ? Pourtant, entre ceux qui quittent les réseaux sociaux, se résignent à utiliser Zoom, ou qui refusent d’installer des applications, l’époque est riche en comportements divers envers le numérique et les technologies en général. Des questions brûlantes que nous explorerons dans une perspective humaniste : si les statistiques sont fondatrices de l’Etat, quel Etat se maintient dans un monde numérisé ? Avec quels citoyens ? Quelles pratiques de la liberté ? 

Pour traiter de ces questions, nous avions invité Thomas Berns, chargé de cours en philosophie politique et en éthique à l’Université Libre de Bruxelles, et chercheur au Centre Perelman de philosophie du droit. Il est auteur, entre autres, de La guerre des philosophes (2019) et Gouverner sans gouverner, une archéologie politique de la statistique (2009) ; ainsi que de nombreux articles, dont Gouvernementalité algorithmique et perspectives d’émancipation, avec Antoinette Rouvroy. Il a récemment publié deux cartes blanches sur le site du Soir (en avril et en mai 2020) qui aura retenu notre attention« Comment poser la question des technologies de traçage de manière politique ? » et « Mortalité liée au Covid-19: les données ne sont pas neutres »

Le texte qui suit est tiré de cette discussion filmée (que l’on peut visionner à cette adresse) et est proposé à la lecture en vue de faciliter la transmissions et la compréhension des thèses exprimées. Il a par ailleurs fait l’objet d’une relecture de l’intervenant.
L’ensemble du cycle “Libertés et sécurités, faut-il choisir ?” est accessible à cette page.



Mise en contexte : données et crise sanitaire

Nous nous trouvons face à un phénomène de « politique des données ». La donnée, en d’autres termes, serait devenu un élément essentiel de la politique dans laquelle nous nous trouvons. Dès lors, nous sommes « gouvernés » par des données. Ce gouvernement doit s’entendre au sens, non pas d’une personne qui serait en train d’orienter la réalité, mais tout simplement le fait que la plupart de nos comportements sont désormais agis, orientés, conduit par des récoltes et des traitements de données en quantité massive. C’est le paysage dans lequel nous nous mouvons désormais.

Nous vivons dans un temps caractérisé par une marche en avant souvent effréné qui fait appel à des solutions techniques les plus diverses. Celles-ci sont, par exemple, censées répondre à la période de crise sanitaire que nous vivons. Le rêve d’un « solutionnisme technique » peut apparaitre. Une technique qui nous pourvoirait en solutions parfaitement neutres, débarrassé de toute tendance axiologique, politique. Elle serait apte sur la base de ce traitement de données de nous apporter les solutions nécessaires.

  • Facebook
  • Twitter
  • Google+
  • LinkedIn

Sur les changements de normativité

Ce contexte, mais plus largement, je m’attache à l’analyser. 

Mes recherches portent sur les changements de normativité, de régime normatif qui nous agissent, partant de l’idée que ceux-ci sont historiques (évoluent dans le temps) et qu’ils sont multiples. Nous avons été agis, comme le rappel Foucault, par exemple par le confessionnal. C’est un dispositif technique, matériel, qui présuppose un relais théologique, des références transcendantales, etc. Ce dispositif a permis d’organiser les comportements et de créer une certaine idée de ce qu’est l’humain. Dans ce cas-ci, l’humain est toujours envisagé en tant qu’être de désir, insatiable ou caché. Ce dispositif a produit un certain savoir, une certaine identité, il a produit un certains Sujet.

Un autre exemple de dispositif normatif, c’est tout ce qui relève du droit, de la loi. Qui a produit, lui aussi, ses dispositifs, ses empreintes, ses structures, sa science (la science juridique), ses espaces (l’espace du procès), qui a produit de la contrainte. Il peut être un outil violent, répressif. Le Droit produit un Sujet, non plus désirant, mais un « Sujet de droit ». Sujet, c’est à dire à la fois « assujetti » mais également un Sujet qui est capable de faire face à ce dispositif normatif.

Un dernier exemple, la naissance de la statistique tout au long du XIXe et du XXe siècle. Cette nouvelle science a elle aussi produit des Sujets : un « homme moyen »[1], par exemple. Et a produit, aussi, des nouvelles possibilités d’émancipation. Tout notre État social peut-être analysé dans notre rapport avec l’émergence de cette science qu’était la statistique. Depuis Quételet notamment, et de ce qui a sous-tendu les politiques sociales, des analyses de la sécurité au travail et les possibilités d’y répondre avec des outils juridiques. Dans ce cadre-là, disposer de données étant couteux, peu évident, etc.

On a depuis lors un nouvel appareil normatif. Un nouveau type de dispositif qui nous amène à faire des choix, à considérer qu’une chose est possible ou pas. Tout cet ensemble normatif, avec Antoinette Rouvroy, nous avons décidé de l’appeler « gouvernementalité algorithmique ». C’est-à-dire qu’on avait un ensemble de dispositifs (privés : entreprises, publicité, etc. ; mais aussi publics) qui ont en commun d’être nourris par une activité de récolte de données. C’est cette nouvelle réalité que j’essaye de mesurer. 

Le constat que je ferais face à la situation dans laquelle nous sommes, en lien avec ce gouvernement par les données, c’est qu’elle n’a pas fait émerger de Sujet face à elle : nous ne sommes pas des sujets politiques à la hauteur des dispositifs qui orientent nos comportements. Cela ne veut pas dire que nous sommes devenus des incapables, cela signifie que le dispositif normatif en question affaiblit, ou freine pour l’instant, l’émergence de Sujets à la hauteur de ce dispositif (avec laquelle nous interagissons en « complicité active »). Et je m’intéresse à ce qui produit cet affaiblissement de nos possibilités de devenir ce nouveau sujet. Autrement dit, ce qui nous donne la possibilité de freiner cette gouvernementalité. Connaitre cette gouvernementalité, montrer qu’elle affaiblit les processus de subjectivation, est justement la condition pour en devenir les sujets, pour commencer à subjectiver en son sein.

  • Facebook
  • Twitter
  • Google+
  • LinkedIn

Une mise en garde : « Les données ne sont pas données »

Ce beau jeu de mot, basé sur un paradoxe nous interroge directement. Il est tiré d’un propos d’Alain Desrosières. C’était un historien et connaisseurs des statistiques, il travaillait à l’INSEE[1], et était attaché au sens fort à la vieille science statistique, notamment en lien avec les possibilités d’émancipation lié à l’État social. Venant de ce monde-là, il s’est intéressé à la fin de sa vie à ces nouvelles pratiques statistique qui se sont massifiés en l’espace de 10 ans. D’une véritable science, avec son ethos propre, vers de la statistique décisionnelle, immédiatement agissante. Cette « statistique décisionnelle », ou politique des données, est notre nouvelle réalité.

La mise en garde géniale exprimée par Alain Desrosières exprime plusieurs choses.
 D’abord la rareté de la donnée propre à la statistique traditionnelle. Les données c’était quelque chose de rare, qui se construisait de manière méticuleuse, dont on interrogeait sans cesse l’éventuelle neutralité. Au contraire, maintenant nous sommes face à ce que l’on appelle le Big Data, ce qui signifie que nous sommes face à une profusion de données, dont le « coût » — presque la sueur — n’apparait absolument plus. Il semble qu’il n’y a plus de construction de la donnée. Alain Desrosières nous avertissait : avec ces données qui sont devenues tellement disponibles, massives, nous ignorons ­ – et nous sommes toujours mis en demeure d’ignorer – le fait qu’elles aussi sont construite, et non pas données ; nous croyons qu’elles sont la réalité. Or ces données ne se situent pas dans la nature. Le simple fait de les récolter présuppose au minimum déjà une forme de construction. Et cette mise en garde est salutaire : parce que j’aurais tendance, très schématiquement, à dire que nous sommes à la fois face à des phénomènes de profusion de données face auxquelles le seul fait de pouvoir les traiter apparait comme une victoire. Et là on retombe sur le phénomène de solutionnisme technique. Le simple fait — et c’est quelque chose de génial ! — d’avoir la possibilité de disposer de données en quantité aussi massive a pour conséquence la nécessité de traiter celles-ci, mais tout traitement de données apparait en tant que telle comme une victoire, toute corrélation qui émerge des données apparaît comme un savoir, sans même avoir besoin d’être interrogée ou interprétée – et nous pensons de plus en plus qu’il suffit de disposer d’outils techniques (exemple : les fameux baromètres du COVID) pour que les décisions efficaces en émergent. Dès lors, l’expression « les données ne sont pas données » nous alerte contre un objectivisme, ou naturalisme qui dirait que cette quantité massive de données dont nous disposerions serait en quelque sorte le reflet parfait de la réalité, voire serait la réalité elle-même. « Les données ne sont pas données », ça veut dire précisément ça : non, ce n’est pas la réalité. C’est une construction, c’est sous tendus par des conventions, récolté en vue de quelque chose (même inconnu), bref, c’est déjà pris dans des phénomènes normatifs que j’essaye de décoder, c’est déjà politique.

Le consentement à livrer des données

Je ne voudrais pas faire la critique de cette catégorie de consentement pour considérer que celui-ci n’a plus lieu d’être. Mais ne me semble pas être une catégorie tout à fait opérante dans le cadre dans lequel nous nous trouvons. Idéalement, nous devrions consentir à la transmission de nos données. Je ne m’oppose pas à ce consentement et il faudrait même le compléter pour que ce consentement soit effectivement éclairé et non extorqué. Toutefois, cela nous ramène toujours à un réflexe qui nous font analyser le problème de la politique des données sur une base strictement individuelle. Mais il me semble inopérant également parce que nous abandonnons bien plus nos données. Je ne vois pas à quel moment il est possible de rétablir le consentement plein et éclairé. Cette catégorie me semble en réalité périmée face aux phénomènes que j’évoque. Il est par contre possible d’inventer de nouvelles formes politique pour répondre à ceci en considérant que nous devons être intéressé, dans tous les sens du terme, à leur utilisation. Là on déplace la question du consentement, ou du « respect de la vie privée », qui sont les catégories propres à un droit individualiste, vers de nouvelles catégories qui me semblent être plus politiques et plus à la hauteur des phénomènes auxquels nous faisons face.

  • Facebook
  • Twitter
  • Google+
  • LinkedIn

Le réel et le gouvernement

Ces phénomènes, ce que j’appelle politique des données ou gouvernementalité algorithmique, aussi technicisés soient-ils, soi-disant neutres, ne font jamais que reproduire des affects qui n’ont pas attendu cette technologie pour apparaitre. La réalité produite par cette gouvernementalité algorithmique n’est pas fondamentalement nouvelle aux réalités, déséquilibres, exclusions, qui la précède. 

Ce qui m’intéresse, c’est que l’entièreté du dispositif normatif reposant sur la collecte et le traitement automatisé des données ouvre la porte et trouve peut-être sa force, sa capacité à agir sur une sorte de nouvel objectivisme, comme si c’était la réalité dans son objectivité même qui nous gouvernait. Certes, ces données seraient collectées sans que nous puissions vraiment consentir ; nous ne sommes pas partie prenante. Autrement dit, nos informations abandonnées ne sont pas marquée par notre subjectivité. Ce nouvel objectivisme, c’est le fait de donner l’impression que ces données ne peuvent pas mentir, qu’elles ne peuvent être que la réalité, justement parce que nous les abandonnons hors de toute forme de volonté. Mais c’est une objectivité apparente.
Et pour ce qui est du traitement de ces données, ce qui semble apparaitre c’est que nous aurions la capacité désormais de produire des Vérités, des corrélations, hors de tout choix de toute décisions du chercheur, de l’entrepreneur ; des corrélations qui suffiraient pour gouverner, pour produire des normes, sans plus réclamer d’être interprétées. Cela serait le réel lui-même, qui produirait la vérité et s’imposerait à nous. 
A partir de cette construction de l’objectivité ainsi décrite, je m’intéresse à montrer que cette objectivité n’en est pas une : les données ne sont pas données, les algorithmes sont produits avec des objectifs sécuritaires, économiques, etc. Mais ce que je m’attache surtout à démontrer, c’est la « mauvaise utopie » qui se dessine là. C’est-à-dire croire à l’opportunité de normer les comportements sur un mode qui se prétendrait parfaitement neutre, dont tout laisserait entendre qu’il est objectif étant donné cet évitement des sujets. Cela donne l’impression que les données produiraient elles-mêmes leurs vérités. Cette forme « d’émergentisme » a pour conséquence un retour d’un positivisme qui pour le coup nourri des nouvelles pratiques de gouvernement. Laissant entendre qu’il serait désormais possible de gouverner de manière absolument respectueuse du réel. 
Et face à cela, le cri à pousser c’est : tout ceci a avant tout pour conséquence de nous gouverner comme nous n’avons jamais été gouverné. Non pas sur un mode despotique, tyrannique, etc. Bien loin de là. Mais nous n’avons jamais été autant orientés dans nos gestes. C’est cette frénésie de gouvernement qui découle de cette prétention à l’objectivisime que je décrivais que j’essaye de rendre un peu visible.

Politisation collective, prise de conscience individuelle et vie privée

Il y a une lente prise de conscience de l’enjeu de la politique des données. On ne peut qu’être heureux que le face-à-face s’établisse enfin entre d’une part cette frénésie à gouverner par les données, à développer des outils statistiques — à nouveau, que je ne dénonce pas en tant que tel comme un mauvais choix car gouverner par les données peut offrir de belles possibilités — et la vie privée, l’anonymisation des données. Toute chose dont on a bien souvent l’impression que l’on doit s’excuser d’exiger. 

Ce que je me limite à dénoncer néanmoins, c’est l’hypertrophie de gouvernement qui l’accompagne, dont on a pu observer la réalité ces derniers mois, en situation de crise sanitaire : le développement d’un nouveau « baromètre » tous les deux jours, ou une nouvelle possibilité de traçage, etc. 
Et je reste sceptique sur les termes de face-à-face : je ne suis pas convaincu que les catégories mobilisées, bien souvent trop individuelles, soient à la hauteur de la réalité politique auquel elles prétendent faire face. Elles donnent lieu à une sorte de naturalisation de la vie privée. On se met presque à rêver d’une vie privée, d’une vie intime qu’il s’agit de barricader sur un mode individuel et qui ne m’a pas toujours l’air respectueux de la réalité de la catégorie de la vie privée. La vie privée est bien plus politique que ça, plus compliqué que devoir protéger notre lit, notre intimité, l’espace de notre sexualité etc. La vie privée, c’est une catégorie qui se forge au travers des luttes politiques qui la font émerger et exister. Elle n’est pas quelque chose qu’il s’agit de défendre comme si elle pré-existait. Elle est ce qui résulte du face-à-face en question.

Le problème de ce face-à-face, et qui est peut-être une tragédie propre à toutes les vieilles luttes politiques, c’est qu’on a l’impression aussi qu’il nourrit la possibilité d’une technologie « safe », qui serait respectueuse de cette « vie privée ». Étrangement, ce conflit reste pris dans l’utopie de la production d’une technologie neutre, plutôt que de participer à sa déconstruction.

Enfin, ajoutons que s’il n’y a pas de « solutionnisme technique », si on a fait le deuil de cette possibilité-là, il ne peut pas non plus y avoir un reproche de manque de connaissance technique de ceux qui sont orientés, agis par ces techniques. Qu’à côté de cela, il y doit y avoir une culture qui émerge au sens d’une prise de conscience du caractère normatif, politique des phénomènes technique que nous vivons, de sa non-neutralité, ça oui. Mais être un bon citoyen ne veut pas dire savoir utiliser un ordinateur. Ça, cela serait monstrueux.

  • Facebook
  • Twitter
  • Google+
  • LinkedIn

Technocratie, efficacité et mise à l’épreuve

Si l’on entend le terme de technocratie comme une politique des données alliant technicité et efficacité, ce qui me semble notoire dans le développement souvent outrancier de ces solutions techniques dont la qualité première serait d’être efficace, c’est d’être souvent très peu efficace. Il s’agit de décoder cette réalité. De faire un travail de comparaison, d’une certaine manière entre les normativités qui sont produites dans ce cadre technocratique et les normativités auxquelles non seulement nous sommes habitués mais surtout auxquelles nous nous référons quand nous parlons de démocraties, de respect du débat dans le cadre d’un espace public etc. A savoir les catégories qui sont propre de l’état de droit, ou de la production de normes juridiques.

Ces normes juridiques auxquelles nous sommes habitués et que nous considérons comme légitimes— je ne veux pas dire pour autant qu’elles sont la référence ultime dans laquelle nous devons camper. Mais il y a là la production d’un idéal de normes légitimes, qui se réfléchit, qui se partage, qui fait tradition. C’est idéal se manifeste entre autres par sa discursivité : typiquement, la loi. Elle a une forme discursive, elle est stabilisée, elle prétend durer. Elle a une consistance, ce qui a comme conséquence qu’elle nous apparait comme une proposition, comme pouvant faire l’objet d’un débat. Un débat démocratique, par exemple. On peut donc la contredire, qui fait aussi qu’on peut la mettre à l’épreuve au sein de certaines enceintes : l’espace du tribunal, de l’opinion publique, du parlement, par exemple. Aussi, on peut lui désobéir, chose que l’on oublie souvent. Pire, la loi prévoit les conditions de sa désobéissance, elle nous explique comment désobéir, ou au moins à quoi on s’expose si on lui désobéi. Tout ça laisse entendre que très loin du cadre « technocratique » décrit, nous avons une certaine idée de la norme qui peut la situer pleinement dans le cadre de ces lieux de contradictions (les espaces parlementaires, associatifs, du tribunal, etc.). Cette mise en débat, c’est ce qui me semble manquer dans le cadre technocratique dans lequel le propre de la norme est qu’elle colle au réel, émerge du réel. Donc de ne jamais se structurer sous une forme discursive. Elle peut se structurer sous une forme algorithmique que nous peinons à décoder du fait de nos manques de moyens. De plus, cette norme est parfaitement évolutive. Cela ne veut pas dire que notre système est plus contraignant qu’auparavant. Mais ce qui nous manque ce sont ces mises à l’épreuve, ou pire encore, de ressentir la norme. L’efficacité est liée à la possibilité de mise à l’épreuve, de vivre l’échec. C’est cette « efficacité » qu’il s’agit de temps en temps de restaurer.

[1] Référence à Adolphe Quetelet (1794-1874) et son ouvrage Sur l’homme et le développement de ses facultés, essai d’une physique sociale.

[2] INSEE : Institut national de la statistique et des études économiques (France).

Dans la même catégorie

Share This