Article body

Comptant 199 pages, le premier essai de Pierre Henrichon, traducteur de métier, militant politique de gauche de longue date et président-fondateur d’Attac-Québec, se lit rapidement et aisément. Il se compose d’une introduction, de sept chapitres et d’une conclusion. L’introduction annonce l’intention de l’auteur : faire comprendre comment des tendances lourdes qui convergent actuellement sur trois fronts (l’automatisation des activités humaines, le Big Data et le néolibéralisme) aggravent plus qu’autre chose la crise que vivent nos démocraties (méfiance envers les politiques et les médias, baisse de la participation aux élections, montée des populismes). En plus de paver la voie vers de « nouvelles formes de domination » (p. 10), ces tendances lourdes agissent de concert pour amenuiser l’espace politique (au profit de l’espace marchand), éroder la pertinence du travail humain (face au travail automatisé) et détruire la société, comprise comme « lieu de mutualisation des activités, des projets et des risques » (p. 10). Cette dernière est remplacée par une « dissociété », terme emprunté à l’économiste français Jacques Généreux pour décrire le lieu au sein duquel les individus sont mis en concurrence et perçoivent l’autre comme une menace au lieu d’un concitoyen. Pour faire comprendre au lecteur les tenants et les aboutissants de la malheureuse « convergence tripartite » (p. 12), Henrichon se lance dans une ambitieuse enquête des courants de pensée (le libéralisme, la cybernétique et la quantification) et de leurs « complices sociotechniques » (p. 13) (l’automatisation et le Big Data) qui en sont à la source.

Le premier chapitre recherche les sources de la « marchandisation totale », qui tend à redéfinir tous les rapports sociaux à l’aune du marché, institution dominante de l’ordre économique, plus que jamais triomphante depuis le consensus de Washington. L’auteur les trouve essentiellement dans l’utilitarisme benthamien. Avec Bentham se produit un tournant dans nos représentations, soit la rencontre du calcul des intérêts individuels avec le calcul des prix sur le marché, qui « achève l’économicisation totale du monde matériel et du monde humain » (p. 24-25). Dans le deuxième chapitre, Henrichon nous fait part des résultats de son enquête sur la cybernétique, qui approfondit l’économicisation du monde. Il s’appuie principalement sur Céline Lafontaine, sociologue, auteure d’une thèse de doctorat de 2001 intitulée Cybernétique et sciences humaines : aux origines d’une représentation du sujet et du livre Cybernétique et société de Norbert Wiener. À l’origine de la révolution numérique, la théorie cybernétique née de la Seconde Guerre mondiale est un « antihumanisme radical » (p. 36). Le paradigme de la communication ou de l’information qu’elle inaugure peu après 1945 brouille la distinction entre l’humain et la machine et pave la voie à la gouvernance algorithmique par l’apport de la théorie des jeux. Si, pendant plusieurs décennies, les données informatisées — notamment celles permettant le profilage des individus et la prédiction de leurs comportements — étaient en trop petite quantité pour que cette nouvelle forme de gouvernance se déploie pleinement, la collecte massive rendue possible par Internet change la donne et débouche sur le « Big Data ».

Le troisième chapitre fouille les origines du « Big Data » (ou mégadonnées en français), qui permet à la gouvernementalité algorithmique de progresser rapidement et menace de donner un coup mortel « à la délibération démocratique et à l’action collective » (p. 45). Henrichon trouve ces origines dans l’essor des médias et de la publicité. C’est qu’il s’intéresse surtout à l’application des sciences et des techniques des mégadonnées par les GAFAM et autres entreprises qui tirent profit de la collecte massive des données comportementales des internautes. Ce chapitre ne nous apprend rien sur les origines des sciences et des techniques qui permettent de modéliser le climat terrestre ou la voie lactée ou de prédire la consommation d’énergie, mais il nous montre toute l’ampleur de l’appareillage intrusif exploité par les plateformes comme Facebook, YouTube et d’autres pour construire les profils des consommateurs dont les annonceurs ont toujours rêvé. Si les GAFAM sont généralement connus du public, ils ne sont en fait que la partie émergée de l’iceberg : d’autres acteurs économiques comme les courtiers en données (data brokers) opèrent dans l’ombre et ont des noms que le public ne reconnaîtrait même pas. La mise à jour en temps réel des profils des internautes par leur utilisation quotidienne d’appareils numériques instaure un régime de dataveillance, qui va au-delà de la surveillance en s’intéressant non seulement à nos actions passées (enregistrées), mais à nos actions futures (probables).

Le chapitre suivant amorce une critique de la rationalité gestionnaire contemporaine, notamment de ses techniques de benchmarking, aujourd’hui appliquée sans discernement. Sans discernement en s’imposant hors du monde de l’entreprise privée, où elle a peut-être sa place, jusque dans les organismes publics, les organisations sans but lucratif, les universités, etc. Sans discernement surtout lorsqu’elle détermine les paramètres de la prise de décision politique. Les indicateurs de performance issus du monde de l’entreprise qui percolent dans toute la société sont nécessairement le fruit de processus de quantification qui ne sont pas neutres et objectifs.

Le chapitre 5 poursuit la critique de la quantification et de ses conséquences. Il faut s’opposer aux indicateurs, aux classements, aux nombres, aux calculs qui « comptent » pour les promoteurs de l’économie de la donnée. Puisqu’il serait vain de démoniser les nombres eux-mêmes, organisons-nous (citoyens, travailleurs, consommateurs) pour politiser leur production. Revendiquons qu’ils reflètent nos réalités sociales, pas uniquement celles des dirigeants, plaide Henrichon, avec raison selon moi, ce qui cependant affaiblit la pertinence de la critique de la quantification comme perte de qualité des chapitres 4 et 5. Le chapitre 6, de loin le plus long, énumère quelques-uns des principaux maux découlant des nouvelles formes d’automatisation du XXIe siècle, à commencer par la destruction des emplois réservés autrefois aux humains. La « quatrième révolution industrielle », comme la nomment souvent ses promoteurs, reconfigurera pratiquement toutes les activités économiques, détruisant au passage toutes sortes d’entreprises et de métiers faisant vivre des millions de personnes. Les nouvelles activités économiques reposeront dorénavant sur une collecte de données toujours plus étendue grâce à l’Internet des objets et des traitements d’informations nécessitant de moins en moins l’intervention des humains : de leurs corps, remplacés par des robots, ou de leurs cerveaux, remplacés par l’intelligence artificielle. L’augmentation de la productivité par les nouvelles technologies s’accompagne sans surprise d’une augmentation de la précarité pour pratiquement toutes les catégories du travail humain. Dans le contexte de la mondialisation néolibérale, les GAFAM, qui contrôlent des quantités astronomiques de données, sont en position d’inviter leur logique marchande jusque dans la santé et l’éducation. Ces avancées du secteur privé dans le secteur public, sous-financé de manière chronique, s’accompagnent d’un discours sur l’inévitabilité de la transformation numérique de toute la société.

Le chapitre 7, intitulé « Refus, requêtes et conquêtes », présente « une série d’horizons de refus et de revendications » (p. 179) qui pourraient contribuer à une reprise de contrôle démocratique des « systèmes sociotechniques » qui, à l’ère néolibérale, évoluent au gré du marché partout sur la planète. Face aux transformations prétendument inévitables qui accompagnent le progrès technologique, il importe d’adopter une « méthodologie de questionnement critique » (p. 178). L’auteur en propose une, inspirée de Langdon Winner, qu’il fait jouer sur un ensemble de questions majeures de notre époque : l’appropriation des données, la protection des renseignements personnels, le respect de la vie privée, l’étendue de la collecte, les villes intelligentes, la robotisation et l’avenir du travail humain, la surveillance des rendements au travail, etc. L’essai se conclut sur une note positive, insistant sur les « nombreuses réflexions critiques, revendications, résistances et alternatives » (p. 198) qui tendent à mettre en échec la cybernétique, le Big Data et le néolibéralisme, les trois moteurs d’une convergence qui déconstruit la société.

Quelles sont les forces et les faiblesses de cet essai ? Les principales forces du texte d’Henrichon, selon moi, sont la bonne description de plusieurs des maux que nous inflige l’automatisation incontrôlée à la sauce néolibérale et aussi l’approche globale des problèmes que nous devons résoudre pour reprendre le contrôle sur le devenir de nos sociétés à l’ère du numérique. Il faut aussi souligner le mérite de l’existence même du livre au Québec : j’ai en tête ici l’appel de Philippe de Grosbois dans Les batailles d’Internet (Écosociété, 2018) à multiplier les analyses politiques et sociales d’Internet et du numérique dans un pays qui en produit encore trop peu. Il faut donc lire Henrichon. Selon moi, il vise particulièrement juste quand il écrit : « Si quantifier, c’est convenir avant de mesurer, il convient de se mobiliser en amont du processus. » (p. 107).

Quelques faiblesses nuisent cependant à la thèse centrale de l’auteur, qui ne m’a pas vraiment convaincue. Aussi, j’ai trouvé très curieuse l’absence de critique de la « propriété intellectuelle », notamment du droit d’auteur et des brevets. C’est pourtant selon moi le coeur de l’affaire. Peut-être est-ce pour cette raison que le chapitre 7 n’évoque aucunement les communs numériques parmi les alternatives ? D’abord, le passage par l’histoire pour remonter aux « sources idéologiques » du libéralisme, de la cybernétique et du Big Data n’est pas une grande réussite. Les amoureux de l’histoire en apprendront beaucoup plus sur les sources intellectuelles du capitalisme 2.0 de la Silicon Valley en lisant par exemple Fred Turner[1], qui nous raconte avec brio l’invraisemblable aventure sociale au cours de laquelle la pensée philosophique et scientifique (vulgarisée) des Norbert Wiener, Eric Fromm, Margaret Mead et Gregory Bateson vient inspirer les projets contre-culturels et techno-utopistes de jeunes américains des années 1960 (les néo-communalistes) avant d’être transformée et ultimement récupérée environ une décennie plus tard par des techno-entrepreneurs et capitalistes californiens. À défaut de bâtir des communautés durables en retournant à la terre, ceux-ci feront pousser les premières communautés « virtuelles » d’Internet et façonneront une cyberculture teintée à la fois d’idéaux libertaires et de valeurs entrepreneuriales.

On comprend bien sûr que si, dans le premier chapitre de son essai, Henrichon remonte jusqu’à l’utilitarisme benthamien, ce n’est pas vraiment pour nous éclairer sur l’origine complexe du libéralisme marchand et du capitalisme. L’utilitarisme n’a eu que très peu d’influence hors du monde anglophone et pourtant il y a bien un libéralisme en France et en Allemagne. Si l’utilitarisme intervient pour montrer les origines de la marchandisation généralisée, c’est qu’il permet de faire des ponts entre le calcul utilitariste et le calcul automatisé de la cybernétique pour ensuite mieux critiquer le primat du froid et machinal calcul marchand à l’oeuvre dans le néolibéralisme d’aujourd’hui. La critique du numérique, qui devient critique du « nombre », du « calcul », de la « commensuration » et de la « quantification » me paraît une impasse. C’est trop simple et mal fondé philosophiquement, comme le sont trop souvent les critiques de la technique, du progrès technique ou de la technologie. Y a-t-il d’un côté la quantité, le calcul, le marché, le contrôle, l’automatique, le déterminé, le commensurable et, de l’autre, la qualité, la créativité, le vivant, l’indéterminé, l’incommensurable, la liberté ? Non, je ne crois pas que cette dichotomie — cette binarité réductrice — aide à y voir clair. Je ne développe pas ici faute d’espace, mais on se rapprochera de ma pensée sur cette question en lisant n’importe quelle introduction aux sciences de la complexité et ses concepts d’émergence, de non-linéarité, d’auto-organisation, de systèmes, etc.

La cybernétique est-elle assimilable à l’ordinateur et au numérique ? Est-elle un « anti-humanisme radical » comme l’affirme Henrichon en s’appuyant sur la thèse de Céline Lafontaine ? Non, ce n’est pas le cas. La cybernétique n’est pas le numérique. Elle ne réduit pas l’être vivant à la machine. À l’image de son fondateur, Norbert Wiener, la cybernétique est parfois l’objet d’une grande incompréhension. Une partie de cette incompréhension est peut-être inévitable et provient du morcellement des savoirs : si chaque personne était à la fois philosophe, artiste, scientifique et technicien, les malentendus seraient moins fréquents. Heureusement, il est possible de comprendre quelque chose de Wiener et de la cybernétique sans être omniscient, par exemple en lisant la plus récente biographie de Wiener[2] et La cybernétique, le livre par lequel tout a commencé en 1948 (enfin disponible en français depuis 2014). Les gens qui, comme moi, seront laissés sur leur faim se régaleront en lisant des historiens et des philosophes des sciences et des techniques comme Steve Heims, David Mindell, Jean-Pierre Dupuy, Ronald Kline, Ronan Le Roux, Mathieu Triclot, Brunella Antomarini, Pierre Cassou-Noguès, Jérôme Segal, Sara Touiza-Ambroggiani, Leone Montagnini et d’autres encore. Mieux comprendre les fondamentaux philosophiques et scientifiques de la cybernétique aide à apprécier la pensée holistique qui se déploie dans l’essai d’Henrichon tout en permettant d’aller plus loin dans la formulation de réponses adéquates aux nombreux maux de notre époque en crise.