Corps de l’article

En juin 2017, nous apprenions dans une certaine discrétion que des informations sensibles concernant la quasi-totalité des électeurs américains avaient été rendues publiques par inadvertance. La société Deep Root Analytics avait malencontreusement permis l’accès non sécurisé à 1,1 TB d’informations collectées pour le Parti républicain. Parmi ces informations nominatives portant sur 198 millions de citoyens figuraient les probabilités d’adhérer à une cinquantaine de positions politiques, portant sur l’environnement, l’immigration, la santé, la situation économique des États-Unis ou les groupes pharmaceutiques, financiers et pétroliers[1]. Au même titre que l’importance des révélations de Snowden sur la NSA ou l’évidence du pouvoir de Google et de Facebook sur les relations sociales contemporaines, cet événement déstabilisa un instant les plus concernés, avant de rejoindre lui aussi la banalité de ce nouveau régime de traçabilité. Cet incident est néanmoins symptomatique d’un renouveau dont nous ne faisons qu’effleurer les enjeux. Car une telle faille, au même titre que les pratiques de la NSA, de Google ou de Facebook, nous informe très marginalement sur les informations disponibles, dont nous connaissons déjà l’existence. Notre attention gagnerait plutôt à se porter sur les capacités inédites de collecte, d’agrégation et d’analyse dont ces données sont l’objet.

À la différence des débats portant sur les notions de big data, de scraping ou de plateforme, il est non seulement question de l’accès à des informations collectées massivement dans des environnements particuliers (Twitter, Facebook, cartes de fidélité, opérateurs téléphoniques), mais aussi de la possibilité de plus en plus facile de les associer et de les analyser à des fins stratégiques, notamment militaires, politiques ou commerciales. L’ensemble des dispositifs numériques contemporains semblent effectivement participer d’une transposition de la relation entre savoir et pouvoir à une relation entre données et actions (Boullier, 2015 : 808 ; Bowker, 2014), soit une relation qui valorise l’efficience plus que l’interprétation, la prédiction plus que la compréhension.

Par ailleurs, si l’abondance de données sur les pratiques individuelles et collectives constitue ainsi une opportunité inédite de disposer d’informations plus individualisées, plus précises, plus actualisées et plus exhaustives, mais force est de constater que cette histoire se fait très largement en marge des sciences sociales. La « crise empirique de la sociologie » annoncée par Savage et Burrows (2007) participe plus généralement de puissants processus de remédiation, c’est-à-dire de reconfiguration active des relations et de la circulation de l’information, dont il est particulièrement difficile de saisir l’ampleur et la dynamique, tout en observant la résurgence d’une physique sociale pourtant délaissée depuis plus d’un siècle.

Aussi, afin de mieux saisir les nuances et la complexité de ces processus, nous proposons de distinguer les remédiations numériques selon qu’elles sont relatives (1) aux relations sociales, (2) à l’observation de ces relations, (3) à la production de connaissances et (4) à la production de sens. Selon notre hypothèse, nous n’assisterions pas tant à une crise de la sociologie empirique (quant à son accès problématique aux traces numériques) qu’à une crise d’ordre épistémologique (quant aux moyens que la sociologie se donne pour les appréhender). La prolifération des traces numériques de pratiques individuelles favorise en effet la résurgence de grandes divisions historiques, conflictuelles et parfois ambigües, d’une part entre les sciences sociales et les sciences de la nature, d’autre part entre les sciences sociales « positivistes » et les sciences sociales « interprétatives ». Il est ainsi plus aisé de comprendre la concurrence de plus en plus vive de la sociologie avec la physique (complexité, thermodynamique, modélisation), l’informatique (cybernétique, traitement de données) et le journalisme (réactivité, exploration assumée).

Or, si la sociologie éprouve des difficultés à embrasser les potentialités de cet environnement renouvelé, cela tient probablement plus à sa défiance à l’égard du positivisme de la physique sociale dont elle est l’héritière qu’à son incapacité à en saisir les virtualités. De l’étude des médiations numériques contemporaines à la résurgence de la physique sociale, en passant par la mise en oeuvre de méthodes spécifiques, la sociologie traverse sans doute une épreuve décisive, dont l’enjeu majeur sera de saisir l’opportunité d’une traçabilité sans précédent des médiations, sans pour autant renoncer à sa singularité disciplinaire.

1. (re)Médiations des relations sociales

En trois décennies et avec une rare intensité, l’ensemble des relations sociales a été affecté par le déploiement du numérique. La convergence entre l’informatique et la télécommunication s’est ainsi traduite par un profond changement des modalités pratiques de l’interaction sociale. Le premier défi que le numérique pose à la sociologie est celui de la remédiation des relations sociales, qui s’établissent de plus en plus par la médiation de dispositifs numériques, selon une dynamique peu appropriée aux temporalités de la recherche. Le temps d’une thèse, par exemple, les pratiques changent significativement, les usages se déplacent, de nouveaux acteurs émergent. De l’émergence de Wikipédia, Amazon et Google à Uber, Airbnb ou Tinder, en passant par la pluralité des « pages perso », de Skyblog, de MySpace, de Wordpress et de Facebook, le numérique participe d’une recomposition des pratiques, plus ou moins profonde, de plus en plus diffuse et à un rythme très soutenu (Casilli, 2010 ; Beaude, 2012 ; Martin et Dagiral, 2016).

Nous proposons de situer cette première « remédiation des relations sociales » dans une perspective élargie afin de mieux apprécier la particularité du moment que nous traversons collectivement. Une sociologie du numérique permet en effet de comprendre ce qui caractérise ces médiations particulières et d’en saisir les enjeux spécifiques, méthodologiques et théoriques (Boullier, 2016 ; Marres, 2017). C’est néanmoins l’ensemble de la discipline qui est traversé par ce changement qu’il serait vain de circonscrire à des considérations techniques ou thématiques.

1.1 Au commencement était la relation…

Internet, et plus généralement l’ensemble des dispositifs de remédiation numérique, ont contribué au regain d’intérêt pour les réseaux au fondement de la sociologie. Secrétaire du comte de Saint-Simon à partir de 1816, Auguste Comte est profondément imprégné de sa « philosophie des réseaux » (Musso, 1997) qui inspira sa « loi des trois états » (théologique, métaphysique et positif). La philosophie positive d’Auguste Comte l’engage alors sur la voie d’une physique sociale, discipline la plus avancée, la plus complexe et la plus universelle de la pensée positive (voir Comte, 1844 : 101), qu’il désigne par le terme « sociologie ». Parce qu’elle devait se démarquer de la littérature, de la philosophie et plus encore de la psychologie, la sociologie se développa essentiellement dans la perspective d’une science des relations sociales (voir Bajoit, 1992 : 23-34).

Le holisme de Durkheim et l’atomisme de Weber constituent ainsi des points de vue singuliers sur les relations, au même titre que les lois de l’imitation de Tarde, le contre-don de Mauss ou la sociation de Simmel. En 2016, Caillé et Chanial émettent donc l’hypothèse suivante : « Et si au commencement n’était ni la performativité du Verbe selon Jean ou de l’Action selon Goethe, mais la Relation ? » (Caillé et Chanial, 2016 : 6). La position la plus radicale consiste à placer la relation comme première : Tarde, Simmel et Mauss lancèrent probablement cette « révolution copernicienne » des sciences sociales (Heinich, 2016), suivis d’Elias qui marquera lui aussi ce passage d’une pensée substantialiste à une pensée relationnelle (Elias, 1991). Il ne serait plus question d’interaction, mais d’interdépendances (voir Heinich, 2016 : 30). Nous n’aurions plus affaire à « des objets préexistants qui seraient liés entre eux par des relations, mais à des objets qui se constituent dans et par la relation » (Heinich, 2016 : 30).

Cette évidence de la relation comme constitutive des phénomènes sociaux ne saurait définir à elle seule les sciences sociales, et moins encore la sociologie. La relation relèverait en effet d’un niveau d’abstraction trop élevé pour être susceptible de produire la moindre intelligibilité. Seule, elle ne permet pas de distinguer ce qui relève de la relation entre des atomes, des moutons ou des êtres humains. Sur les traces du holisme structural de Descombes, Callegaro se demande ainsi « ce qu’il y a de relationnel dans le social » (Callegaro, 2016). Reprenant les notions de relation externe et interne selon qu’elles affectent ou non les termes reliés, il insiste sur le primat des relations internes, qui doivent ne pas rester à l’état de dispositions mentales, mais être actualisées dans l’action, intentionnelle et plus encore normative. Dès lors, des relations sont pleinement sociales lorsqu’elles s’inscrivent dans un monde de sens, de prescriptions et « d’obligations constitutives à la pratique elle-même » (Callegaro, 2016 : 150). À la suite de Mauss, un « fait social paradigmatique comme le don » se révèle être l’essence même de l’épreuve holistique (Callegaro, 2016 : 145). Le don est révélateur de la « règle obligatoire » qui « constitue plusieurs actes diachroniques en un seul », faisant de la relation sociale une relation historique et qui, avec Mauss et contre Levi-Strauss, ne saurait être elle-même un fait naturel, mais un fait social (voir Callegaro, 2016 : 152-163).

Dans une perspective anthropologique, Albert Piette dénonce lui aussi l’accent mis sur la relation en sciences sociales, « ce compromis idéal, le mot diplomate. Elle est entre la société, l’individu et l’action. On peut hésiter à dire qu’on a vu une société. Des relations, nous en voyons à tout moment » (Piette, 2014 : 5). La notion est à la fois trop polysémique et insuffisante. Il déplore que « les débats théoriques des dernières années aient donné une ampleur démesurée à l’idée de relation » (Piette, 2014 : 5), critiquant plus particulièrement le projet de Latour d’en faire un paradigme total. La relation, seule, ne nous dit rien de sa dynamique, de ce qui l’anime et de ses conditions existentielles. En mettant l’accent sur la relation au détriment du sujet, ce projet négligerait le « volume de l’être », car « les exo-relations attendues dans le cours d’une action ne se font pas, pour l’accomplissent lui-même, sans une réserve d’autres actions possibles qui peuvent ou non laisser des traces parfois infimes dans un moment de présence » (Piette, 2014 : 13).

Nous retrouvons ainsi, avant même le déploiement massif des réseaux sociaux numériques, l’idée selon laquelle la relation est constitutive du social, mais d’une abstraction trop élevée pour le caractériser.

1.2 Avoir lieu

Comment concevoir que la relation puisse être au commencement du social sans apprécier les conditions de son déploiement ? Depuis le sentier, le signal de fumée, le cri, la roue, l’écriture, l’imprimerie, le télégraphe, la radio, la télévision, le minitel et plus récemment Internet, les relations s’établissent pour une large part par la médiation de techniques spatiales (voir Lévy et Lussault, 2003 : 893). Le paradigme relationnel doit être étendu à l’espace, car l’espace est précisément cet ordre particulier des choses, toujours changeant, et que nous nous efforçons de changer à notre avantage. Du point de vue de l’action, nous n’agissons pas dans l’espace, mais avec l’espace (Lussault et Stock, 2010). Les relations des individus ne se font pas dans l’espace : elles sont constitutives de l’espace.

C’est probablement à Augustin Berque que l’on doit la conception la plus évidente de cette symbiose entre le spatial et le social, lorsqu’il oppose le topos aristotélicien, qui suppose l’existence du lieu en soi, à la conception platonicienne de la chôra, qui pose le lieu comme espace existentiel, qui n’existe pas indépendamment de ce qui le constitue (Berque, 2003). Les choses sont ainsi toujours situées et il n’y a pas de situation sans choses (voir Berque, 2000 : 20). C’est pourquoi la distance constitue la problématique fondamentale du social (Lévy, 1994 ; 1999 ; 2003), car elle définit non seulement l’individualisation des choses dont on pense l’écart, mais aussi l’appréciation de leurs relations. Sans distance, il n’y a ni espace, ni individu, ni relation, ni social, ni société (Beaude, 2012).

La conception relative et relationnelle de l’espace traduit bien la confusion entre réseau (infrastructure) et réseau (social), dont Facebook est régulièrement l’objet. L’expression « site de réseaux sociaux » contribue à clarifier cette confusion (Boyd et Ellison, 2007), à condition de ne pas oublier qu’un réseau social n’existe qu’en puissance, qu’il n’est qu’une fiction de relations à venir, dont l’actualité et l’actualisation supposent la possibilité d’établir à nouveau les relations qui le constituent.

La pensée de la relation dans sa disposition à établir un contact entre les entités constitutives du social est en cela décisive. La distance permet de penser l’association entre les individus et les relations qu’ils entretiennent, et le lieu permet de penser l’espace par lequel ces relations sont effectives. Avoir lieu, c’est advenir particulièrement : d’un point de vue existentiel et relationnel, le lieu n’est jamais déjà là. Il résulte au contraire d’un processus de synchorisation[2], par lequel les existences deviennent coexistences et l’espace devient lieu (Beaude, 2012 ; 2013 ; 2014a). L’urbanisation, puissante remédiation matérielle, et la numérisation, puissante remédiation immatérielle[3], sont en cela des étapes décisives de la synchorisation, c’est-à-dire de l’intensification du potentiel d’interaction sociale.

1.3 Changer l’espace, changer la société

La dynamique à laquelle nous assistons est si rapide et si intense qu’il est indispensable de faire ce détour par les fondements convergents de la conception relationnelle du social et de l’espace. Les conceptions positionnelles et matérialistes de l’espace, qui pouvaient sembler pertinentes dans un monde relativement stable, ne résistent effectivement plus aux vitesses du présent.

Avec Latour et le déplacement de l’anthropologie au laboratoire, la sociologie connaît l’une des options les plus extensives de cette perspective, en étendant les relations à l’ensemble des êtres, humains et non humains, suggérant une sociologie de la technique qui ne se limite pas à l’inclusion des éléments techniques dans les pratiques sociales, mais assurant que leurs associations sont si étendues qu’il devient vain de chercher à les penser isolément (Latour, 1992 ; 2006a). L’Action Network Theory (ANT) incarne cette synthèse de la conjonction de l’action et de la relation. L’apport de Latour n’est pas tant d’avoir souligné que le social et la société ne sont pas donnés, ou que les données sont construites, ce que nous savions déjà, mais d’avoir insisté sur l’extension de la capacité d’agir à tous les êtres qui participent du changement, sans exclusion a priori. Selon Latour, « l’idée bizarre selon laquelle la société pourrait être entièrement constituée de relations humaines reflète cette autre idée, non moins bizarre, selon laquelle les techniques pourraient être entièrement faites de relations non humaines » (Latour, 2006b : 70).

Ce dernier point mérite une attention particulière dans l’environnement que nous éprouvons. Le numérique a démultiplié les entités qui participent de nos existences contemporaines. De l’ordinateur et du téléphone portable à des dispositifs aussi complexes que Google, Facebook ou Wikipédia, en passant par le processeur ou la fibre optique, notre coexistence s’est considérablement complexifiée en moins de trois décennies. Le premier défi pour la sociologie est d’accueillir ce changement afin de saisir les nouvelles pratiques qui se déploient dans un environnement à ce point renouvelé.

Les remédiations qui réorganisent très largement les modalités pratiques des relations sociales perturbent en effet les acteurs qui maîtrisaient les médiations et les échelles antérieures. Au-delà des protocoles qui assurèrent une part importante de l’efficience d’Internet, ce sont l’ensemble de ces architectures possibles de communication qui méritent une attention, selon les hiérarchies qu’elles établissent entre les relations, plus ou moins « centralisées » ou « distribuées » (Boullier, 2008 ; Musiani, 2017), dont la blockchain n’est que la dernière manifestation. Pour l’heure, malgré un potentiel considérable de décentralisation, nous assistons au contraire à une hypercentralité des médiations : quelques entreprises opérationnalisent avec la plus grande attention la conjonction des économies d’échelle et des effets de réseaux caractéristiques des médiations numériques, détournant la synchorisation à leur profit (Beaude, 2012 ; 2014b). Des entreprises multinationales parmi les plus importantes, telles que Google ou Facebook, disposent ainsi d’un pouvoir sans précédent sur les relations sociales.

Ce moment singulier participe d’une amplification remarquable des phénomènes antérieurs, à une fréquence tout à fait inhabituelle (Boullier, 2015 ; 2016). Alors que nous n’avons jamais été aussi informés, la vérité vacille. Alors que nos corps sont de moins en moins exposés directement, la vie privée est profondément perturbée. Alors que notre quotidien est de plus en plus « anonyme », le droit à l’oubli devient un enjeu majeur. Alors que la traçabilité de nos actes est d’une rare précision, les auteurs de cyberattaques restent inconnus sans enquêtes approfondies (Beaude, 2014b). S’il faut changer de conception de la société pour refaire de la sociologie (Latour, 2006a), il faut aussi changer de conception de l’espace pour comprendre ce que nous traversons : « changer l’espace, c’est aussi changer la société » (Beaude, 2012), or l’espace a rarement changé avec une telle intensité.

La sociologie est ainsi traversée par le numérique au plus profond de son exercice : la compréhension des relations sociales. La problématique de l’empirie se pose alors en d’autres termes : comprendre l’évolution des pratiques contemporaines exige de comprendre leur spatialité, constituée de dispositifs numériques de plus en plus sophistiqués. L’architecture de l’interaction est en cela de plus en plus établie par l’entremise de codes. Des codes qui définissent ce qu’il est possible de faire ou de ne pas faire (Lessig, 1999 ; Dodge et Kitchin, 2005), et qui hiérarchisent l’information à laquelle nous sommes exposés (Cardon, 2013 ; 2015).

Or, cette spatialité spécifique étant disjointe de l’espace légitime du politique, les conditions générales d’utilisation se sont un temps substituées au droit, pour des pratiques pourtant très sensibles (diffamation, incitation à la haine, désinformation, revanche pornographique…). Dès 1999, le juriste américain Lawrence Lessig soulignait à quel point, dans le cyberespace, le code était devenu la loi (Code is Law). Les législations nationales devenant difficilement applicables alors même qu’Internet était tout sauf neutre, les entreprises privées faisaient la loi par l’entremise du code (Lessig, 1999).

La remédiation numérique des relations sociales constitue néanmoins une opportunité pour les sciences sociales, dès lors que le déploiement des dispositifs numériques de médiation autorise une traçabilité sans précédent, donnant à voir les pratiques individuelles et collectives selon des modalités renouvelées.

2. (re)Médiations des traces de relations sociales

La traçabilité numérique constitue une opportunité stimulante de renouveler l’épreuve empirique des sciences sociales. Au Royaume-Uni, l’empirisme s’est opposé au rationalisme depuis le xviie et plus encore le xviiie siècle, avec Locke, Berkeley, puis Hume. Aussi, le problème auquel ferait face la sociologie ne relèverait pas de la rationalité, mais de l’accès aux faits. Il n’est pas surprenant que Savage et Burrows, tous deux britanniques, abordent la crise que traverserait la sociologie contemporaine selon une perspective qui s’inscrit dans cette filiation. La sociologie ne disposerait plus d’une place privilégiée pour lire le monde social. Nous n’assisterions donc pas tant au déplacement de la visibilité, mais plutôt à son extension au-delà des pratiques conventionnelles de la discipline : l’enjeu porte ici sur l’émergence de nouvelles données et de nouvelles méthodes pour les collecter (Giles, 2012 ; Barats, 2016 ; Boullier, 2016 ; Marres, 2017 ; Rogers, 2013). Or, ces données étant essentiellement produites par la remédiation numérique des pratiques, les acteurs qui opèrent ces remédiations disposent d’un pouvoir privilégié sur les données. Peu nombreux, ces acteurs tirent le plus grand profit de la synchorisation et de l’hypertraçabilité des pratiques (Beaude, 2015), jouissant presque exclusivement de la remédiation des traces de relations sociales.

2.1 À l’aune de la Great British Class Survey

En 2014, Burrows et Savage confirment leur crainte exprimée en 2007. Leur critique de la sociologie contemporaine est plus vive encore : la sociologie, en particulier britannique, serait devenue « insulaire et autoréférente » (Burrows et Savage, 2014 : 2). Elle ne disposerait plus d’une autorité « naturelle » pour revendiquer le primat de son regard sur les phénomènes sociaux, dont l’essentiel de l’étude échapperait au domaine académique. Les pratiques d’échantillonnage, de sondages et d’entretiens qualitatifs qui firent la légitimité de la sociologie de l’après-Deuxième Guerre mondiale seraient sur le déclin, au profit de la « sociologie commerciale », plus innovante, plus réactive et mieux équipée. Les méthodes « non intrusives » portant sur de nombreux individus s’imposeraient par leur efficacité. Statisticiens, économistes, journalistes, activistes ou conseillers politiques feraient à présent une meilleure sociologie que les sociologues (voir Burrows et Savage, 2014 : 3 ; voir également Osborne, Rose et Savage, 2008 : 523).

S’ils annoncent renouveler leur propos à l’aune du big data, leur démonstration est pourtant limitée et ne traite que très marginalement des enjeux spécifiques au big data. Leur analyse porte plus spécifiquement sur le bilan de l’enquête conduite par Savage avec la BBC entre 2011 et 2013 (Great British Class Survey — GBCS). Cette enquête visait à renouveler les catégories sociales britanniques et à caractériser leur inégale répartition en capitaux (Savage et al., 2013). Cette enquête réputée est présentée comme une hybridation des enquêtes conventionnelles et du big data. Il s’agit néanmoins d’une approche relativement conventionnelle, qui reprend la conceptualisation en capitaux économiques, sociaux et culturels proposée par Bourdieu dès la fin des années 1970. La nouveauté de la démarche porte plutôt sur la complicité et la médiatisation importante de la BBC : les répondants sont près de 160 000. L’innovation ne tient donc pas dans un renouveau théorique ou méthodologique (enquête et analyse des correspondances multiples), mais plutôt dans la remédiation numérique de la relation aux personnes concernées par l’enquête. Les auteurs soulignent en outre les limites de leur enquête, notamment en termes d’échantillonnage (voir Savage et al., 2013 : 224), mais ils n’en assument pas vraiment les conséquences : la survalorisation considérable des personnes disposant de capitaux élevés et la quasi-absence de ceux qui disposent de faibles capitaux n’apparaissent pas comme des obstacles à l’analyse des résultats[4].

2.2 Des méthodes numérisées aux méthodes numériques

La GBCS est donc relativement peu innovante si on la compare à des projets comme e-diaspora, Anamia ou Algopol[5], qui abordent respectivement la problématique des migrants, de l’anorexie et des médias sociaux en interrogeant spécifiquement les traces des médiations numériques comme autant de nouvelles sources d’information.

À la différence du GBCS, le projet Algopol propose par exemple d’exploiter les traces laissées par les relations établies sur Facebook afin de mieux en comprendre les usages différentiés. Les auteurs de cette recherche distinguent explicitement les enquêtes déclaratives et la capture des traces numériques (Bastard et al., 2017). Algopol ne prétend pas utiliser les médiations numériques pour parler de la société dans son ensemble, mais pour les étudier en tant que telles, contournant ainsi les critiques à l’égard de la non-représentativité de ce type d’approche. Cette recherche n’a pas la prétention de se référer à des groupes sociaux au-delà de Facebook. Un partenariat fut néanmoins établi avec le Conseil supérieur de l’audiovisuel français (CSA) afin de mieux identifier les biais de recrutement. Sans surprise, le projet Algopol disposait d’un nombre relativement élevé d’hommes, d’étudiants, de cadres et professions intellectuelles ou supérieures, et une sous-représentation très importante des ouvriers et des employés. Le partenariat avec Le Monde, qui assura une part non négligeable de la médiation, associé à des relations directes avec des étudiants, explique en grande partie ce biais. Mais, en ne s’intéressant pas tant à la représentativité des pratiques, mais plutôt à leur typologie, l’intérêt majeur d’Algopol consista à proposer une alternative aux recherches, trop nombreuses, qui conçoivent Facebook comme un « espace de pratiques unifiées et similaires », alors que la connaissance en amont des « différentes configurations d’activités » apparaîtrait « comme un préalable à toute autre interrogation » (Bastard et al., 2017 : 61).

Au même titre qu’il faudrait « apprendre à ne plus lire les livres » pour faire de la critique littéraire (Moretti, 2013), il faudrait apprendre à ne plus s’entretenir avec les individus pour faire de la sociologie. Il faudrait suivre leurs traces. Nous assisterions ainsi au passage du close reading au distant reading de la société. L’intérêt pour ces notions tient à la possibilité de suivre les traces et d’analyser la constitution des réseaux, ce qui présente idéalement une lecture des phénomènes sociaux au plus près de leur genèse. Il y aurait ainsi une exigence croissante à ne pas choisir de focale a priori. À la différence des enquêtes et des sondages, l’exploitation des traces numériques permettrait de produire des lectures distantes du social à partir des actes et des relations élémentaires (voir Bastard et al., 2017 : 78), revendiquant la fin de l’une des séparations historique et fondamentale des sciences sociales entre la quantification et la qualification des réalités sociales (Venturini et Latour, 2010).

2.3 De quelques malentendus

En 2014, devant les désillusions et les critiques à l’égard de ce renouveau, Tommaso Venturini, Dominique Cardon et Jean-Philippe Cointet, familiers de telles approches, soulignèrent à quel point la difficulté des méthodes numériques serait entretenue par quatre malentendus (Venturini, 2014), dont l’actualité reste pertinente.

Le premier malentendu invite à la prudence quant à la représentativité de telles données et à ne pas présupposer que les médiations numériques auraient suffisamment « absorbé le réel pour le représenter plus efficacement que toute autre technique d’objectivation » (Venturini, 2014 : 10-11). Avec d’autres, ils suggèrent de restreindre l’étude des traces numériques aux pratiques qui les produisent (Marres, 2017 ; Marres et Weltevrede, 2013 ; Boullier, 2015, 2016). « Les travaux conduits à partir d’extraction d’informations issues des blogs, de Google ou de Facebook permettent d’apprendre beaucoup sur les usages de ces plateformes, sans doute moins sur les phénomènes généraux que, par généralisation, elles voudraient représenter » (Venturini, 2014 : 11). Cette posture trouve sa formulation la plus assumée dans la DMI (Digital Method Initiative) de Rogers, qui distingue les méthodes « numérisées » des méthodes « nativement numériques » (Rogers, 2013). L’intérêt pour le contexte d’émergence des traces engage à nuancer la notion de live social research en distinguant l’évolution de la plateforme de celle des pratiques qui s’y déploient, mais aussi en soulignant l’importance relative d’une entité ou d’une relation à un moment donné et l’évolution de leurs états dans le temps. Marres et Weltevrede qualifient ces deux dynamiques de liveness et de livelyness (voir Marres et Weltevrede, 2013 : 326-327). Elle insiste sur le changement de l’espace et du temps des relations sociales, mais aussi du « cycle de l’empirie » lui-même (Marres et Weltevrede, 2013 : 325), rappelant la relation indissociable entre les pratiques, leurs traces et leurs études.

La DMI, promue activement par Rogers, invite à clarifier un deuxième malentendu, qui porte sur la nature même des données. Celles-ci ne sont pas produites pour les sciences sociales, mais pour les besoins dont elles émanent (marketing, surveillance, maintenance…). Rogers parle alors de « repurposing » pour qualifier la démarche qui consiste à traduire des traces produites dans un contexte particulier en des informations susceptibles de répondre à un enjeu spécifique (Rogers, 2017). À la différence de Savage et Burrows, Venturini, Cardon, Rogers ou Marres invitent donc plutôt à investir activement ces méthodes et à ne surtout pas « refuser systématiquement d’utiliser des données numériques au prétexte qu’elles sont produites dans des contextes industriels ou administratifs spécifiques » (Marres, 2017 ; Rogers, 2013).

Le troisième malentendu souligne ainsi l’importance du processus de transformation des données et à quel point le « numérique n’est pas automatique » (Venturini, 2014 : 11). Les méthodes numériques supposent au contraire un traitement minutieux et une rigueur méthodologique sans lesquels le « repurposing » et plus généralement la traduction de traces en signes exploitables selon une perspective particulière ne seraient pas envisageables (Baya-Laffite et Cointet, 2014).

Le dernier malentendu porte sur la faiblesse à privilégier la quantité à la qualité, en particulier lorsque les trois malentendus précédents ne sont pas maîtrisés. Particulièrement débattu à la suite de la proposition de Chris Anderson selon laquelle le big data annonçait « la fin des théories » (Anderson, 2008), la disjonction entre qualité et quantité a été vivement critiquée par Boyd et Crawford (2012) et encore soulignée en 2014 par l’équipe d’Algopol : « les traces numériques peuvent offrir davantage de quantification, mais seulement au prix d’une meilleure qualification » (Venturini, 2014 : 16).

Ces malentendus révèlent plus généralement trois obstacles qui expliquent en grande partie la prudence des sociologues à l’égard de l’exploitation des traces numériques : la représentativité discutable des traces (pas tous les individus et pas seulement des individus — cf. les bots, faux profils…), la pluralité des contextes de production (pratiques spécifiques, mises en scène, manipulations à des fins stratégiques) et les difficultés d’accès aux données (coût, légalité, compétence, éthique). La faible représentativité, les exigences du « repurposing » et le travail important à mettre en oeuvre sur les données pour qu’elles soient exploitables dans une perspective sociologique soulignent à quel point la quantité ne s’oppose pas facilement à la qualité. C’est au contraire le potentiel inédit de traçabilité des médiations numériques qui laisse penser que « pour la première fois, au lieu de sauter du local au global », il serait possible de « retracer comment des milliers d’interactions s’enlacent pour tresser le tissu de la vie collective » (Venturini, 2014 : 17).

L’exploitation du potentiel des traces numériques constitue en cela un défi majeur pour les sciences sociales contemporaines. Car si la sociologie est loin d’être démunie dans un tel contexte, elle n’en est pas moins à l’aube d’un changement de paradigme dont l’émergence et les modalités pratiques de déploiement s’inscrivent certes dans une histoire déjà bien riche de la quantification et des réseaux, mais sans que l’association entre toutes les composantes mobilisées dans cette épreuve soit pleinement réalisée et partagée.

2.4 Des sciences sociales de « troisième génération » ?

La spécificité des médiations numériques est telle qu’elle pourrait exiger des sciences sociales de « troisième génération » (Boullier, 2015 ; 2016). Après les recensements et la « politique des grands nombres » (Desrosières, 2010), les sondages et la « fabrique de l’opinion » (Blondiaux, 1998), serait venu le temps des traces et des « vibrations ». Dans une perspective relationnelle qui s’inspire elle aussi de la sociologie de Tarde et de l’ANT (Latour, 2010a), Boullier propose que « les sciences sociales de troisième génération doivent trouver leur place à côté des autres sciences sociales de la société et de l’opinion, et non les remplacer ». Il faut reconnaître « à chaque longueur d’onde sociale, ses méthodes et ses limites de validité » (Boullier, 2015 : 823-824).

Boullier compte d’ailleurs parmi les rares à s’intéresser au potentiel du big data au-delà d’une perspective critique, en associant volume et exhaustivité, variété et représentativité, vélocité et traçabilité. Cet intérêt pour la spécificité du big data est particulièrement stimulant. La démarche privilégiée consiste à se concentrer sur des enjeux spécifiques tels que le scraping (Marres et Weltevrede, 2013) ou le repurposing (Rogers, 2017), indépendamment de la quantité de données considérées[6] et en s’assurant de privilégier les issues comme autant de points de vue particuliers qui appellent des méthodes spécifiques. Boullier reste néanmoins critique à l’égard du « positivisme algorithmique » et engage à prendre plus au sérieux la spécificité du big data, au-delà des traces, dans la perspective du déploiement d’une « politique à haute fréquence », qui se soucie plus de l’action et de la réaction que de la compréhension (Boullier, 2015 : 807). Il propose ainsi d’ajouter aux couples registre/enquête et audience/sondages d’opinion, le couple traces/vibrations, afin d’inscrire pleinement les traces dans la perspective des sciences sociales (voir Boullier, 2015 : 821).

La remédiation des traces de pratiques sociales perturbe sensiblement les conventions de la sociologie. La crise annoncée par Savage et Burrows peut alors être exposée en d’autres termes. Puisque les données existent et que de nombreux acteurs s’en emparent, le milieu académique ne faisant pas exception, pourquoi les sciences sociales restent-elles à ce point en marge de cette dynamique ? Est-ce un problème de données, de méthode ou de théorie ? Notre hypothèse propose d’inverser la problématique, et d’affirmer que seules certaines théories appellent des méthodes susceptibles d’exploiter de telles données.

3. (re)Médiations de la connaissance

Les puissants processus de remédiation à l’oeuvre avec le déploiement des médiations numériques créent une autre situation relativement inédite. À la différence du mouvement d’importation au xixe siècle de la physique ou des mathématiques en sciences sociales, nous sommes aujourd’hui devant une importation des problématiques sociales dans les mathématiques, la physique et l’informatique. Cela se traduit par l’émergence de la computational social science (Lazer, 2009), de la social physics (Pentland, 2014) et de la network science (Barabázi, 2017).

Cette troisième remédiation, en plus de celle des pratiques et des moyens de les observer, se traduit par deux dynamiques qui confortent cette situation exceptionnelle. D’une part, quelques entreprises se partagent la visibilité des médiations sociales numériques, dont elles contrôlent l’architecture, le code et les conditions générales d’utilisation. D’autre part, les disciplines qui connaissent le mieux le traitement des données numériques se sentent légitimes à étudier le social au même titre que tout autre type de relation, ce qui laisse supposer que le problème principal des sciences sociales est l’absence de données. La légitimité de la physique et de l’informatique les positionne comme des interlocutrices privilégiées auprès de ceux qui disposent des données, assurés de s’épargner de surcroît la posture critique des sciences sociales.

Paradoxalement, ce sont ainsi des paradigmes très tôt abandonnés par les sciences sociales qui présentent actuellement un avantage décisif pour dialoguer avec les pourvoyeurs de données, renouant avec les promesses de la physique sociale et du positivisme pourtant délaissées depuis plus d’un siècle. La physique et l’informatique disposent ainsi d’arguments relativement convaincants pour s’imposer dans l’étude des traces numériques, tant elles exigent une maîtrise des données, de leur traitement et de leur analyse, ce dont la sociologie ne dispose pas dans les mêmes proportions. En cela, même la sociologie empirique la plus quantitative ne serait pas en mesure de s’imposer facilement dans le mouvement qui s’est engagé en l’espace de deux décennies à peine, appelant à une profonde remédiation des pratiques scientifiques et de la production de connaissances sur le monde social.

3.1. Sciences et Nature

L’investissement du social par la physique et l’informatique est d’autant plus important qu’il a rapidement bénéficié d’une reconnaissance au plus haut niveau de la délibération scientifique, en des termes encore plus marqués que ne le fit l’économie. Des recherches relatives aux pratiques sociales menées par des physiciens et des informaticiens font ainsi l’objet de nombreuses publications dans les revues scientifiques les plus prestigieuses, dont Nature et Sciences, validant par les pairs la légitimité de la démarche. Nous assistons dès lors à une autonomisation de la production de ces connaissances, volontiers relayées par la presse.

En 2009, David Lazer et Alex Pentland publient avec des collègues un article qui expose clairement les termes de ce regain d’intérêt pour le social, en annonçant l’avènement de la computational social science (Lazer et al., 2009). La même année, Nature publie l’un des articles qui a le plus influencé les espoirs et l’engouement pour le big data, lorsque l’équipe de Google Flu Trend annonce pouvoir anticiper les épidémies de grippe avec plus d’une semaine d’avance sur le US Centers for Disease Control and Prevention (CDC). L’affirmation repose sur l’invocation de la capacité à exploiter l’intelligence collective des millions d’utilisateurs de Google, en exploitant les corrélations entre ce que cherchent les individus sur Google et les épidémies déclarées par le CDC les années précédentes (Ginsberg et al., 2009). La pluralité des médiations sociales numériques est alors investie, la traçabilité différentielle des pratiques privilégiant particulièrement les recherches portant sur la mobilité (Eagle, Macy et Claxton, 2010 ; González, Hidalgo et Barabási, 2008 ; Song et al., 2010), l’urbanisme (Bettencourt et West, 2010), les comportements (Golder et Macy, 2011), les marchés (Moat et al., 2013), la culture (Michel et al., 2011) ou l’anonymat (Montjoye et al., 2013 ; 2015).

Bien que ces recherches n’apportent guère de connaissances à ce qui fut déjà établi plus tôt par d’autres moyens, parfois depuis près d’un siècle, elles illustrent une part de la crainte exprimée par Savage et Burrows. Ces études portent en effet sur des quantités de données qui dépassent largement ce qui est généralement pratiqué en sciences sociales, et leur appliquent des traitements mathématiques et statistiques relativement exigeants. Elles se caractérisent aussi par leur disjonction avec l’état de l’art en vigueur en sciences sociales, s’inscrivant dans une démarche qui entreprend de repenser les sciences sociales depuis l’extérieur. Le prototype de Google Flu Trends utilise par exemple 50 millions de recherches parmi les plus représentatives sur Google entre 2003 et 2008, auxquelles sont associées les adresses IP des utilisateurs afin de contextualiser spatialement leurs recherches (Ginsberg et al., 2009). La recherche sur la mobilité menée par Barabási disposait dès 2008 d’informations relatives aux déplacements de 100 000 clients représentatifs d’un opérateur de téléphonie mobile sur une période de six mois (González, Hidalgo et Barabási, 2008). L’étude menée par Jean-Baptiste Michel sur les livres numérisés par Google porte sur le texte intégral de plus de 5 millions de livres, soit près de « 4 % des livres publiés » entre 1800 et 2000 (Michel et al., 2011). La récente recherche sur les fake news dirigée par Sinan Aral, cosignataire de l’article de 2009 sur l’avènement d’une science sociale computationnelle, porte quant à elle sur 4,5 millions de tweets partagés par 3 millions de personnes entre 2006 et 2017 (Vosoughi, Roy et Aral, 2018).

Ces recherches ont fait l’objet de critiques qui en soulignent les limites, parfois l’inexactitude[7], mais elles n’en demeurent pas moins impressionnantes par le renouveau des conditions d’accès aux traces de pratiques sociales d’une extrême diversité. Elles témoignent aussi parfaitement des accords privilégiés qui furent nécessaires à leur réalisation, soulignant à quel point le risque devient grand de créer une rupture avec la pratique convenue de la science : respecter les conditions de la réfutation et donc de la reproduction des recherches, ce qui exige de pouvoir accéder aux mêmes informations (boyd et Crawford, 2012 ; Lazer et al., 2009 ; Pasquale, 2015). C’est en particulier le cas pour les recherches établies dans le domaine de la santé ou de celles qui disposent d’accords privilégiés avec des opérateurs de télécommunications, Google ou Facebook, dont l’accès aux données privées est particulièrement restrictif.

Le problème de l’accessibilité n’est cependant pas propre aux sciences sociales ou à la sociologie en particulier, ce que supposent Savage et Burrows. Non seulement de plus en plus de sociologues sont appelés à collaborer à ce type de recherche, mais cette situation est de surcroît déplorée avec la même intensité en science sociale computationnelle, qui est elle aussi confrontée à la privatisation de la traçabilité (Lazer et al., 2009). Le récent scandale relatif à l’exploitation abusive des données de Facebook par Cambridge Analytica est d’ailleurs susceptible d’aggraver plus encore ces restrictions. Les remédiations numériques illustrent parfaitement à quel point la production des connaissances, les sources de financement, les enjeux, les contextes et les compétences sont étroitement intriqués, ce qui exige une organisation de plus en plus distincte des pratiques disciplinaires et des spécialisations qui se situent non plus au sein des disciplines, mais à leur intersection (Gibbons et al., 1994).

3.2 Privacités

L’asymétrie est considérable entre le pouvoir de ceux qui collectent les traces numériques et la capacité individuelle à en maîtriser la circulation et le traitement (Schneier, 2015). La crainte d’une black box society fait l’objet d’une attention de plus en plus vive. Alors que les traces sont collectées extensivement, exposant de plus en plus la privacité des individus, leur traitement se fait dans la plus grande opacité (Pasquale, 2015). Les médiateurs tels que Facebook et Google s’octroient ainsi l’un des plus grands pouvoirs : voir le plus possible tout en divulguant le moins possible, soulignant le traitement différentiel des vertus de la transparence.

Les arguments en faveur d’une plus grande maîtrise de nos traces individuelles n’auraient qu’une incidence marginale sur le pouvoir de ceux, très rares, qui disposent des traces du plus grand nombre. Il s’agit d’une atteinte tout à fait inédite à la vie privée qui expose à une vulnérabilité dont nous ne saisissons par encore toute la portée, d’autant que de très nombreuses traces sont passives et dispensées des « mises en scène » caractéristiques des communications interpersonnelles. La géolocalisation massive opérée par les opérateurs téléphoniques et les systèmes d’exploitation tels qu’Android ou iOS, les recherches sur Google, les historiques de navigation, les achats sur Amazon, ainsi que les films et séries visionnés sur Netflix, ne font que très exceptionnellement l’objet d’une mise en scène, ce qui engage à la défiance et à la dissimulation (navigateurs spécifiques, identifiants multiples, VPN…).

On ne cherche pas à plaire à Google, ce qui lui octroie un pouvoir de visibilité considérable (Stephens-Davidowitz, 2017 : 105-111). Du racisme à la dépression, en passant par les orientations sexuelles, Google dispose d’informations d’une rare intimité. Paradoxalement, Facebook ne permet pas d’accéder aussi facilement à l’intime, mais se révèle aussi très puissant pour caractériser les relations sociales, telles que l’orientation sexuelle, politique ou religieuse (Kosinski, Stillwell et Graepel, 2013). Dans un premier temps à des fins de ciblage publicitaire et de surveillance, le déploiement de la traçabilité, sa généralisation et ses raffinements autorisent à présent toute forme d’exploitation et un pouvoir considérable à ceux qui en ont la maîtrise.

L’évolution des conditions pratiques de l’observation rappelle que ce qui est privé dépend étroitement de ce qui est visible (Iacub, 2008). À mesure que la synchorisation se généralise, les dispositifs de médiation numérique systématisent la traçabilité des pratiques. L’exercice de la vie privée se trouve ainsi limité, exigeant des habiletés d’autant plus sophistiquées que le tracking n’est généralement pas explicite. Cette problématique se manifeste avec une telle intensité qu’elle est généralement avancée comme le principal obstacle à l’avènement d’une « data driven society », qui aurait pour seule limite celle de la vie privée et de l’éthique correspondante.

Cet enjeu, qui traverse aussi l’open data et l’open science, suppose néanmoins une distinction fondamentale qui est trop rapidement éludée : la différence entre les humains et les non-humains. La question de la vie privée ne s’étant pas posée pour les atomes, les bactéries ou les souris, pourquoi se poserait-elle pour les humains ? En quoi ce détail ne serait-il pas le signe d’une rupture plus fondamentale entre les humains et les non-humains ? La vie privée n’est-elle pas tout simplement l’expression de la réflexivité, c’est-à-dire de la relation spécifique que nous entretenons avec nous-mêmes et avec notre environnement ? La vie privée ne serait-elle que la partie émergée de la subjectivité ? Cette considération, relativement commune en sciences sociales, ne l’est pourtant pas dans la plupart des recherches qui exploitent le potentiel du big data, alors même que la spécificité de la vie privée suggère implicitement le caractère singulier des relations sociales.

3.3 Physique sociale

La physique excelle dans la modélisation des relations. Elle s’est particulièrement distinguée depuis une vingtaine d’années dans cet exercice délicat, qui consiste à traiter indifféremment tous les êtres et à considérer de plus en plus les phénomènes sociaux. La proposition de la « fin de la théorie » par Chris Anderson, physicien de formation, n’est que la déclinaison provocante d’une tentation bien plus grande, celle de ne plus limiter la physique aux phénomènes physiques. La social physics proposée par Alex Pentland est particulièrement représentative de cette tendance, tant elle entretient une relation ambigüe au paradoxe de la vie privée : la vie privée serait le propre des humains, mais elle serait leur seule singularité. La traçabilité inédite du monde social constituerait une opportunité suffisante pour l’étudier au même titre que toute autre réalité, inscrivant les humains et les non-humains dans une même épistémologie, positive et universaliste, qui n’exigerait qu’un « new deal on data » respectueux de la vie privée pour assurer l’efficience d’une « data driven society » (voir Pentland, 2014 : 177-188).

Ce n’est que par cet exercice délicat de commensurabilité que des physiciens s’autorisent à investir des problématiques relatives aux faits sociaux. On comprend dès lors pourquoi nous assistons à un tel investissement des sciences sociales par les sciences de la nature. On comprend aussi pourquoi Latour y a perçu l’actualisation inédite de la monadologie de Tarde, qui aurait substitué avec un siècle d’avance la dichotomie entre l’individu et la société à la puissance de la relation (Tarde, 2001). Dans l’environnement qui dispose de la traçabilité extensive que nous éprouvons à présent, il serait enfin possible de suivre les traces et de substituer les individus à des acteurs-réseaux, toujours en relations, toujours en devenir (Latour, 2010a ; 2010b). La fiction de la singularité des humains serait alors saisissable, comme celle de la société, car tout serait société, y compris « les fourmis, les bactéries, les cellules, les paradigmes scientifiques ou les marchés » et il n’y aurait « pas de différence claire entre le biologique et le social » (Latour, 2010a : 160-161).

C’est dans cette perspective que la social physics d’Alex Pentland (2014) peut être saisie comme l’expression renouvelée de la sociologie du xixe siècle. Elle s’inscrit non seulement dans le prolongement des lois de l’imitation de Tarde, mais aussi dans la physique sociale de Comte, en proposant une science sociale positive, affranchie de la « partialité » et de la « passion » de ceux qui étudient généralement les phénomènes sociaux (Comte, 1844). Il ne s’agit pas tant de saisir les causes des faits sociaux singuliers, mais d’en identifier les relations stables, comme autant de déterminations, mues par des causes générales et universelles. Pentland se plaît ainsi à souligner à quel point le libre arbitre est plus un idéal qu’une réalité, et la prévisibilité importante de nos actes une opportunité pour mieux organiser notre coexistence (voir Pentland, 2014 : 189-192).

Pentland limite sa considération pour les sciences sociales à une caricature qui les réduit à deux échecs supposés de la pensée : le marché de Smith et les classes de Marx. Ces catégories classiques de la sociologie seraient avantageusement remplacées par « a network of individual interactions » (Pentland, 2014 : 214). Pentland, avec d’autres, propose ainsi de renouveler la production de la connaissance du monde social en faisant l’économie de la pensée du xxe siècle, sans la moindre référence à ses auteurs majeurs. Il est encore plus surprenant de ne pas trouver dans sa proposition la moindre référence à Tarde, dont Pentland reprend pourtant certains principes élémentaires, comme « l’épidémiologie des idées » (Tarde, 2001) ou à Comte, dont il tire pourtant le titre de son livre et de son projet scientifique : Social physics[8].

Cette négligence de la sociologie témoigne de l’organisation disciplinaire de la recherche universitaire, mais aussi d’une hiérarchie des légitimités qui permet une telle économie de la pensée. Ce phénomène pourrait sembler marginal et limité si Pentland n’était pas l’un des chercheurs vivants les plus cités au monde, toutes disciplines confondues. Il n’est de surcroît que la partie la plus émergée d’un iceberg qui, avec d’autres, témoigne de l’investissement croissant des problématiques sociales par des physiciens. Albert-László Barabási, selon une dynamique semblable, incarne lui aussi cette puissante légitimité à étudier le monde social en marge des sciences sociales[9].

Barabási propose d’abord de montrer en quoi « tout est relié et ce que cela signifie pour l’économie, la science et la vie quotidienne » (Barabási, 2002), puis de révéler « les structures cachées derrière tout ce que nous faisons » (Barabási, 2010), avant de proposer une science des réseaux (Barabási, 2016). Sans plus de référence aux sciences sociales, Barabási a développé une science des réseaux indifférente aux réalités ou aux échelles qui les organisent (Barabási, 2002 ; 2010 ; 2016). En 1999, il propose avec la physicienne Réka une théorie des « réseaux invariants d’échelle », sur la base de l’organisation du World Wide Web. Cette publication est à présent l’une des plus citées de la revue Science (Barabási et Albert, 1999)[10]. Les auteurs y proposent le modèle dit de Barabási-Albert (BA) qui repose sur le principe de l’attachement préférentiel et de la croissance des réseaux, dont la manifestation se déclinerait à tous les réseaux, des organismes biologiques aux « communautés en ligne », en passant par les citations. Dans le prolongement de l’imitation et de l’invention de Tarde, l’engagement et la découverte de Pentland, comme l’attachement préférentiel et la croissance du modèle de Barabási-Albert, soulignent cette propension à vouloir expliquer les phénomènes sociaux comme le résultat de logiques relationnelles animées par deux forces contradictoires et complémentaires, qui organiseraient à elles seules l’essentiel des proximités et des distances réticulaires, et dont le monde social ne serait qu’une manifestation particulière.

Latour, par l’attachement qu’il porte à la monadologie de Tarde, procède d’une démarche sensiblement comparable, lorsqu’il réduit Durkheim ou Bourdieu à leur caricature (Latour, 2006a). L’habitus, comme l’anomie, relèvent pourtant d’une conception profondément relationnelle du social, situant la pratique présente d’un individu dans l’histoire des relations qui le constitue. Si les divisions qui traversent la sociologie depuis plus d’un siècle sont nombreuses et clivantes, elles peuvent aussi être perçues comme des raffinements de la pensée des relations sociales qui, en assumant pleinement la réflexivité des individus, se révèlent autrement plus complexes que ce que laisse entendre la physique sociale contemporaine, peu importe l’étendue des données considérées.

4. (re)Médiations de l’intelligibilité

Les sciences sociales, à partir de leur distanciation au positivisme de Comte et à l’idéal de Tarde, se sont profondément distanciées des sciences de la nature. La prolifération des traces numériques réactive des débats dont l’accalmie n’était semble-t-il que passagère. La critique émise en 1959 par Percy Snow sur le clivage croissant entre « deux cultures » semble aggravée (Snow, 1959). Au-delà des seules humanités, les sciences sociales et les sciences de la nature ont accentué leur spécialisation en suivant des orientations divergentes.

Pour se convaincre de la distance opérée entre ces épistémologies, il n’est pas inutile de revenir à la conclusion de Pentland : « We could predict and mitigate financial crashes, detect and prevent infectious disease, use our natural resources more wisely, and encourage creativity to flourish and ghettos to diminish. These dreams used to be the stuff of science-fiction stories, but that fantasy could become a reality — our reality, if we navigate the pitfalls carefully. That is the promise of social physics and a data-driven society » (Pentland, 2014 : 216).

4.1 Les qualités de la subjectivité

Au regard de l’assurance et des promesses de la physique sociale, mais aussi de l’échec de la quintessence du big data portée par les supposées prédictions de Google Flu Trend, il faut rappeler la nécessaire prudence à l’égard des statistiques et de la quantification à laquelle Tarde invitait déjà. Il soulignait en effet que l’imitation constitue le moteur essentiel du social, l’avenir étant de ce fait en partie prévisible. Mais il opposait aussi le désir à la croyance et l’invention à l’imitation : « À mesure que la statistique porte sur de plus grands nombres, on est quelquefois enclin à penser que, bien plus tard, si la marée montante de la population continue à accroître et les grands États à grandir, un moment viendra où tout, dans les phénomènes sociaux, sera réductible à des formules mathématiques. D’où l’on induit abusivement que le statisticien pourra un jour prédire l’état social futur aussi sûrement que l’astronome la prochaine éclipse de Vénus. De sorte que la statistique serait destinée à plonger toujours plus avant dans l’avenir comme l’archéologie dans le passé. Mais nous savons par tout ce qui précède que la statistique est circonscrite dans le champ de l’imitation et que celui de l’invention lui est interdit » (Tarde, 2001 : 196).

Les dimensions subjectives et normatives permettent de disposer d’une prédiction parfois bien supérieure à celles des sciences de la nature. L’exemple des embouteillages, par opposition aux conditions météorologiques, illustre cette distinction pourtant évidente (voir Lévy, 1996 : 11). Le monde social étant en partie ordonné selon des règles qu’il se choisit et qu’il peut expliciter, la société peut être conçue comme un projet d’associations qui consiste en la transformation des coexistences présentes en coexistences préférables, aussi précaires et changeantes soient-elles. L’idée selon laquelle l’observation des embouteillages, seule, suffirait à en prévoir les manifestations à venir, révèle une incompréhension manifeste du monde social et une conception pauvre de la relation. Un changement dans les dates de vacances ou un événement singulier tel que l’accueil de Jeux olympiques rendrait de tels modèles inopérants selon une logique explicative interne, malgré leur très grande lisibilité et prévisibilité externe.

Ce clivage réactive aussi, sous une forme renouvelée, la vive controverse dans laquelle s’étaient engagés dans les années 1960 Adorno et Popper sur la spécificité des sciences sociales, qui portait elle aussi sur le besoin ou non de constituer un paradigme commun entre les sciences, sur la pertinence de penser le primat des conjonctures sur les structures[11], des phénomènes sur les essences ou de l’empirisme sur « l’expérience », et plus généralement sur le statut particulier de l’interprétation (Adorno, 1969 ; 1976). Dans ce débat, la sensibilité des uns et des autres a trop souvent été négligée : Popper n’est pas plus positiviste que Bourdieu n’est structuraliste. La critique de Popper à l’égard de l’historicisme est particulièrement éclairante sur ce point, lorsqu’il insiste sur le fait que le progrès se réalise par erreurs successives et exige de pouvoir disposer d’arguments opposables (Popper, 2002). Le « constructivisme structuraliste » de Bourdieu chercha précisément à dépasser l’opposition entre le libre arbitre de l’individu et les structures qui en détermineraient les actes (Bourdieu, 1987). Il semblerait que nous soyons régulièrement amenés à simplifier la complexité des relations sociales afin de rendre possible l’exercice de la pensée. Nous faisons semblant de croire que la société existe comme nous faisons semblant de croire que l’on peut suivre les traces.

La complexité est probablement la composante la plus essentielle de ce débat. Une plus grande traçabilité des médiations sociales opérées par la synchorisation des pratiques numériques est-elle susceptible d’en simplifier la lecture, ou au contraire d’en accroître la complexité pour révéler plus encore la singularité de l’humain ? Pour situer cet enjeu, il n’est pas inutile de rappeler que Comte, comme certains tenants de la science sociale computationnelle, soutenait l’idée selon laquelle l’astronomie était la première des sciences parce qu’elle est la moins complexe et qu’il est bien plus simple de prévoir le passage de la comète de Halley que la plupart des phénomènes sociaux (voir Comte, 1844 : 107 ; voir également Hofman, Sharma et Watts, 2017 : 487 ; Watts, 2011, Jensen, 2018).

4.2 Intelligibilités des sciences interactives

Le malentendu le plus profond qui anime les perturbations paradigmatiques actuelles se situe probablement dans l’orientation de l’acte de recherche et de la production de connaissances. C’est plus précisément le rapport à la prédiction qui distingue fondamentalement les épistémologies contemporaines opposées dans leur exploitation inégale des traces numériques. Les doutes à l’égard de la représentativité, de la qualité ou de la pertinence des données recouvre un doute, plus central, quant à l’usage que nous pourrions en faire. Or, la computational social science s’intéresse peu à la compréhension des phénomènes, dès lors qu’elle fonde son efficience sur l’élaboration de modèles prédictifs, dont l’association entre les entités relève plus de la description formelle de phénomènes stables que de leur explication. Comte ne disait pas autre chose lorsqu’il soulignait que « le véritable esprit positif consiste surtout à voir pour prévoir, à étudier ce qui est afin d’en conclure ce qui sera, d’après le dogme général de l’invariabilité des lois naturelles » (Comte, 1844 : 17).

L’insistance de Pentland sur l’illusion du libre arbitre (voir Pentland, 2014 : 189), comme celle de Barabási sur l’analogie entre tous les réseaux (free scale networks), oeuvre à souligner et révéler ce qui est stable, à identifier les lois naturelles qui organisent le monde social. Il y a dans cette démarche une différence majeure avec les sciences sociales. Lorsque la sociologie travailla à identifier des processus qui structurent les pratiques, tel l’habitus de Bourdieu, ou lorsque Foucault révéla les épistémès qui organisent la normalité d’une époque, l’intention était de dénaturaliser le social, la science sociale computationnelle s’efforçant au contraire à le naturaliser.

C’est pourquoi la relation et le réseau permettent de penser la commensurabilité de ces approches, tout en soulignant la faiblesse des démarches qui ne porteraient pas assez d’attention aux entités agissantes et à ce qui les anime. C’est d’ailleurs l’intense critique qui vient d’être émise à l’encontre de la théorie des réseaux invariants d’échelle sur laquelle Barabási a construit sa science des réseaux. Ce principe d’organisation des réseaux ne serait pas la norme, mais l’exception, dès lors qu’il ne serait pas observable dans plus de 4 % des cas (Broido et Clauset, 2018). Cette propension à la généralisation et à la recherche de lois universelles susceptibles de rendre compte de la complexité du monde est certes précieuse et parfois d’une grande valeur heuristique, mais elle s’avère aussi tout à fait inopérante lorsqu’elle réduit la singularité au point de faire disparaître l’essentiel.

Aussi, la spécificité des sciences sociales ne résiderait pas tant dans l’holisme, la règle ou la norme, pas plus que dans la simple intentionnalité, mais plus précisément dans la réflexivité, qui autorise la pensée de la relation elle-même. C’est précisément le clivage fondamental suggéré par Ian Hacking lorsqu’il oppose les sciences interactives et les sciencesnon interactives, selon qu’elles modifient ou non l’objet de leur connaissance par les énoncés qu’elles produisent à leur égard (Hacking, 1999). Ce principe fut d’ailleurs utilisé pour critiquer la politique économique de Margaret Thatcher ou le publish or perish, en soulignant à quel point, dès lors qu’une mesure devient l’indicateur d’un phénomène social, elle cesse d’être une bonne mesure de celui-ci (Biagioli, 2016). Cette « loi de Goodhart », du nom de l’économiste britannique qui la proposa, témoigne parfaitement de la complexité du monde social, dont une « loi » consiste à dire qu’il n’y en a pas.

C’est ainsi l’entité agissante qui est contestée, dès lors qu’elle est susceptible de changer de comportement, non seulement au cours de son expérience, mais aussi selon ce que l’on en dit et ce que l’on en attend explicitement. La perspective interprétative et historique des sciences sociales constitue conjointement leur force et leur faiblesse à produire des énoncés stables ou prédictifs. La concurrence d’une science sociale computationnelle dans la production de connaissances, mais aussi d’intelligibilités, peut en cela être perçue comme peu efficiente d’un point de vue théorique, mais aussi très performante si l’on considère les horizons d’attentes à l’égard de ses promesses.

4.3 Symphonic social science

Si la théorie de l’acteur-réseau constitue une forme de systématisation d’une pensée conjointe de la relation, de l’action et de l’extension des entités considérées, il n’est pas certain qu’il soit toujours pertinent de glisser des non-humains aux humains. Il n’est pas plus évident de suivre les relations sans se heurter à des entités d’une complexité variable. Anderson et Latour ont raison de rappeler que la théorie est ce qui permet de combler les relations que l’on ne peut pas observer. En revanche, lorsqu’ils supposent que nous n’en avons plus besoin, ils suscitent un doute légitime. Les traces numériques, aussi « grandes » soient-elles, restent infimes au regard de toutes les médiations, en plus d’en être souvent de piètres représentations. Elles représentent parfois suffisamment des mondes clos tels que celui d’Amazon, où leur efficience est optimale, car autoréférente, mais elles se révèlent bien plus fragiles hors de leur contexte de production.

Parce que l’accessibilité, la représentativité, la spécificité et la privacité sont très loin d’être maîtrisées, la difficulté de la sociologie à saisir les opportunités offertes par les traces numériques n’est peut-être que provisoire, le temps de l’illusion renouvelée de l’utopie computationnelle. Cette illusion laisse penser que la traçabilité associée aux capacités de traitement informatique suffirait à faire des sciences sociales des sciences comme les autres. La sociologie doit ainsi relever un défi majeur, et il est peu probable qu’il s’inscrive dans la perspective dénoncée par Savage et Burrows en 2007, pas plus qu’en 2014 (Savage et Burrows, 2007 ; Burrows et Savage, 2014). La crise que traverserait la sociologie ne relève pas tant d’une incompétence que d’une prudence acquise à l’épreuve des limites de la quantification du monde social à produire de l’intelligibilité.

En revanche, cette prudence pourrait bien se révéler être un handicap si les sociologues ne se saisissent pas de cette occasion pour disposer d’un regard plus divers et complémentaire sur les pratiques contemporaines. Une part croissante de ces pratiques laisse effectivement des traces qui peuvent faire l’objet de traitements privilégiés, et qui exigent plus que jamais une double culture. Ce dont la sociologie a besoin, au même titre que les data sciences, c’est effectivement d’une culture hybride susceptible d’apprécier les qualités respectives de l’interprétation et de la quantification. Cela engage à des collaborations de plus en plus étroites entre ceux qui maîtrisent la collecte et le traitement des traces de médiations numériques et ceux qui en maîtrisent les significations potentielles (Mützel, 2015). Dans ces conditions, nous pourrions ne pas avoir à choisir entre le micro et le macro, et chercher au contraire à relier le plus possible ce qui peut l’être (Venturini, 2015).

C’est d’ailleurs la proposition renouvelée de Mike Savage, avec Susan Halford, qui appelle cette collaboration avec une intensité particulière, concluant provisoirement que la crise empirique de la sociologie est aussi celle, plus générale, de la science sociale telle que nous avons pu la concevoir, mais aussi la pratiquer. En reprenant Bruno Latour (sans le citer) par l’intermédiaire de danah boyd et de Kate Crawford, ils rappellent que lorsque l’on change significativement l’instrument de la science, c’est l’objet de la connaissance qui s’en trouve changé (voir Halford et Savage, 2017 : 1145). Ils appellent ainsi à une symphonic social science, seule capable d’appréhender la complexité des opportunités qui s’offrent à l’étude contemporaine des sciences sociales. En reprenant les propositions du géographe britannique Rob Kitchin, ils soulignent à quel point cette « crise empirique » exige un renouveau des méthodes et des théories, dans une perspective globale qui ne saurait se limiter à une opposition entre logiques inductives et déductives (Quetelet, 1835). Au-delà de l’appel à la pluralité des sources de données et à l’association des approches quantitatives et qualitatives, il s’agit plus précisément de penser ensemble données, méthodes et théories et de privilégier une approche abductive qui en valorise la co-constitution (voir Halford et Savage, 2017 : 1143 ; Kitchin, 2014).

L’enjeu porte ainsi sur les conditions de l’exploitation de nouvelles données relatives aux phénomènes sociaux. Les traces numériques s’inscrivent pour la plupart dans des contextes qui opposent à leur prolifération leur capacité à rendre compte du monde qu’elles sont censées décrire. Leur quantité ne dit rien de leur qualité, pas plus que de leur représentativité (Boyd et Crawford, 2012). Mais leur intensité n’en est pas moins d’une rare richesse pour renouveler la connaissance que nous pouvons avoir des pratiques sociales, dans leur expression individuelle, collective et temporelle. Une telle symphonic social science appelle ainsi une épistémologie singulière qui reste à inventer (voir Halford et Savage, 2017 : 1141 ; Marres et Weltevrede, 2013). Il s’agit de ne pas renoncer aux exigences des sciences sociales, tout en saisissant les moyens de collecter, analyser et visualiser des données dont la nature, la dépendance à l’égard d’entreprises privées, l’opacité de la production, l’hétérogénéité et la quantité perturbent significativement les pratiques et les paradigmes des sciences sociales.

Conclusion

Les traces numériques permettent sans doute d’accéder avec plus de finesse aux processus d’imitations et à la manifestation des inventions, mais il est de plus en plus important de savoir si le futur est dans les traces de notre passé ou s’il se situe dans l’expression créative de nos intentionnalités. Si ces deux options semblent proches d’un point de vue relationnel, nos intentions pouvant être appréciées comme la simple résultante conjoncturelle de nos expériences passées, la notion d’intentions a néanmoins le mérite d’être une synthèse de la projection d’histoires singulières, à laquelle nous sommes loin d’avoir accès par la traçabilité numérique des pratiques, aussi intense et massive soit-elle. Imaginer que les « sujets » n’ont plus rien à dire, car tout est déjà pré-dit par les traces, présuppose une représentativité fictive des traces, et remet fondamentalement en cause le sujet et ses perspectives d’émancipation : qu’est-ce que l’émancipation lorsque nos désirs nous précèdent ? (Rouvroy et Berns, 2013).

Aussi, la transposition progressive du projet d’une science sociale computationnelle en « gouvernance algorithmique », projet radical de délégation objectivante, encourage la revendication de « méta-droits », tels que le « droit à l’oubli », « à la désobéissance » ou « à (se) rendre compte », afin de ne pas plonger « dans l’ombre, dans l’invisible et dans l’indicible une bonne part de ce qui reste, malgré tout, intraduisible sous forme de données digitales » (Rouvroy, 2010 : 88-89). C’est aussi pourquoi il convient d’être de plus en plus vigilant à l’égard des présupposés de l’efficience des données, et de faire une archéologie de la connaissance ainsi produite. La résurgence de la perspective relationnelle n’est en effet pas sans rapport avec le projet politique du saint-simonisme, dont Auguste Comte tira de nombreux enseignements, et plus encore de la cybernétique (Musso, 2000hx).

C’est plus généralement de l’écrasement du volume de l’être dont il est question, et du primat supposé des exo-relations sur les endo-relations (Piette, 2014), qui oppose finalement la science sociale computationnelle aux sciences sociales. En considérant pleinement la multitude des relations incorporées et non perceptibles le temps de l’action, la problématique fondamentale est ainsi de savoir si le futur se limite à nos traces et à ce que nous pouvons en percevoir. Cette option, de plus en plus séduisante, sous les apparats d’une neutralité relationnelle et algorithmique, se révèle pourtant très naturaliste et particulièrement conservatrice. Les préjugés et la reproduction des inégalités sociales peuvent en effet se perpétuer selon les deux modalités les plus courantes de « l’intelligence artificielle » : la méthode conventionnelle des systèmes experts (qui incorporent explicitement les conventions) et la méthode contemporaine par apprentissage (qui ne fait que conforter les situations antérieures dont elle tire ses enseignements).

C’est en ces termes que la mathématicienne Cathy O’Neil parle de Weapons of Math Destruction, après une expérience décevante dans la finance lors de la crise de 2008. Elle appelle, avec d’autres, à rendre plus explicites les opérations par lesquelles une science sociale computationnelle prétend objectiver le monde social (Hofman, Sharma et Watts, 2017 ; O’Neil, 2016). Ainsi, la crise de la sociologie, s’il en est une, est probablement plus paradigmatique qu’empirique. Elle ne fait que réactiver les grands clivages qui divisent les sciences sociales depuis des décennies, selon la valeur que l’on accorde à la rationalité et aux universaux (Berthelot, 1998). Les traces numériques constituent une opportunité remarquable de renouveler les conditions pratiques de l’exercice de la science, mais leurs faiblesses sont si nombreuses qu’elles tendent à exacerber les divisions antérieures, au lieu de les réduire.

Une fois les illusions passées, à l’exemple de l’échec de Google Flu Trends, il est probable que la sociologie recouvre de sa pertinence à rendre intelligible le monde social dans un contexte de traçabilité partielle, biaisée et conflictuelle, et à mieux saisir les enjeux sociaux et politiques des remédiations numériques. Car l’opposition entre description, compréhension et prédiction, dès lors qu’il s’agit du monde social, devient éminemment politique. La fragilité et le pouvoir de la statistique et de la quantification du social appellent à la prudence (Desrosières, 2010), car ce sont tout autant les pratiques qui se trouvent changées par ces remédiations, que les moyens à notre disposition pour les observer. C’est pourquoi il conviendrait d’éviter l’écueil d’une sociologie thématique du numérique, comme d’Internet, car ces remédiations sont au coeur même des relations sociales. La sociologie est probablement plus exposée à une perturbation paradigmatique qu’à la crise empirique que Savage et Burrows annonçaient. Les remédiations numériques appellent non seulement une sociologie du numérique, mais aussi, et plus encore, à faire de la sociologie avec le numérique, avec ses pratiques, ses données, ses méthodes, ses dispositifs et ses notions spécifiques, qui seront de plus en plus difficiles à penser et à investir isolément.

Dans ce processus de (re)médiations et de synchorisation des pratiques et de la traçabilité, où la question de l’intermédiaire et du médiateur est de plus en plus décisive, la question du sujet se pose en des termes renouvelés et particulièrement intenses. Cela engage à penser le propre de l’humain dans le monde de ses artifices. La vie privée n’est ainsi que la partie émergée de la réflexivité, et la réflexivité, même artificielle, reste d’une complexité qui engage à ne pas s’assurer trop rapidement de l’analogie entre les abeilles, les fourmis et les humains. Deux millénaires suffisent à saisir à quel point la dynamique des sociétés humaines fut autrement plus complexe que celle des fourmis.