Vous êtes sur la nouvelle plateforme d’Érudit. Bonne visite! Retour à l’ancien site

PrésentationLa statistique en actionContentStatistics in Action

  • Stéphane Moulin

…plus d’informations

  • Stéphane Moulin
    Département de sociologie, Université de Montréal, C. P. 6128, succursale Centre-ville, Montréal (Québec) H3C 3J7
    stephane.moulin@umontreal.ca

Couverture de La statistique en action, Volume 43, numéro 2, automne 2011, p. 5-354, Sociologie et sociétés

Corps de l’article

1. La sociohistoire des quantifications sociales

La statistique peut se définir comme une branche autonome des mathématiques qui offre des outils scientifiques d’analyse. La mobilisation intensive des outils de la statistique pour l’étude des phénomènes sociaux a contribué au développement de la statistique sociale. Cependant la statistique sociale peut être aussi prise comme objet d’analyse, et c’est un objet dont l’intérêt heuristique est particulièrement important en sociologie des sciences. Comme l’étymologie latine du mot l’indique, la statistique renvoie à l’État et aux formes de l’action publique. Un des intérêts de l’étude sociologique de la statistique sociale est en effet de constituer une entrée originale pour l’analyse de l’action publique.

Sociohistoire des statistiques sociales et action publique

C’est surtout depuis le début des années 1980 que se sont multipliés des travaux qui considèrent les statistiques sociales non pas comme des outils mathématiques de mesure de phénomènes sociaux mais plutôt comme des instruments ayant une histoire intimement liée à celle des formes de l’action publique et participant à la construction des représentations du monde social. Ainsi il existe maintenant un champ important de la sociologie des sciences qu’Alain Desrosières désigne comme la « sociologie historique de la quantification » (Desrosières, 2008). Trois apports de ce sous-champ de la sociologie à l’analyse de l’action publique peuvent être ici soulignés à travers trois points de vue différents quoique complémentaires sur la statistique : la statistique comme produit de l’action de l’État et des discussions publiques ; la statistique comme ressource cognitive du pouvoir politique ; et enfin la statistique comme support de modèles différenciés de représentation du monde social.

D’abord, un ensemble de contributions a cherché à approfondir l’histoire de la construction des outils et des méthodes statistiques (Hacking, 1975, 1990 ; Stigler, 1986 ; Porter, 1986, 1995 ; Daston, 1988 ; Gigerenzer et al., 1989 ; Desrosières, 1993 ; Brian, 1994 ; Beaud et Prévost, 2000). Du point de vue de l’analyse de l’action publique, ces travaux ont notamment eu l’intérêt de renverser le lien qui est communément fait entre les outils statistiques et l’action publique : si les sciences sociales ont sans doute besoin de la statistique pour analyser scientifiquement la société, ces travaux ont aussi montré qu’en sens inverse la statistique s’est développée grâce à l’État ou parce que certaines questions étaient posées sur la société. De fait, contrairement à la mathématisation du monde physique et social qui elle est très ancienne et remonte aux sociétés antiques, la naissance de la statistique est plutôt récente et contemporaine de la consolidation des appareils bureaucratiques d’État. C’est Quételet (1835) qui a ouvert la voie aux quantifications modernes en sciences sociales en s’appuyant sur des enregistrements administratifs de plus en plus abondants (Desrosières, 1993). Les concepts statistiques ont été ensuite surtout développés, non par des physiciens, mais par des idéologues opposés à l’intervention trop grande de l’État, notamment des eugénistes (Porter, 1986).

Un deuxième apport de la sociohistoire de la statistique a été de montrer que les opérations statistiques de classification constituent une des ressources cognitives essentielles du pouvoir politique. Notamment de nombreuses contributions de ce champ ont porté leur regard sur l’outil statistique archétypique du gouvernement des États : les recensements nationaux. Que ce soit en Amérique du Nord (Prévost et Beaud, 1994 ; Curtis, 2001 ; Schor, 2009), en Russie (Blum et Mespoulet, 2003 ; Mespoulet, 2008) ou en Amérique latine (Otero, 2007), ces études tendent à montrer que les recensements, loin d’être neutres, influencent la façon dont un pays se représente, reflètent des régimes juridico-politiques et contribuent à construire les politiques publiques qui y sont mises en place. Cette sociohistoire des statistiques a permis d’approfondir l’analyse des liens entre le pouvoir et la science, en regardant les chiffres comme des technologies du politique ou des instruments (Lascoumes et Le Galès, 2004 ; Desrosières, 2008). Une dimension particulièrement développée de cette sociohistoire des recensements se rapporte aux catégorisations de l’identité linguistique, ethnique ou raciale (Kertzer et Arel, 2002 ; Prévost et Beaud, 2002 ; Bilge, 2004). La récente controverse autour de la suppression en 2010 du caractère obligatoire de la version longue du recensement au Canada rappelle combien la double forme d’autorité dont bénéficie la statistique — la science et l’État — crée des tensions qui révèlent in fine cette dimension politique des statistiques sociales (Beaud, 2010).

Un troisième ensemble de contributions, plus spécialisées, a permis d’apporter un éclairage sur la diversité des représentations véhiculées par les statistiques sociales en ciblant des objets ou des thématiques plus précises. Ainsi des travaux variés sont revenus sur la construction de mesures statistiques, comme celle de l’intelligence (Gould, 1981 ; Martin, 1997), du chômage (Salais et al., 1986 ; Topalov, 1994), de la richesse (Gadrey et Jany-Catrice, 2005), de la famille (Smith, 1992), de la sexualité (Stein, 1999), des catégories professionnelles (Boltanski et Thévenot, 1983 ; Desrosières et Thévenot, 1988 ; Mespoulet, 2003), des discriminations raciales (Simon, 2005), de la maladie ou des causes de la mort (Fagot-Largeault, 1989 ; Bowker et Star, 1999), de la toxicomanie (Beck, 2005), de la criminalité (Robert, 1994) ou de la pauvreté/exclusion (Brousse, 2005 ; Rivière, 2005 ; Hacking, 2006b). L’idée commune de ces contributions est de montrer que les outils et catégories statistiques, loin d’être des outils neutres de mesure des caractéristiques socio-démographiques de population d’un pays, contribuent à diffuser certaines représentations contre d’autres. Dès lors, si la mobilisation d’analyses factorielles par Charles Spearman, puis par Cyril Burt ou plus récemment Arthur Jensen, a contribué à construire une mesure unitaire de l’intelligence qui a pu servir à justifier des politiques de sélection scolaire (le système Eleven + au Royaume-Uni), elle a aussi été utilisée par Louis Leon Thurstone pour réfuter l’idée d’aptitude générale et mettre en évidence des aptitudes spécifiques (Gould, 1981). Revenir tant sur le contexte de construction des mesures statistiques que sur leurs logiques permet de mieux saisir les risques d’essentialisation comme par exemple le risque de réification du premier facteur d’une analyse factorielle psychométrique (ou facteur g pour Spearman).

La quantification comme optique distincte de la mesure

Tous ces travaux ont en commun de prendre une optique d’analyse distincte de celle de la mesure : l’optique de la quantification (Desrosières, 2008). La distinction entre ces deux optiques peut se décliner de quatre manières distinctes : comme deux étapes de la démarche scientifique en sciences sociales ; en tant que deux problématisations des mises en chiffres ; comme deux rapports entre le sujet et l’objet ; et enfin comme deux stratégies méthodologiques d’analyse.

La quantification est d’abord une étape préalable à la mesure. Mesurer, c’est construire des méthodes d’échantillonnage permettant d’inférer des échantillons aux populations, des méthodes de collecte qui vont permettre d’obtenir les taux de réponses les plus fiables et des méthodes d’analyse permettant d’estimer. Mais avant de construire ces méthodes, il faut préalablement s’entendre sur la quantification de ce qu’on cherche à mesurer. La quantification est un processus qui, comme son nom l’indique, conduit à transformer des qualités en quantités. Quantifier, c’est d’abord mettre en nombre un phénomène en adoptant un étalon et en construisant un instrument : par exemple, la corpulence est appréhendée par l’indice de masse corporelle (IMC), la dépression par un niveau sur l’échelle de Hamilton, et la capacité des États à répondre aux besoins d’emploi par le taux de chômage. Dans l’étape de la quantification, préalable à celle de la mesure, il faut donc d’abord convenir de la définition mathématique de l’indicateur mais aussi des seuils qui permettent de classifier les individus : ainsi pour le cas du chômage, il faut définir à partir de combien de semaines le fait de ne pas avoir recherché activement un emploi fait que l’on n’est plus considéré comme un chômeur ; pour le cas de la corpulence, il faut définir à partir de quel seuil et pourquoi des personnes sont qualifiées de personnes en surpoids ou d’obèses.

La quantification conduit par ailleurs à une problématisation des mises en nombres distincte de la mesure. L’optique métrologique, originaire des sciences de la nature, consiste à rechercher dans les nombres une fiabilité, c’est-à-dire une statistique « vraie », un « bon » chiffre, une estimation « sans biais » ou une « bonne pratique de mesure ». À l’opposé, l’optique de la quantification, inspirée de l’économie des conventions (Desrosières, 2011) et de la sociohistoire des sciences, consiste à analyser les « mises en équivalence » (Desrosières et Thévenot, 1988), les « investissements de forme » (Boltanski et Thévenot, 1981), les « commensurations » (Espeland et Stevens, 1998), les opérations de « codage social » (Thévenot, 1983), de « taxinomie » (Boltanski, 1970) ou encore « l’épidémiologie d’une représentation » (Sperber, 1985). Par exemple, le métrologue cherche à connaître les déterminants du chômage en estimant les effets nets de caractéristiques individuelles telles que le sexe ou le niveau de diplôme. À l’opposé, le conventionnaliste cherche à comprendre la logique faisant en sorte qu’à un moment donné des personnes sont mises en équivalence dans une même catégorie en les rapportant au contexte de son émergence et en comparant avec d’autres logiques possibles de classification ou de taxinomie. Ainsi Salais et al. (1986) montrent qu’à la fin du xixe siècle, l’émergence de la catégorie de chômeur correspond à la rencontre entre le modèle statistique de l’établissement et le modèle juridique du contrat de travail, modèles qui diffèrent sensiblement du modèle des individus dans la mesure où le chômage des femmes travaillant à domicile peut apparaître sans qu’il y ait un lien avec l’établissement.

Ces deux optiques s’opposent également du point de vue du rapport entre le sujet et l’objet. Dans l’optique métrologique, l’objet à mesurer existe antérieurement et indépendamment de l’appareil d’observation du sujet. Les outils statistiques sont vus comme des moyens de connaissance, des outils neutres et objectifs, qu’on peut certes « manipuler » ou « faire mentir », mais qui n’agissent pas sur les objets de la connaissance et de l’action. À l’opposé, dans l’optique conventionnaliste, l’objet à quantifier dépend étroitement de l’opération de quantification et a des effets performatifs sur la réalité. Dans la perspective de Lascoumes et Le Gales (2004), le choix des classes n’est pas un simple choix technique : les classes constituent des instruments de l’action publique et induisent des effets propres indépendants de la volonté de ceux qui les ont conçus. Espeland et Sauder (2007) examinent comment les palmarès américains des écoles de droit non seulement donnent des informations sur la qualité des écoles mais changent les pratiques d’administration de ces écoles. De même Bowker et Star (1999) conceptualisent les systèmes de classification (tels que le système international de classification des maladies) comme des infrastructures technologiques et informationnelles qui, loin d’être des toiles de fond passives, façonnent les représentations. Selon Ian Hacking (2006a), les classifications des gens dans les sciences sociales peuvent aller jusqu’à modifier la manière dont ils s’éprouvent eux-mêmes : les personnes sont ainsi des « cibles mouvantes » car elles sont façonnées par les classifications.

Enfin, l’analyse des quantifications conduit bien sûr à adopter des stratégies méthodologiques qui s’opposent à celles de la mesure. La stratégie méthodologique de la mesure consiste à appliquer la statistique mathématique à des phénomènes sociaux décrits à partir de produits harmonisés. Au contraire, la stratégie de la quantification consiste à interroger cette harmonisation par une mise en perspective historique de son invention et de ses transformations dans une perspective dynamique (Hacking, 2001), par des méthodes ethnographiques, telles que l’analyse des interactions entre enquêteurs et enquêtés (Hugrée et Kern, 2008), ou même parfois par des expérimentations contrôlées (Boltanski et Thévenot, 1983). Dans le cas des comparaisons internationales de statistiques, le défi de l’harmonisation des mesures est particulièrement difficile à relever, qu’elle passe par une standardisation des résultats ou par une standardisation des procédés (Desrosières, 2003). La stratégie méthodologique de la quantification consiste alors à montrer que la standardisation de résultats se confronte au problème d’absence d’équivalence des statistiques nationales (Moulin, 2010) ou que la standardisation des procédés dans le cas des enquêtes internationales se confronte aux problèmes d’adaptation de ces outils d’un espace national à l’autre (Guérin-Pace et Blum, 1999).

2. Le numéro

À l’instar d’autres numéros spéciaux parus récemment[1], ce numéro inscrit sa thématique à l’intersection du champ de la sociohistoire des quantifications et de celui de l’analyse des politiques publiques. L’objectif plus spécifique de ce numéro est d’explorer les articulations entre les rhétoriques quantitatives et les référentiels de l’action publique contemporaine. Toutes les contributions ont en commun de présenter les caractéristiques techniques de dispositifs, d’instruments ou de méthodes statistiques d’évaluation, et de discuter en même temps de l’effet de ces caractéristiques sur les modalités concrètes de l’action publique et individuelle. Deux parties distinctes se détachent, l’une portant sur les rhétoriques quantitatives proprement dites et l’autre proposant des analyses sociohistoriques de quantifications.

Rhétoriques quantitatives

Un premier ensemble d’articles approfondit l’usage rhétorique que l’on fait des instruments de quantification. L’originalité de ces articles consiste à mettre au jour des éléments de rhétorique dans des instruments quantifiés. Si « personne n’ignore qu’il y a deux entrées par où les opinions sont reçues dans l’âme, qui sont ses deux principales puissances, l’entendement et la volonté » (Pascal, 1657), les statistiques sont vues dans cette première partie du numéro, non comme des outils mobilisés par l’entendement au service de l’argumentation, mais comme des instruments de la volonté politique au service de la persuasion. Les auteurs ont donc en commun de regarder le rôle des statistiques comme moyen de persuasion, cherchant à produire des effets pathétiques ou éthiques sur le public pour mieux justifier une politique publique déjà mise en oeuvre ou mieux faire apparaître l’urgence d’agir.

Le texte de Jean-Guy Prévost présente une contribution à la fois à la théorie de la quantification et au débat linguistique au Québec. Il conceptualise la notion d’effet de perspective, en la distinguant du concept de biais : alors que le biais constitue, dans l’optique de la mesure, une source d’erreur à corriger, l’effet de perspective, dans l’optique de la quantification, procède d’un choix méthodologique raisonné et instrumentalisé. En mobilisant ce concept, il cherche à déplacer le regard sur le débat linguistique au Québec, dans lequel les « démolinguistes » jouent un rôle de premier plan, en faisant apparaître les effets de rhétorique derrière des opérations élémentaires telles que la construction de catégories (allophones, minorités visibles), la transformation de données linguistiques brutes en pourcentages (proportion de francophones) ou l’invention de seuils critiques (80 % de francophones).

L’article d’Hélène Buisson-Fenet et Éric Verdier tente de saisir comment des changements d’échelle influencent le travail de production des statistiques et reconfigurent les politiques — en l’occurrence de formation professionnelle en France. Les auteurs montrent qu’en dépit d’une production sur le plan régional d’instruments multiples (par les observatoires régionaux emploi-formation), la carte de la formation professionnelle est justifiée par une rhétorique quantitative ordinaire dans laquelle dominent des préoccupations d’ordre démographique, centrées sur des orientations générales nationales. Ils mettent ainsi au jour les tensions portées par les usages du travail statistique à différentes échelles et interrogent la portée de la régionalisation.

L’article de Xavier Briffault et Olivier Martin analyse les effets des usages de l’échelle de Hamilton, une mesure psychométrique utilisée pour rendre le diagnostic de la dépression plus objectif ainsi que pour évaluer l’efficacité thérapeutique des antidépresseurs. Les auteurs montrent que l’efficacité clinique présumée des antidépresseurs n’est testée que sur des échantillons de personnes dont les scores Hamilton sont très supérieurs à la moyenne des patients traités. En proposant une représentation unidimensionnelle de la dépression, cette rhétorique d’échelle conduit donc les acteurs du marché des antidépresseurs à élargir indûment l’offre de médicaments.

Corinne Eyraud analyse la transformation récente des instruments de la comptabilité publique. Elle revient sur les choix techniques qui ont guidé l’élaboration de la loi organique relative aux lois de finances en France, en analysant notamment le problème de l’évaluation des immobilisations corporelles ou des engagements. Elle montre que ces choix techniques touchent à la question des spécificités de l’action de l’État, du patrimoine public et du service public ; loin d’être neutres, ils constituent des rhétoriques quantitatives qui influencent la façon dont les acteurs des médias et de la finance se représentent l’État et qui contribuent à remodeler la manière de penser les réformes de la finance publique.

L’analyse des rhétoriques quantitatives est également au coeur de l’analyse de Dimitri Della Faille qui prend pour objet les manuels techniques destinés à la collecte de données des organisations internationales multilatérales. Grâce à une analyse du contenu lexicographique de dix manuels d’assistance technique, l’auteur montre la présence d’éléments de polémiques dans ces manuels que l’on aurait plutôt supposés apolitiques. Il émet ainsi l’idée d’une politisation du discours technique qui serait complémentaire d’une dépolitisation du développement international transférant les grands débats politiques dans le domaine de l’expertise technique et bureaucratique.

Le texte de Mélanie Deslauriers, Claire Durand et Gérard Duhaime critique l’effet de perspective créé par la mise en parallèle des statistiques sur les collectivités autochtones avec celle de l’ensemble des collectivités québécoises. Expliquer les conditions socioéconomiques des Autochtones par leur « autochtonité » « toutes choses égales par ailleurs » conduit à arracher les Autochtones de leurs contextes et à produire une comparaison absurde, analogue à celle du paradoxe de Simiand[2]. En utilisant les données censitaires de 2001 et en comparant des communautés voisines, leur recherche permet de montrer avec des régressions logistiques où les choses sont davantage « égales par ailleurs » les facteurs qui comptent derrière l’autochtonité, en particulier l’isolement géographique et l’accès à l’éducation.

Sociohistoires de quantification

La deuxième partie du numéro regroupe des contributions qui en plus d’adopter une lecture des instruments de quantification en termes de rhétorique quantitative racontent d’un point de vue sociologique des histoires singulières de quantification. Elles ont en commun de faire apparaître les quantifications comme l’objet d’enjeux sociaux, de négociations ou de luttes entre acteurs, et comme le résultat du jeu du rapport des forces en présence. L’analyse des instruments de quantifications est faite à partir de l’histoire des acteurs qui les produisent. Qu’il s’agisse d’une démarche historique d’analyse d’archives, ou de documents d’action publique, ou bien d’une stratégie davantage ethnographique fondée sur l’observation ou l’entretien, les auteurs montrent le rôle central de médiation que les instruments quantifiés jouent dans les relations entre acteurs ainsi que les fenêtres d’opportunités que ces instruments constituent pour des acteurs dont les positions sont inégales et qui cherchent à renverser un rapport de force.

Claudia Daniel analyse le rôle des instruments de quantification mobilisés dans les années 1930 en Argentine par la Division des statistiques du Département national du travail (DNT). L’auteure démontre que la DNT a réussi à proposer des instruments de quantification qui ont servi de médiateurs entre les acteurs des débats syndicaux (dans la lutte entre capital et travail) et entre acteurs parlementaires (dans la lutte entre opposants et défenseurs des régulations des relations de travail). L’expertise statistique a contribué à l’élaboration d’une législation du travail et a fourni aux acteurs politiques des sources sur lesquelles fonder leurs argumentations en faveur de la perspective assurantielle.

L’article de Pierre Doray, Quentin Delavictoire, Stéphane Moulin, Jean-Guy Prévost et Jean-Pierre Beaud analyse l’émergence du décrochage scolaire dans l’action publique éducative au Québec. L’article part de l’analyse d’un effet de perspective : alors que la proportion d’une cohorte d’âge donnée ne fréquentant pas l’école et n’ayant pas de diplôme d’études secondaires a diminué de manière continue, des acteurs divers ont souligné l’urgence d’une action publique pour lutter contre le problème du décrochage en ayant recours à un autre indicateur, soit le taux de non-diplomation avant 20 ans. Les auteurs montrent que cette nouvelle présentation des problèmes scolaires s’explique par la réorientation des politiques éducatives au tournant des années 1990, la réussite scolaire devenant l’objectif central d’une rhétorique économique qui ouvre sur la responsabilisation des acteurs locaux.

Étienne Penissat analyse les transformations des méthodes statistiques d’évaluation des politiques d’emploi en France dans les années 2000. L’article décrit le processus qui a conduit au passage des enquêtes par panel sur les chômeurs, mises en place à la fin des années 1980, aux expérimentations, dans la seconde moitié des années 2000. Loin de se résumer à un changement technique ou à un processus de rationalisation scientifique, ce passage traduit un changement de rapport de force dans le champ scientifique et administratif au bénéfice d’un groupe d’économistes économètres stratégiquement opposés aux sociologues quantitativistes. En convertissant les sommets de l’État à de nouvelles technologies gouvernementales, ces économistes redéfinissent en même temps la conception des politiques d’emploi.

Christine Fassert présente une contribution originale au champ de l’analyse socio-historique des quantifications dans la mesure où elle ouvre la porte à une histoire des échecs, des renoncements ou des résistances à la quantification. À travers une enquête ethnographique sur les tentatives d’élaboration d’un indicateur de sécurité des services de contrôle de la navigation aérienne, l’article décrit le passage d’un indicateur implicite « indiscutable », fondé sur le nombre d’incidents, à une quantification discutable, la liste de tous les paramètres qui font varier le nombre d’incidents s’allongeant au fil des réunions. L’explication de cet échec renvoie tant à des raisons intrinsèques à la quantification de la sécurité qu’à des dimensions organisationnelles et symboliques.

La contribution d’Annick Kieffer et Rémi Tréhin-Lalanne aborde l’implication des organisations internationales dans la production des statistiques éducatives, et en particulier dans la construction puis la révision de la Classification internationale type de l’éducation (CITE). Adoptée en 1978 par l’Unesco, la CITE est révisée entre 2007 et 2011. Les auteurs montrent non seulement que les organisations internationales promeuvent par la comparabilité une logique de concurrence entre États, mais aussi à travers les catégories et concepts de leurs classifications des conceptions particulières de l’éducation : avec la CITE révisée, l’éducation est conçue comme un investissement dans la formation des compétences individuelles.

Enfin la dernière contribution, celle de Jean Nisseri et Nicole Isseri, permet de donner la parole à un intervenant social. Seules certaines institutions, principalement les agences statistiques et les institutions de recherche, procurent à leurs membres la légitimité nécessaire au producteur de statistiques. Cet article permet donc de revenir sur les conditions de possibilité d’une entreprise de production de données statistiques en dehors de ces cadres institutionnels. L’article montre que cette entreprise est rendue possible par une configuration sociocognitive particulière qui articule un mode « communautaire » de gouvernance de l’action publique déjà ancien, le développement rapide des systèmes d’informations sociales et géographiques, et l’engagement d’un entrepreneur de cause.

Parties annexes