Corps de l’article

De la notion d’abus théoriques

Les travaux en sciences sociales outrepassent parfois ce qu’ils sont en droit d’avancer. Deux formes idéal-typiques d’abus théoriques peuvent être distinguées suivant que ces derniers franchissent ou non les frontières du champ scientifique : les abus de la première catégorie demeurent internes à l’activité scientifique alors que les seconds diffusent des représentations vers le champ social, amenant à un durcissement ontologique. Ces deux figures ne doivent toutefois pas être considérées comme totalement indépendantes : des abus théoriques internes peuvent déboucher sur des réductions idéologiques externes[1]. Inversement, des représentations sociales externes peuvent inciter à des abus internes[2].

La présente contribution s’intéresse principalement aux formes internes d’abus théoriques dont la connaissance pourrait permettre, entre autres, d’anticiper une partie des dérives externes. Comment qualifier ces abus internes ? Lahire (2005) développe la notion de « sur-interprétation incontrôlée », définie comme « une excroissance interprétative relativement au volume, à l’étendue et à la nature des matériaux empiriques disponibles ». De façon plus imagée, Olivier de Sardan (1996) évoque l’idée d’une « maltraitance faite aux données » : « Le théoricien sollicite à l’excès les éléments empiriques ou produit des assertions qui n’en tiennent pas compte, voire les contredisent. » L’abus théorique interne correspondrait donc à un déséquilibre entre d’une part les supports empiriques et d’autre part le contenu des assertions produites, déséquilibre reposant sur des inférences mal assurées. Un tel niveau de description ne peut cependant suffire à contrôler les effets pervers générés.

Le premier objectif de la présente étude sera donc de formaliser avec précision les divers mécanismes épistémiques susceptibles de déboucher sur de tels relâchements argumentatifs. Il ne s’agit en aucun cas d’énumérer, selon le format du catalogue, des abus effectifs mais bien d’en dégager, sur un mode plus fondamental, différentes catégories formelles. Pour ce faire, plusieurs études de cas classiques et représentatifs seront proposées. Seront également mobilisées des réflexions d’épistémologues reconnus ayant dévoilé certaines pratiques théoriques abusives[3]. La présente contribution ne souhaite pas faire redondance avec ces travaux mais s’efforce de les organiser au sein d’une taxonomie opérationnelle. En effet, celle-ci se veut un outil synthétique de travail susceptible de structurer l’identification par chaque chercheur, dans son domaine propre de spécialité, d’abus théoriques concrets. Outre des réflexions basées sur les sciences sociales, seront également convoquées des études philosophiques issues des sciences physiques ou biologiques. Ce faisant, il n’est en aucun cas question de nier la spécificité épistémique et ontologique de ces premières[4] en les réduisant aux sciences de la nature qui seraient dès lors considérées comme un idéal épistémologique. Néanmoins, tout en reconnaissant la singularité des sciences sociales, certaines réflexions épistémologiques basées sur d’autres disciplines peuvent s’avérer pertinentes pour questionner leur rapport aux abus théoriques. Au final, plusieurs mécanismes fondamentaux produisant des abus théoriques seront développés : le déficit de réflexion vis-à-vis de la contingence des objets originels d’étude, les usages inconsidérés de l’analogie, la tendance à la réification des axiomes…

Ces divers mécanismes sont désormais connus. Pourtant, des abus théoriques continuent à être produits, ce qui nous oblige à en questionner les motifs profonds. Seront envisagés des causalités à la fois sociales et psychiques ainsi que des facteurs métaphysiques et idéologiques.

Il s’agira, enfin, d’intégrer scientifiquement la connaissance philosophique de ces mécanismes et mobiles d’une part en formalisant des règles normatives et d’autre part en montrant que celles-ci s’incarnent de facto dans des programmes de recherche véritables attentifs aux limites des connaissances produites.

S’intéresser aux abus théoriques des sciences sociales dans un contexte d’affaiblissement des théories générales (Berthelot, 1990) peut à première vue surprendre. Pourtant, la pertinence contemporaine de la problématique n’en est pas moindre. Tout d’abord, le rapport des sciences sociales aux prétentions théoriques générales demeure complexe et ambivalent. Le sujet questionne, pose problème, suscite la discussion comme en atteste la parution récente des numéros thématiques de Larevue européenne des sciences sociales en 2008 (« La sociologie en quête d’une théorie générale ») et du MAUSS en 2004 (« Une théorie sociologique générale est-elle pensable ? »). Ce dernier opus offre d’ailleurs un panorama significatif de la diversité des positions vis-à-vis des théories générales. Certains continuent d’y être favorables, à l’instar de Boudon (2008). Les sciences sociales semblent être entrées dans une période d’incertitude et de problématisation vis-à-vis des modèles universaux : conscients de certaines dérives, les sociologues peinent toutefois à abandonner toute ambition générale de compréhension. La prolifération et l’accumulation des enquêtes monographiques peuvent-elles épuiser l’activité des sciences sociales ? Toute activité scientifique ne doit-elle pas construire un équilibre entre volonté d’unification et maintien d’une précision spécialisée (Bitbol, 2005) ? Ensuite, la problématique des abus théoriques n’est pas réductible à la question des théories générales. Tout en en représentant l’aspect le plus visible et spectaculaire, les théories qui s’affichent comme universelles n’ont pas le monopole des abus théoriques : certaines études initialement localisées et ponctuelles outrepassent parfois dans leurs conclusions ce qu’elles sont en droit d’énoncer en s’épargnant le travail comparatif nécessaire à toute montée en généralité. Au final, le problème des abus théoriques apparaît comme inhérent à toute activité scientifique qui cherche à accroître la portée de ses résultats. Il revêt une signification spécifique dans un contexte d’incertitude vis-à-vis des théories générale et de multiplication des monographies.

Mécanismes des abus théoriques internes

Élucider les mécanismes générateurs d’abus théoriques internes revient tout d’abord à comprendre les procédures amenant à des généralisations incontrôlées. La généralisation, en tant qu’inférence inductive, est à la fois intrinsèquement limitée d’un point de vue logique et nécessaire à la pratique scientifique (Soler, 2009). Il s’agit moins ici de contribuer aux débats classiques sur l’induction (Russell, 1968 ; Canguilhem, 1965) que de repérer in situ certaines modalités fallacieuses de sa pratique conduisant à des conclusions incertaines.

Une première source de non-contrôle au sein du procès de généralisation réside dans le manque d’attention accordée par le chercheur à la spécificité, voire à la contingence (Soler, 2006), des objets empiriques originels supports de l’inférence inductive. Prigogine et Stengers (1992) illustrent cet écueil en sciences physiques : la physique classique a érigé en schéma général d’intelligibilité, applicable à tous les systèmes mécaniques, des résultats obtenus à partir de l’investigation originelle du mouvement des planètes. Cet objet était pourtant contingent et singulier, c’est-à-dire doté de propriétés spécifiques non transposables de façon nécessaire aux autres phénomènes. Il en va ainsi de la particularité de générer des mouvements périodiques parfaits du fait de frottements négligeables. Le principe de déterminisme a été d’autant plus facilement étendu qu’il alimentait un idéal explicatif alors partagé : valeurs de symétrie, de simplicité, de contrôlabilité et d’universalité. En réaction contre cette négligence, les auteurs invitent la physique contemporaine à dépasser la contingence qui a présidé à son élaboration ; il s’agit désormais de situer après-coup le caractère singulier de la dynamique céleste et de ce fait de circonscrire l’espace de validité du schéma déterministe classique. Une telle limitation est elle-même source de connaissance, comme l’illustre Bachelard (1938) à propos d’un concept biologique : « Si tout fermente, la fermentation est […] un concept sans intérêt. Il est nécessaire de définir ce qui ne fermente pas et peut interrompre la fermentation. Cette limitation renforce la connaissance des conditions de fermentation. » Et de conclure : « Ce qui limite une connaissance est plus décisif pour le progrès de la pensée que ce qui l’étend vaguement. »

Aisée à énoncer, l’ascèse consistant à questionner la spécificité d’un objet avant d’en généraliser l’exemplarité l’est-elle autant dans les faits ? Dit autrement, le savant qui étudie en premier un objet puis l’érige en paradigme peut-il en cerner le caractère contingent ? Ou, à l’inverse, une telle spécificité est-elle condamnée à n’être révélée qu’après coup ? La caractérisation complète de la singularité d’un objet est illusoire au moment de l’investigation princeps dans la mesure où celle-ci nécessite la confrontation ultérieure à des cas variés du possible (Bachelard, 1940). Nécessairement à compléter, l’effort de caractérisation peut en revanche être initié très tôt, dès la première investigation, au moyen d’une analyse logique basique. À condition que le savant concerné n’ait intérêt à voiler et/ou se voiler la spécificité de son objet…

Un retour réflexif sur quelques travaux en sciences sociales illustrera ces remarques. Selon Lahire (2005), Bourdieu[5] (1994) aurait élaboré sa théorie de l’unité de la pratique à partir d’une généralisation incontrôlée de l’étude première des structures de la paysannerie kabyle (Bourdieu et Sayad, 1964) érigée indûment en paradigme. Bourdieu y démontre de façon convaincante l’homogénéité d’habitus des paysans kabyles mais sans interroger la spécificité de la configuration étudiée. La transposition de ce résultat pour les sociétés occidentales ne pourra, dès lors, qu’être hasardeuse. Lahire corrige a posteriori cette négligence en formalisant la particularité du contexte kabyle : forte homogénéité des sphères de socialisation et faible différenciation sociale. Ces deux propriétés ne sont qu’exceptionnellement réunies dans nos sociétés industrialisées, complexes et à forte division. Au final, plutôt que de condamner en bloc la théorie de l’unité de la pratique, Lahire en définit après coup le « champ propre de pertinence » (Wittgenstein, 1996), c’est-à-dire la validité limitée aux configurations à faible différenciation. Bourdieu disposait-il initialement des moyens permettant la saisie du caractère contingent de ce qu’il prit pour général ? Pour Lahire, une analyse simple du concept d’habitus dans sa compréhension aurait pu permettre d’en dégager l’extension et donc d’inciter à la prudence : l’unité de la pratique suppose une homogénéité de l’habitus ; or, celle-ci requiert une uniformité des sphères de socialisation, condition que seule peut fournir une société à faible différenciation sociale. Précisons toutefois qu’une telle analyse, simple d’apparence, est apparue évidente à un auteur, Lahire, qui a été confronté dans ses recherches à de multiples contextes empiriques contredisant la thèse d’une unité de la pratique. Quoi qu’il en soit, Bourdieu s’est rendu coupable d’une forme de négligence, laquelle s’expliquerait par la conjonction d’une attirance pour le schème d’unité (cf. ci-après la réception par Bourdieu de Panofsky) et d’une aspiration à produire une théorie de portée universelle[6].

L’écueil d’ériger sans précaution une situation singulière en paradigme peut survenir, paradoxalement, dans deux configurations contrastées : a) lorsque les matériaux empiriques sont rares ; b) lorsqu’ils sont surabondants.

Concernant la configuration a), Lahire (1996a) développe l’idée d’une « sur-interprétation de type 1 » : les matériaux sur lesquels s’appuie l’auteur sont insuffisants (en richesse et en variété) pour soutenir les thèses proposées. Ceux-ci ne permettant pas d’étayer les assertions produites, ils se bornent à les illustrer, à leur conférer un « effet de réel ». Un tel « décrochage interprétatif » se retrouve, selon Lahire, dans le mode d’élaboration de la théorie de l’écriture par Lévi-Strauss à partir d’un incident ethnographique ponctuel : l’interprète profite de la scène comme d’une parabole ou d’un prétexte pour énoncer une théorie en rien fondée sur un travail d’enquête ; il sur-sollicite les données disponibles en faisant jouer aux acteurs une scène qu’ils n’ont pas vécue. Selon Olivier de Sardan (1996), l’insuffisance de matériaux débouche sur deux formes de généralisations abusives : d’une part, l’extension non argumentée de résultats obtenus à partir d’une zone géographique singulière vers d’autres aires non investiguées (généralisation comparative) ; d’autre part, l’érection sans précaution d’un informateur unique comme élément représentatif d’un groupe (généralisation interne). Dans ce dernier type d’abus, une attention insuffisante est accordée aux conditions dans lesquelles les acteurs sont amenés à agir, penser, percevoir. Le savant tend alors à projeter son propre rapport à l’objet dans les conduites et motivations de ceux qu’il étudie, écueil qualifié d’« inadéquation significative » par Olivier de Sardan (1996) et de « sur-interprétation de type 2 » par Lahire (1996a).

À l’inverse, dans la configuration b), la démonstration procède par accumulation de preuves qui apparaissent à la longue trop parfaites. Tout ce qui aurait pu constituer des contre-exemples ou apporter des nuances dans l’architecture théorique est occulté. Selon Lahire (1996a), un exemple de cette « sur-interprétation de type 3 » se retrouve dans l’usage que fait Bourdieu (1994) des métaphores sportives (boxe, rugby, tennis…) dans le cadre de sa théorie du sens pratique. Suivant celle-ci, l’action se déploie sur un mode pré-réflexif, sous l’effet de dispositions incorporées et sans la médiation de représentations mentales. Vigilant, Lahire remarque que seules des situations sportives à forte pression temporelle sont évoquées par Bourdieu. Certes, celles-ci exemplifient parfaitement la thèse d’un rapport non planifié à la pratique, mais elles n’épuisent pas la gamme diversifiée des situations. Bourdieu n’a pas pu et/ou voulu intégrer l’idée que « toutes les actions ne correspondent pas au modèle de l’urgence ». La théorie qui se voulait initialement universellement valide est ainsi repositionnée après coup comme n’étant pertinente que dans une catégorie circonscrite de situations[7].

L’instigateur d’une théorie n’est pas le seul responsable de l’accumulation d’exemples sur mesure ; ses continuateurs le sont aussi. Il en va ainsi de Wacquant (2000) qui met son ethnographie de l’univers pugilistique au service du modèle bourdieusien (Quidu, 2009b). Après avoir martelé l’omniprésence en boxe de « la logique pré-logique de la pratique », cet auteur en soutient le caractère exemplaire : « Si le propre de la pratique est, comme le propose Bourdieu, d’obéir à une “logique qui s’effectue directement dans la gymnastique corporelle sans passer par la conscience discursive […]”, alors il est peu d’activités qui soient plus pratiques que la boxe ». Quand Wacquant écrit ensuite « la logique pugilistique renseigne sur la logique de toute pratique », que fait-il si ce n’est universaliser sans précaution un cas du possible ? En ne prenant guère le soin de questionner la spécificité de la configuration étudiée, il précipite une sur-interprétation de type 3, faisant de son étude un exemple (trop) parfait pour la théorie du sens pratique. Finalement, l’auteur va jusqu’à ériger explicitement la boxe en situation paradigmatique pour les théories de l’action : « La sociologie inspirée de la théorie des jeux gagnerait en prenant comme paradigme un jeu très corporel comme la boxe plutôt qu’une joute éminemment intellectuelle comme les échecs. » Quel peut être l’intérêt de substituer un paradigme à un autre si c’est pour en conserver l’usage d’exemplification incontrôlée ?

Le cheminement qui conduit à la « fabrication » d’exemples trop parfaits suppose donc une négligence à l’égard des contre-exemples couplée à une cécité vis-à-vis de la spécificité des situations observées. Il implique aussi un recours biaisé aux références bibliographiques. Celui-ci peut consister tout d’abord dans une sélection arbitraire de ces dernières, comme le démontre Andrieu (2001) à propos du programme réductionniste de la neurophilosophie[8]. Il peut résider ensuite dans une interprétation déformée des travaux d’autrui, déformation qui permet de confirmer sa propre thèse. Soit la réception par Bourdieu de l’étude de Panofsky (1967) : ce dernier révèle une homologie structurale entre la pensée scolastique et l’architecture gothique et soutient qu’elle s’explique par une homogénéité des dispositions entre penseurs et architectes, au xxie siècle aux alentours de Paris. Là où Panofsky prend le soin de souligner le caractère exceptionnel du contexte contemporain (monopole éducatif des scolastiques), Bourdieu passe sous silence cette singularité et s’empare de l’étude pour « blinder » sa théorie de l’unité de la pratique construite indépendamment[9].

La lecture que réalise Gaillard (2004) des réflexions de Ricoeur (1990) sur l’identité participe du même écueil. Ce premier écrit : « L’identité est classiquement considérée comme ce qui est stable. Or, Ricoeur montre qu’il ne peut y avoir d’identité qui ne change pas. » Et l’auteur d’argumenter : « Ricoeur distingue deux concepts féconds : la mêmeté traduit la reproduction du soi qui se duplique […] quand l’ipséité pose le changement comme nécessaire, […] caractéristique la plus fondamentale de l’identité. » Force est de pointer l’imprécision d’une telle lecture : tout d’abord, là où Gaillard érige l’ipséité en dimension « fondamentale » de l’identité, Ricoeur récuse toute hiérarchie entre les deux concepts qui doivent être pensés dialectiquement. En outre, les définitions données par Gaillard de ces deux processus ne coïncident pas avec celles du philosophe (Truc, 2005) : pour ce dernier, « mêmeté et ipséité constituent deux modes de permanence dans le temps : la mêmeté renvoie à la permanence du caractère quand l’ipséité correspond à la promesse tenue ». Ipséité et mêmeté décrivent donc respectivement la constance à soi et le maintien de soi et non, comme le prétend Gaillard, l’instabilité et la permanence. Gaillard reconnaît alors que « n’étant pas philosophe », il n’a « pas fait de Ricoeur une lecture approfondie » mais estime toutefois en avoir « tiré l’essentiel ». L’« essentiel » s’obtient au prix d’une déformation conduisant à un usage sur mesure d’une réflexion philosophique au service de l’auto-confirmation d’une thèse scientifique.

Le recours aux exemples sur mesure, qu’il s’agisse de matériaux empiriques ou de références bibliographiques, invite à questionner, plus généralement, le rôle de certains usages de l’analogie dans la production d’abus théoriques. Déjà Bachelard (1938) considérait-il « l’extension abusive d’images familières » comme un obstacle épistémologique majeur : « Des images particulières deviennent des schémas explicatifs généraux, [empêchant] l’action dynamisante du doute au niveau des détails de la connaissance. » En s’appuyant sur Wittgenstein qui préconise « l’étude des sciences par la grammaire de leur langage », Andrieu (1996) corrobore cette menace en neurosciences : l’expression « le cerveau est le siège de la pensée » donne à croire que le cerveau contient et matérialise l’état mental réduit à une réalité physiologique. Le risque de l’analogie corporelle est alors d’entériner l’hypothèse de la localisation sous le poids de la réalisation de la métaphore. Les philosophes des sciences sociales ont également stigmatisé certaines utilisations approximatives de l’analogie, à l’instar de Passeron (2006) : « La répétition mécanique d’une analogie conduit à l’oubli de la métaphore et à l’abolition de la distance entre les mots et le réel. »

Corrélative de cette tendance à confondre description imagée et réalité matérielle, une seconde menace inhérente à l’analogie est d’outrepasser son domaine propre de pertinence. Bouveresse (1999) dénonce à cet égard l’usage « littéraire » du théorème de Gödel par Debray[10] pour étayer sa théorie des systèmes sociaux : ce premier démontre que les systèmes formels comportent des énoncés qui ne peuvent être décidés avec les moyens du système ; les systèmes sociaux comporteraient également des énoncés indécidables dans le système. Il doit par conséquent s’agir d’un seul et même phénomène. Le problème est que la transition entre les deux ordres de phénomènes se réalise à la vitesse de l’éclair en négligeant les champs d’application du concept de référence. Debray occulte ainsi que le théorème de Gödel ne s’applique qu’aux systèmes entièrement formalisés, condition que ne satisfont pas les systèmes sociaux. En agissant ainsi, Debray rappelle ce que « Musil disait des zoologistes qui classent parmi les quadrupèdes les chiens, les tables et les équations du quatrième degré » : « Le principe est de monter en épingle les ressemblances superficielles […] et d’ignorer systématiquement les différences profondes [rejetées] comme des détails négligeables. » Acculé, Debray avancera que le recours à Gödel n’était pas démonstratif mais simplement illustratif. En oscillant sans cesse entre usages argumentatif et suggestif de l’analogie, il pense pouvoir se soustraire à la critique.

Face à ces diverses dérives, Passeron préconise de maintenir le raisonnement analogique dans son statut de méthode comparative, laquelle exige un contrôle des conditions d’extension de la métaphore et une attention aux « cas négatifs » : plutôt que de la généraliser au mépris des cas particuliers, il est préférable de « filer la métaphore jusqu’à ce qu’elle craque et ne serve plus ; c’est la découverte de l’inadéquation entre la métaphore et les séries empiriques qui produira une intelligibilité différentielle à la fois sur le comparant et sur le comparé ». Bouveresse corrobore : l’analogie doit demeurer un programme d’exploration empirique nécessitant de réfléchir aux « aspects sous lesquels les deux catégories concernées peuvent être assimilées et ceux sous lesquels elles ne le peuvent pas ». Bachelard (1938) déjà avait formulé une ascèse de ce type : « Une pensée anxieuse doit se méfier des identités plus ou moins apparentes » car « plus court est le procédé d’identification, plus pauvre est la pensée expérimentale qui a perdu son dynamisme réformateur ». Il faut à l’inverse réclamer « toujours plus de précisions et d’occasions de distinguer ».

Un dernier facteur de généralisation abusive réside dans la tendance à étendre sans précaution des résultats obtenus à un certain niveau d’analyse à d’autres, voire à tous les niveaux ; pire encore, à occulter la question même des niveaux d’analyse. Précisons avec Grossetti (2006) qu’un niveau d’analyse peut concerner les échelles de masse (nombre d’unités d’action impliquées dans le phénomène étudié), de durée (empan temporel) ou de généralité (nombre de contextes concernés). Ainsi, un appareil théorique construit pour une échelle donnée ne peut être transposé ipso facto à une autre échelle. Par exemple, dans l’étude sociologique des inégalités scolaires, le passage d’une réflexion statistique (corrélations entre milieux sociaux et parcours académiques) à une investigation micro-sociologique des pratiques de socialisation nécessite une véritable « conversion conceptuelle » (Lahire, 1996b) : les notions de capital culturel, de transmission et d’héritage, métaphores utiles lorsqu’on commente des analyses factorielles, perdent leur pertinence lorsque sont étudiés des rapports au savoir. Plus radicalement encore, le changement d’échelle contraint à modifier la structure de l’explication : le langage causal des variables, efficace au niveau macro-social, est abandonné au profit d’une intelligibilité comparative et typologique au niveau micro.

L’inattention à la question des échelles est responsable de nombre de durcissements des oppositions entre théories dès lors que celles-ci se fondent, tout en l’ignorant, sur des échelles divergentes, en se prétendant universellement valides : pour Lepetit (1996), « les mécanismes explicatifs qui se confrontent (proposant par exemple des rapports inversés de causalité entre des phénomènes A et B) doivent être resitués dans les cadres respectifs où ils sont établis […]. C’est bien souvent parce que les interlocuteurs ne se situent pas aux mêmes niveaux qu’ils ne peuvent s’entendre. » Et de conclure : « Chaque interprétation donne de la réalité des explications différentes qui ne sont exclusives et opposables que lorsqu’on croit qu’elles valent à la même échelle. »

Afin de contrer la croyance réaliste en la supériorité ontologique de certaines échelles, il convient d’affirmer une posture constructiviste et symétrique : celle-ci consiste à prêter attention aux opérations plurielles de construction de l’objet tout en soutenant qu’aucune de celles-ci ne permettra jamais d’accéder au réel tel qu’il est. « Chaque échelle en donne une version plausible mais partielle, spécifique et relative » (Lahire, 1996b). Une fois l’observation située par rapport aux échelles de masse, de durée et de généralité, il s’agira d’argumenter systématiquement les extensions potentielles de l’analyse à d’autres niveaux. Enfin, la variation expérimentale des échelles d’analyse d’un phénomène s’avère féconde : elle permet tout d’abord de délimiter pragmatiquement la pertinence différentielle des modèles concurrents selon les niveaux considérés ; elle offre ensuite la possibilité de regards pluriels sur une même situation. Or, c’est du croisement des échelles, et de leurs réductions associées, que découlera la vision la plus complète d’un phénomène (Revel, 1996).

Les divers mécanismes entrevus ont en commun de supporter des généralisations hasardeuses à la suite d’un questionnement insuffisant des conditions de production et d’utilisation des données empiriques. D’autres mécanismes générateurs d’abus résident, quant à eux, dans un usage dévoyé des postulats et thêmata[11] structurant tout programme de recherche.

Holton (1981) qualifie de thêmata ces conceptions ontologiques premières à l’origine d’axiomes fondamentaux. Ils se présentent sous la forme de couples d’opposition (unité versus pluralité, stabilité versus instabilité…) et s’avèrent indémontrables, irréfutables ; ils ne répondent à aucune nécessité logique. Ces engagements sont, avec Berthelot (1990), « métaphysiques » dans la mesure où il s’agit d’« affirmations globales sur le réel dont la raison conçoit la possibilité mais dont il est impossible de fournir une preuve tant dans les conséquences que par l’expérience ». Métaphysiques, les thêmata n’en demeurent pas moins des « fictions nécessaires » à l’activité scientifique : en effet, pour Holton, « penser sans poser des catégories d’ordre général est aussi impossible que de respirer dans le vide ». Pour Lakatos (1994), les thêmata constituent les guides indispensables pour le choix des expérimentations à venir.

Métaphysiques et nécessaires, les thêmata sont à l’origine d’abus théoriques lorsqu’ils interviennent de façon inappropriée dans le raisonnement scientifique : outrepassant leur rôle de convention indémontrable, d’opérateur d’intelligibilité, certains savants les considèrent parfois comme des vérités ontologiques. Ce glissement d’un usage instrumental à un usage réaliste est décrit par Kant, repris par Berthelot (1990), comme une « réification » : « La relation logique constitutive du thêma est transférée au réel comme étant l’une de ses propriétés. » Wittgenstein (1996) évoque de son côté l’idée d’une « confusion substantialiste » entre d’une part l’outil d’intelligibilité et d’autre part la nature des choses. Pour Morin (1991), « les thêmata sont des idées maîtresses obsessionnelles qui tendent à se charger de force mythique. Or, le mythe renforce la conviction en la possession du réel par l’idée. » En face de chaque thêma, il est ainsi possible d’inscrire une configuration idéologique. La bascule d’usage des thêmata menacera d’autant plus que l’attachement qu’y voue le savant est profond et intime ; s’y mêlent convictions éthiques et préférences esthétiques (Quidu, 2009a). La conséquence la plus néfaste de la réification est que l’engagement pour un thêma donné finit par se substituer au travail d’administration de la preuve. Or, pour Berthelot, « si est science ce qui admet l’exigence de la preuve, un système qui n’en appelle pour justifier des propositions qu’à un engagement ontologique en se soustrayant à la critique logique et à l’épreuve des faits ne peut être considéré comme telle ». Autrement dit, une théorie ne devrait être jugée comme plus valide qu’une autre sous prétexte qu’elle serait structurée par un thêma privilégié. De tels abus persistent toutefois en pratique et deviennent responsables du durcissement des oppositions théoriques, comme le remarque Canguilhem (1965) dans la controverse biologique autour de la théorie cellulaire : s’y opposent les thêmata du continu (la membrane comme enveloppement) versus discontinu (la membrane comme séparation).

Canguilhem soutient néanmoins que la réification est souvent moins le fait du pionnier que de ses continuateurs : le savant qui développe en premier un schème avait éprouvé une réticence concernant sa valeur d’explication exhaustive et son éventuel complément par d’autres vues non encore formulables. Les successeurs qui n’ont eu, eux, à surmonter l’obstacle du point de départ auront plus de propension au dogmatisme. Autrement dit, un savant peut utiliser sur un mode réaliste un thêma qu’un prédécesseur avait mobilisé de façon appropriée, conventionnelle et opératoire. Une telle dérive guette d’autant plus que « l’homme de science reconnaît facilement ses propres rêves dans les aventures […] de ses semblables » (Canguilhem, 1965). Langevin (1926) propose alors de remonter aux sources des théories afin d’en apprécier le processus de dogmatisation ultérieure. Olivier de Sardan (1996) corrobore ce risque de réification par la postérité, en l’occurrence du fait de la pédagogie : « Tout se passe comme si [les oeuvres classiques] s’étaient peu à peu dématérialisées […] pour ne plus laisser place qu’au seul brio argumentaire […]. De par ce délestage empirique, elles prennent place dans un circuit herméneutique savant […] dans lequel on ne leur demande plus de comptes quant à leur véridicité. » Ces dernières remarques incitent, dans l’optique d’élucidation des abus théoriques, à envisager les théories produites et leurs sur-interprétations éventuelles non pas de façon arrêtée, instantanée mais dans leur développement historique : contingence originelle, réceptions et développements ultérieurs, exportations disciplinaires (Stengers, 1987), enseignement…

Ce premier temps réflexif a permis de déplier diverses procédures responsables d’abus théoriques internes au champ scientifique. De façon schématique, ces mécanismes se déploient dans l’interaction de la « paresse méthodologique » et de la « projection excessive de préconceptions » (Olivier de Sardan, 1996). Face à ces écueils, il est toujours possible de formaliser des règles préventives (ce que nous ferons dans un troisième temps). Bien que maîtrisées en théorie par les savants, ces précautions normatives ne suffisent guère à annuler le phénomène des abus théoriques. Qu’est-ce qui pousse/motive/oblige un homme de science, connaissant pourtant ces exigences, à les transgresser parfois dans les faits ?

Mobiles des abus théoriques internes

Les mobiles à l’origine d’abus théoriques sont répartis en quatre catégories : les motivations sociales et symboliques ; les préférences psychiques ; les aspirations métaphysiques ; les tentations idéologiques. Une telle catégorisation ne prétend en aucun cas à la validité ontologique mais simplement à l’efficacité didactique. Certains avanceront par exemple que les facteurs métaphysiques et idéologiques sont solubles et réductibles dans les causalités sociales et psychiques. Sans contester la plausibilité de cette thèse, nous ne souhaitons pas entrer dans le débat ontologique et soutenons que la répartition en quatre types de facteurs présente une certaine pertinence, au moins didactique, en ce qu’elle révèle des processus distincts a minima.

Élucider les mobiles sociaux sous-tendant certains abus théoriques exige de prêter attention aux profits symboliques associés. Après avoir stigmatisé l’aspect approximatif de la transposition analogique du théorème de Gödel par Debray, Bouveresse (1999) soutient que celle-ci est avant tout mue par une quête de « prestige » et d’« attractivité commerciale » : « Si l’apport du théorème à la thèse de Debray est indifférent pour le contenu, il ne l’est pas comme technique de faire croire et de faire sensation en vue de l’acquisition d’un pouvoir symbolique. » Les critères esthétiques (dimensions spectaculaire et révolutionnaire de la démonstration), qui constituent les normes du marché et du champ médiatique, se substituent alors aux normes critiques qui fondent, elles, le champ scientifique (Bourdieu, 1996). Le prestige médiatique acquis pourra alors être (en partie) réinvesti dans l’espace académique. Lahire (2005) corrobore : « Il est question de prestige dans ces prises de position généralistes ; les théoriciens jouent dans l’ordre théorique les mêmes stratégies que les hommes d’État : la perte de lucidité et de relativité est un gain d’envergure. » Ainsi, ne serait légitime qu’un modèle qui tendrait vers l’universel. Cela se comprend notamment à l’aune des « modes actuels de construction des carrières des chercheurs » : « Le désir de reconnaissance pousse à vouloir se rendre reconnaissable. » Le savant cherche alors à développer une grille théorique cohérente et originale puis veille à s’y tenir le plus durablement possible. La reproductibilité d’une grammaire facilite tant la diffusion que l’affiliation. Mais, « à trop se préoccuper de la gestion d’un patrimoine conceptuel, on n’est jamais loin de la défense dogmatique de concepts qui, par nature scientifique, ne peuvent être qu’amenés à révision » (Lahire, 2005).

Des processus psychiques interviennent également dans la production d’abus théoriques. À cet égard, Bachelard (1938) développe « une psychanalyse de la connaissance objective » : « Quand on cherche les conditions psychologiques du progrès scientifique, on arrive bientôt à cette conviction que c’est en termes d’obstacles qu’il faut poser le problème […] ; il ne s’agit pas de considérer des obstacles externes car c’est dans l’acte même de connaître, intimement, qu’apparaissent par une sorte de nécessité fonctionnelle des lenteurs et des troubles. » Alors, c’est « l’homme tout entier avec sa lourde charge d’ancestralité et d’inconscience » qu’il faut considérer.

En premier lieu, qu’est-ce qui incite un homme de science à généraliser indûment un résultat ? Pour Bachelard (1938), « on retrouve toujours un orgueil à la base d’un savoir qui s’affirme général en sortant du domaine d’expériences où il pourrait subir la contradiction […]. La généralité est le signe d’une pensée qui s’admire. » La généralisation est souvent solidaire d’une tentation d’unification. Ainsi, pour Poincaré (1902), « la généralisation d’une loi repose sur la croyance en l’unité […] de la nature ». Cette croyance est génératrice d’abus lorsqu’elle débouche sur « la réduction non argumentée de l’explication à un facteur unique » (Olivier de Sardan, 1996) ou sur le projet d’une science unifiée totalitaire (Andrieu, 1999). Comment rendre compte d’une telle obsession de l’unité ?

La quête du principe unitaire répondrait tout d’abord à un besoin de stabilité. Selon Holton (1981), par ce moyen, il est question d’« échapper aux entraves des désirs à jamais mouvants du particulier », de « fuir la confusion du monde vécu ». L’homme de science forme alors une vision du monde simplifiée qui s’embrasse d’un coup d’oeil et y reporte le centre de gravité de sa vie affective afin d’y trouver la sérénité inaccessible dans le monde turbulent de l’expérience personnelle. L’interprétation de Morin (1991) converge : « Au coeur de notre attachement aux idées, il y a ce besoin quasi paranoïaque d’attachement à un centre de référence unique, invariable, fiable qui libérerait pour toujours du doute, de l’ambivalence, de la précarité ». Et de poursuivre : « L’être humain cherche à répéter sa satisfaction psychique dans le rappel incessant de l’idée qui, littéralement, le drogue. » Les racines de l’angoisse face à l’instabilité et la multiplicité sont profondes : pour Durand (1968), « les premières expériences douloureuses de l’enfance sont des expériences de changement (sevrage). [Celles-ci] conduisent chez le nourrisson à la formation d’un engramme répulsif. » S’ensuit l’instinct conservatif décrit par Bachelard (1938) : l’esprit finit par « préférer les réponses aux questions ». Or, si la connaissance utile pour la vie est statique, la connaissance utile pour la science s’inscrit dans un dynamisme réformateur. La tâche de la psychanalyse de la connaissance serait alors de rompre la solidarité de l’esprit avec les intérêts vitaux ; car « dans l’oeuvre de la science seulement on peut aimer ce qu’on détruit, continuer le passé en le niant […] ». Dit autrement, « l’amant de la vérité doit se méfier de ce qui le fait jouir psychiquement et chercher la vérité au-delà du principe de plaisir » (Morin, 1986). Cela suppose d’analyser son idiosyncrasie intellectuelle et la signification de ses obsessions cognitives.

La quête d’unité est également une « soif mystique » : elle serait mue par le fantasme de ré-alliance avec le monde, le besoin de communion avec l’universel dont le savant ferait lui-même partie (Besnier, 2005). S’inspirant de Rank, Bachelard (1938) corrobore : « L’être craintif et douloureux manifeste le besoin de se fondre dans le grand Tout. » Précisons que la recherche d’unité n’est pas en soi perverse ; seules certaines de ses déclinaisons doivent être stigmatisées. À cet égard, Bitbol (2005) soutient que la visée d’unification n’est pas une option pour la science mais sa définition même. Mais, à chaque étape, la science doit réaliser « un compromis entre sa pulsion unificatrice et sa vocation à la précision spécialisée ». Il y aurait abus théorique lorsque la recherche de cet équilibre se rompt par focalisation exclusive sur le premier terme, le savant cherchant à sauver à tout prix la solidarité des phénomènes. Besnier (2005) confirme le risque permanent de glissement : la recherche méthodologique d’unité dans la connaissance n’est pas à l’abri de l’affirmation ontologique d’unité dans le monde. La croyance par le savant que toute chose émane d’une entité ultime dont il possède la vérité manifeste un passage à la limite vers la métaphysique.

La fascination pour l’unité apparaît ici solidaire d’une philosophie réaliste naïve qui coïncide avec le sentiment de prise de possession de la vérité, avec la certitude d’avoir atteint le fondement ultime du réel. Pour Morin (1986), un mouvement existentiel pousse la connaissance au-delà de la séparation avec ses objets, vers une fusion extatique avec une prétendue essence du réel. Convaincu que la vérité lui appartient, le savant confère de l’être à ses abstractions, de la puissance, voire de la souveraineté (Whitehead, 1930). D’après Bachelard (1938), pour guérir du réalisme, il conviendrait d’instaurer une « psychanalyse du sentiment de l’avoir » : la certitude du réaliste procède d’une joie d’avare. Le réaliste considère le réel comme un bien personnel dont on peut prendre possession. Morin parle quant à lui d’une « appropriation égocentrique du réel ». Cette dérive correspond, sous certains aspects, à ce que Freud (2004) qualifie de « toute-puissance des idées » dans le cadre des névroses obsessionnelles : le sujet donne une existence organique à des émanations de l’esprit. Le réalisme est d’autant plus dangereux qu’il constitue une philosophie immobile : se croyant à jamais constitué, il ne change jamais de constitution (Bachelard, 1940). En guise d’ascèse épistémologique, Morin suggère : « Seules sont dignes de foi les idées [considérant] que le réel résiste à l’idée. »

Les fantasmes réalistes de généralité et d’unité débouchent sur un autre écueil, l’obsession de la cohérence. En effet, « la rationalisation est l’arme magique de l’idée contre le réel pour l’absorber et s’y substituer » (Morin, 1986). Là où la rationalité est ouverte à ce qui résiste à sa logique et demeure en dialogue avec le réel, la rationalisation intègre de force le réel dans la logique du système. Le filtre ne retenant que l’assimilable, elle en devient intrinsèquement irréfutable. La sur-cohérence est génératrice d’abus théoriques comme l’illustre Olivier de Sardan (1996) en ethnologie : « La mariée est souvent trop belle. L’ordinaire de l’ethnologie de terrain est davantage du côté de l’ambiguïté, de la multiplicité, des contradictions […]. Certes, il appartient à l’ethnologue de mettre en ordre cet enchevêtrement. Mais, cette exigence de cohérence ne signifie pas pour autant carte blanche accordée à la cohérentisation. » Afin de préserver intacte leur architecture théorique, certains auteurs n’hésitent pas à invoquer un « sens caché », se soustrayant de ce fait à toute possibilité de réfutation : « Ce type de sur-interprétation est autiste, autoréférentiel. Multipliez les contre-exemples, vous ne pouvez déstabiliser l’argumentation. Le crime est presque parfait ; il ne l’est pas tout à fait en ce que justement l’absence de toute référence empirique mobilisable signale le coupable. » Schopenhauer (2000) décrit en détail cet Art d’avoir toujours raison ; en son fond, se retrouve une nouvelle fois l’orgueil : « La vanité innée [s’avère particulièrement] irritable en ce qui concerne les facultés intellectuelles. » De son côté, Durand (1968) voit dans cette tendance à la sur-cohérence l’euphémisation de processus schizophrènes : le sujet compense une impression de division, d’émiettement en s’abstrayant du monde. La vie ne présentant aucune régularité, il en vient à fabriquer un substitut de réel géométrique. Il n’est en aucun cas question de caractériser les savants sur un mode psychopathologique mais simplement de reconnaître avec Freud (2004) que « les extrêmes pathologiques sont l’exagération de processus cognitifs normaux ; ils révèlent, dans leur excès même, des aspects invisibles de la normalité ».

Dépendantes de processus psychiques, ces diverses tendances (généralisation, unification, réalisme, sur-cohérence) relèvent également d’« aspirations métaphysiques » : selon Schopenhauer (2004), l’homme est le seul être à s’étonner de sa propre existence et de sa limitation intrinsèque, la mort. C’est de cet étonnement et de la difficulté à le rendre intelligible que naît le besoin métaphysique. La métaphysique ne consiste pas à passer par-dessus l’expérience mais au contraire à la comprendre dans son ensemble, par-delà la diversité des phénomènes. Une telle aspiration se retrouve chez Einstein (1989) qui part en quête d’une image du monde réductible à un petit nombre de lois générales. Pour le physicien, ce désir d’éprouver l’étant comme un tout parfaitement intelligible constituerait même le mobile le plus puissant d’engagement scientifique, ce que corrobore Besnier (2006) : la connaissance naît dans la séparation mais peut toutefois être captée pour retrouver l’alliance perdue. Reconnaître que la science endosse des valeurs extra-scientifiques et des motifs qui ne sont pas des raisons ne revient pas à la discréditer (Besnier, 2005). Ceux-ci sont même nécessaires en tant que « mythes mobilisateurs ». La question devient : jusqu’à quel point les mobiles métaphysiques demeurent dans les cadres de la science ?

Les aspirations métaphysiques sont, en outre, relayées par des émotions esthétiques. Selon Chazal (2005), si toute émotion esthétique est liée à un désir sous-jacent, le désir de savoir peut lui aussi commander des valeurs proprement esthétiques, parmi lesquelles la simplicité et la concision des hypothèses, le gain en généralité et en harmonie. Tout se passe alors « comme si la beauté des formes était le gage d’une vérité sous-jacente », « comme si les sciences fonctionnaient sous le postulat que le monde est beau et que les théories qui le décrivent de manière adéquate en héritent la beauté. » De Broglie n’écrivait-il pas : « Une doctrine qui parvient à réaliser une vaste synthèse produit sur le théoricien une impression de beauté et l’incline à croire qu’elle renferme une grande part de vérité » ?

Ces engagements, aussi bien métaphysiques qu’esthétiques, pour certains thêmata, peuvent déboucher sur leur réification et ce, d’autant plus que l’homme de science y projette des significations et valeurs intimes en référence à son histoire singulière (Quidu, 2009a). Un savant a d’autant plus de chances de réifier les thêmata d’unité, de simplicité et d’ordre qu’il a vécu des expériences mémorables d’éclatement ou de morcellement, et investit la recherche comme un moyen de réunification et de consolidation. Un autre théoricien souscrira plutôt aux thêmata de pluralité et de complexité s’il a vécu des expériences d’enfermement, d’exclusion ou de stigmatisation. Au final, quelle que soit l’option thématique retenue, il convient de garder en mémoire qu’elle est menacée de durcissement ontologique et doit être constamment maintenue en position de médiateur conventionnel d’intelligibilité.

Les mobiles sous-jacents aux abus théoriques sont enfin d’ordre idéologique. Olivier de Sardan (1996) soutient par exemple que les généralisations comparatives abusives en ethnologie sous-tendent ou/et sont sous-tendues par l’affirmation idéologique d’un « grand partage entre Eux et Nous ». De son côté, Andrieu (2007) démontre, à propos de certains travaux neuroscientifiques américains, la solidarité des abus théoriques internes avec l’affirmation idéologique d’un homme naturalisé et d’une rationalité exclusivement matérialiste. L’auteur met tout d’abord en lumière les divers abus théoriques internes dont sont coupables les neurophilosophes : sélection arbitraire des travaux de neurosciences ; glissement de la naturalisation comme programme de recherche et de la réduction comme méthode d’investigation vers la naturalisation et la réduction comme affirmations ontologiques. Puis, Andrieu repère le déplacement idéologique des modèles depuis l’espace scientifique vers les champs philosophique et social : « Au déplacement des modèles correspond une nouvelle description de la personne humaine à partir de ce qui serait ses éléments naturels. » Cette formalisation matérialiste, qui est une « réduction idéologique externe », s’est opérée par réification d’une « réduction méthodologique ». Andrieu définit cette dernière comme « l’objet étudié par chaque technique scientifique » en vue d’« isoler de manière de plus en plus élémentaire la matière active du cerveau ». La réduction méthodologique est nécessaire au travail neuroscientifique qui porte sur les composants cérébraux. Illégitime est en revanche la réduction externaliste qui va hypostasier une certaine technique analytique pour l’ériger au rang de paradigme universel soutenant un discours philosophique. Face à de telles réductions idéologiques, il convient de resituer la fécondité des réductions méthodologiques dans leurs programmes respectifs. Précisons également que la synthèse neurophilosophique ne constitue en aucun cas une conséquence logique des réductions méthodologiques ; elle n’est qu’une interprétation idéologique du mouvement des modèles en neurosciences. Il serait toutefois inexact de considérer la conception réductionniste de l’homme (idéologie sociale) comme la résultante exclusive du glissement vers la philosophie de modèles scientifiques. Andrieu soutient à cet égard que « ce qui est projeté à l’extérieur du champ expérimental y est déjà présent en tant qu’idéologie interne », c’est-à-dire comme représentations du monde et valeurs véhiculées dans la démarche scientifique. Parmi ces valeurs réside une conception singulière de la rationalité et de la scientificité qui colonise également le champ social : en refusant de reconnaître aux états mentaux le moindre degré de réalité ontologique, la neurophilosophie plaide pour une élimination des sciences sociales et humaines (dont la psychologie et la psychanalyse) et de la philosophie (dont la tradition phénoménologique). Leurs objets classiques (conscience, mémoire, désir) se trouvent naturalisés à partir de ce qui serait les éléments « premiers » de la matière. L’imaginaire sous-jacent est qu’une pratique scientifique serait d’autant plus objective qu’elle s’attache à rechercher des causes organiques. Or, si le paradigme de la science objective est nécessaire, il n’est pas suffisant pour rendre compte des phénomènes subjectifs (Andrieu, 2001). Enfin, une telle réduction inter-théorique se double du projet, ancien mais réactualisé, de constitution d’une science unifiée, « La science du cerveau ».

L’explicitation des mobiles sous-tendant les abus théoriques n’avait pour intention de discréditer l’intervention de valeurs extra-scientifiques dans le raisonnement scientifique. Néanmoins, si la connaissance humaine ne savait se détacher de l’existence, elle ne devrait pas s’y enchaîner. Et comme l’indique Morin (1986), « nous pouvons à la fois vivre la passion de la connaissance et pour la connaissance contrôler cette passion ».

Quelle ascèse épistémologique ?

Comment intégrer scientifiquement la connaissance philosophique des mécanismes et mobiles sous-tendant les abus théoriques internes ? Deux modalités d’intégration sont développées : la première, classique, s’appuie sur la mise en évidence des mésusages pour formaliser, en positif, les pratiques souhaitables ; la seconde, plus originale, démontre que ces règles méthodologiques s’incarnent dans des programmes de recherche authentiques.

Rappelons brièvement quelques règles et pratiques susceptibles de prévenir d’éventuels abus théoriques. Comment tout d’abord éviter et/ou détecter une généralisation incontrôlée ? Dit autrement, quels sont les prérequis d’une abstraction légitime en sciences sociales ? Un premier corps de règles porte sur la construction des données empiriques. Il est tout d’abord impératif d’expliciter les « principes théoriques de construction et de sélection des matériaux » (Lahire, 2005). Sans ces exigences, on ne pourrait avoir affaire qu’à des exemples sur mesure et non à un véritable corpus. Afin de clarifier les opérations de recherche réalisées, la grille de repérage des phénomènes sociaux sur les trois dimensions de masse, de durée et de contexte (Grossetti, 2006) apparaît particulièrement opérationnelle. Il convient ensuite de veiller à diversifier les types de matériaux supports de l’interprétation puis de les recouper de façon systématique. Selon Soler (2009), ce principe de triangulation constitue un puissant facteur de robustesse pour les assertions produites. Outre la nature des matériaux, il apparaît fécond de varier les contextes empiriques d’investigation et les échelles d’observation (sur les axes de masse, de durée et de contexte). Ces diverses variations facilitent l’identification de contre-exemples ou cas négatifs (Glaser et Strauss, 1995) qui, loin d’être occultés, doivent être intégrés théoriquement (Passeron et Revel, 2005). « Détonnant comme un scandale sur un fond de régularité, le phénomène singulier constitue un problème et suscite la recherche d’une solution. » Se faisant, « il oblige à une critique de la généralité antérieure » (Canguilhem, 1968). Olivier de Sardan (1996) incite de son côté à « bâtir une stratégie de recherche basée sur les différences significatives ». Une telle politique se retrouve enfin chez Livet (2002) qui envisage la modélisation en sciences sociales comme la « production d’inférences révisables en fonction des nouveaux contextes investigués ». La critique des pairs sera particulièrement attentive à la qualité de cette prise en compte théorique des cas singuliers. Plus généralement, elle portera sur les « données produites », les « preuves apportées », « la plausibilité empirique » et ne se limitera pas à des affrontements entre paradigmes. Une telle ascèse se traduit en ethnologie par la multiplication des « terrains revisités » qui rendent possibles les « contre-expertises », les « critiques des sources », lesquelles faisaient « autrefois défaut avec le système de la chasse culturelle gardée […]. Les présomptions de sur-interprétation deviennent argumentables » (Olivier de Sardan, 1996).

Un deuxième ensemble de règles a trait au procès d’abstraction, c’est-à-dire à la mise en ordre théorique des données et aux extrapolations associées. Ces dernières concernent les échelles de masse (ce que je dis d’un ensemble d’unités s’applique à un second ensemble qui englobe le premier), de durée (ce que j’analyse pour une période vaut pour une autre période) et de contexte (tel phénomène analysé dans le monde scolaire est généralisable aux autres institutions). Toute extension d’une grille conceptuelle à un ensemble second de phénomènes devra être rigoureusement argumentée : selon Grossetti (2006), « s’il n’y a pas d’analyse sociologique, si qualitative soit-elle, qui ne comporte l’ambition d’une extension de son domaine de validité, force est de déplorer que cette extension est trop souvent simplement suggérée sans prise de risque excessive sur les possibilités de réfutation ». Comment faire en sorte qu’une montée en généralité puisse donner prise à la critique ? Pour Grossetti, une abstraction est légitime a) si elle donne les moyens de retrouver les contextes à partir desquels elle s’est construite, et, par là même, d’en critiquer les choix de construction ; b) s’il est possible de la traduire explicitement pour la mettre en oeuvre dans les contextes nouveaux où elle est censée pouvoir s’appliquer.

Le contrôle du processus d’abstraction couplé à l’attention portée aux échelles pertinentes d’analyse favorise l’effort, continu, de délimitation du champ de pertinence d’une théorie ou d’un concept ; cet effort est nécessaire au sens où « une connaissance qui n’est pas donnée avec ses conditions de détermination n’est pas une connaissance scientifique » (Bachelard, 1940). Il convient donc d’incorporer les conditions d’application d’un concept dans le sens même de celui-ci. Insister ainsi sur la relativité des résultats à leurs méthodes d’obtention ne condamne en aucun cas les théories au strict localisme. En effet, dire d’une théorie qu’elle possède un domaine nécessairement limité de validité ne revient pas à soutenir que celui-ci est microscopique, empêtré dans une singularité monographique. Il s’agit simplement de reconnaître que sa portée est bornée (même si potentiellement étendue) à une catégorie de situations dont il convient de définir les propriétés formelles. Un tel exercice d’équilibrisme coïncide avec la troisième voie que recherche Latour (1991) entre d’une part le « relativisme absolu » (ce concept élaboré localement n’a de validité que locale) et d’autre part l’« universalisme absolu » (ce concept élaboré localement a une validité universelle en tous lieux, tous temps et pour tous acteurs). Il s’agit d’évoluer dans un « relativisme relatif » pour lequel la vérité d’une proposition est relative à des conditions à définir.

Un troisième système de règles vise à délimiter les modalités légitimes d’intervention des options thématiques dans l’argumentation scientifique afin d’en prévenir la réification. Ici, la méthodologie des programmes de recherche (Lakatos, 1994) apparaît utile. Un programme de recherche est en premier lieu constitué d’un noyau dur au sein duquel interviennent les axiomes et thêmata, c’est-à-dire des « éléments syntaxiquement métaphysiques » : ceux-ci ne peuvent être, par leur forme logique, contredits par aucun énoncé de base singulier. Le noyau dur, préservé par convention de la réfutation, définit une heuristique, c’est-à-dire un guide pour le choix des problèmes à résoudre. Celle-ci se compose d’hypothèses auxiliaires qui, elles, doivent soutenir le choc des mises à l’épreuve et être amendées pour protéger le noyau dur. Selon Lakatos, il est légitime de développer un programme de recherche tant que son contenu empirique, historiquement, s’accroît, c’est-à-dire que des faits inédits (inconcevables à l’aune des programmes rivaux), en partie corroborés, sont produits. Le programme sera qualifié de « fécond ». À l’inverse, lorsque les cas problématiques sont expliqués de façon ad hoc (les hypothèses énoncées ne comportent aucune conséquence supplémentaire indépendamment testable), le programme sera dit « dégénératif ».

En résumé, chez Lakatos, les thêmata interviennent dans le noyau dur d’un programme et seront considérés comme féconds s’ils permettent une croissance continue du contenu. Une telle position relève, selon Bouveresse (2007), de la conception « pragmatique » des rapports entre croyance et rationalité : une croyance doit être jugée moins à l’aune des raisons dont on dispose d’y croire ou de ses origines qu’au regard des perspectives heuristiques qu’elle ouvre. Selon James, la pratique scientifique suppose que les savants aient leurs articles de foi. En prenant une avance sur l’intellect, la volonté offre ainsi à toute vérité la chance d’être atteinte. La vérité est ici considérée moins comme une chose qui est que comme un processus qui se fait. À l’inverse, la position « rationaliste », incarnée par Clifford, considère qu’une croyance doit attendre d’être vraie pour avoir le droit d’exister. Idéalement, la volonté devrait s’incliner devant les raisons.

Holton (1981) développe une seconde actualisation de la conception pragmatique : le choix d’un thêma intervient hors de toute logique. Mais, une fois cette option entérinée, nous pouvons la soumettre à critique. Cette dernière ne s’appliquera donc pas au moment de la formulation de l’axiome (moratoire) mais sur les assertions que celui-ci permet de déduire dans sa confrontation aux expériences sensibles. Seul le respect d’un droit initial de renoncement à l’incroyance pourra permettre à un système d’axiomes de faire ses preuves, c’est-à-dire d’accorder pragmatiquement un ensemble d’expériences. C’est à ce prix que « les options thématiques demeurent des actes de raison tout en échappant originellement à l’analyse logique ». Berthelot (1990) transpose cette méthodologie dans les sciences sociales : l’auteur soutient tout d’abord que les diverses options thématiques sont toutes a priori également légitimes. S’il est vain de chercher à démontrer la supériorité intrinsèque d’un thêma sur un autre, il est en revanche envisageable de comparer a posteriori la pertinence différentielle de leur explication pour un ordre défini de phénomènes et en fonction d’un état donné de connaissance. La question devient : quel est le gain de connaissance autorisé par le passage d’un thêma à l’autre dans l’explication de tel phénomène ? Berthelot constate néanmoins que la problématique de la validité différentielle des théories est rarement posée, les savants cherchant à prouver l’une aux dépens de l’autre en les considérant comme incommensurables. L’auteur élabore en réaction une procédure de confrontation réglée qui permet de reconnaître la qualité scientifique d’une explication par-delà les choix méthodologiques et thématiques. Cette exigence générique n’impose aucune technique particulière de la preuve et laisse à chaque programme le soin d’élaborer ou d’adapter celle qui est la plus appropriée à son schème. En effet, la première étape du procès de confrontation entre théories supportées par des thêmata opposés doit porter sur la structure explicative associée à chaque option en y appliquant les normes de validation et de réfutation congruentes avec le schème d’intelligibilité mis en oeuvre. La seconde étape s’appuie ensuite sur l’idée qu’« il y a toujours une base empirique partiellement commune » aux théories portées par des thêmata antagonistes. En effet, un même phénomène peut être appréhendé selon des thêmata différents. Le fait de la preuve est dans l’aptitude des théories à se dégager de cette gangue originelle que constituent les options thêmatiques pour tendre vers un langage commun.

En définitive, Lakatos, Holton et Berthelot partagent une position homologue relativement au mode d’intervention souhaitable des thêmata dans l’argumentation scientifique : il s’agit non pas de débattre a priori de leur validité (ils sont indécidables) mais d’évaluer pragmatiquement et a posteriori leur fécondité différentielle.

Bachelard (1940) formalise une dernière posture normative, « la dialectisation des principes ontologiques », particulièrement utile lorsque la menace de réification est imminente : selon l’auteur, les cadres de l’entendement ne peuvent subsister dans leur inflexibilité ; la physique (et toutes les autres sciences), du fait des paradoxes empiriques qu’elle a à affronter, doit progresser en déterminant le déplacement de ses principes ; la dialectisation révèle après coup la structure conditionnelle d’axiomes considérés antérieurement comme universels. Une telle transformation dialectique des thêmata permet de mettre en cohérence deux théories qui s’étaient révélées rationnellement valables en elles-mêmes mais qui cependant s’opposaient. Bachelard parle d’une « période d’organisation logique et synthétique des théories ».

Ces diverses règles méthodologiques s’incarnent dans deux programmes de recherche dont les ambitions respectives sont brièvement explicitées. Le premier programme, attentif aux limites des connaissances produites, a été qualifié de « mouvement de régionalisation » (Quidu, 2010). Il s’actualise dans des champs disciplinaires variés (notamment sociologie de l’action et neurosciences du comportement moteur) qui ont en commun d’être traversés par des controverses épistémologiques durcies. Son principe de base, énoncé par Lahire (1998), est de considérer que les théories qui s’opposent ne reposent pas dans le vide mais systématisent des aspects différents des phénomènes. En d’autres termes, les tensions conceptuelles reproduiraient in fine dans l’ordre théorique des différences réelles. Il convient donc, après coup, de délimiter les champs respectifs de pertinence de chaque modèle. Soit le domaine des neurosciences comportementales où deux programmes forts s’affrontent : le programme cognitiviste considère que le mouvement est prescrit, de façon descendante et discontinue, par une instance centrale tandis que le programme dynamique envisage un contrôle périphérique, émergent et continu. Ces diverses propriétés (central versus périphérique…) correspondent à ce qui a été qualifié de thêmata. Plutôt que de durcir les oppositions, Lemoine (2007) défend l’idée que ces deux théories formalisent chacune un mode spécifique de contrôle de la motricité ; ces deux modes coexistent dans le fonctionnement de l’organisme ; leurs conditions respectives de déploiement et leurs modes d’articulation sont ensuite précisés. Les thêmata antérieurement concurrents (prescrit versus émergent, central versus périphérique, discontinu versus continu) sont dialectisés : ils peuvent coexister dès lors que leurs domaines respectifs d’application sont définis. Cette dialectisation est rendue possible par une souscription aux thêmata de complémentarité et de pluralité. Une démarche homologue se retrouve dans le champ des théories sociologiques de l’action où s’opposent des modèles insistant respectivement sur l’unité versus la pluralité de la pratique. Unité et pluralité peuvent ici être considérées comme des options thématiques. Lahire (1998), plutôt que de trancher a priori ce débat sur un mode dogmatique, va délimiter les conditions de possibilité respectives de l’unité et de la pluralité de la pratique. Ici encore, l’auteur participe d’une « dialectisation des axiomes ». Précisons enfin que le développement du programme de régionalisation ne discrédite en aucun cas les programmes classiques qu’il tente de coordonner. Lakatos indique à cet égard : « On ne doit jamais permettre à un programme de devenir une sorte de rigueur scientifique se posant en arbitre entre l’explication et la non-explication. […]. Plus la compétition entre programmes commence tôt, mieux cela vaut pour le progrès. » Ce programme doit en outre se soumettre aux règles méthodologiques énoncées précédemment : évaluation de la fécondité, prévention de la réification…

Le second programme est historiographique. Il mobilise l’analyse philosophique des abus théoriques pour comprendre, dans une perspective d’histoire des sciences, les controverses épistémologiques. L’hypothèse de base est qu’une controverse avait d’autant plus de chances de se durcir qu’elle s’enracinait dans l’opposition de deux théories péchant par abus théoriques, soit parce qu’elles niaient leurs champs respectifs de pertinence en prétendant à l’universalité, soit parce qu’elles réifiaient leurs choix thématiques respectifs. Un tel programme a été entrevu chez Bachelard (1940) pour qui « les contradictions ne naissent pas des concepts mais de l’usage inconditionnel de concepts à structure conditionnelle ». Il transparaît également chez Holton (1981) qui interprète les controverses en physique comme la résultante d’antagonismes thématiques. On le retrouve enfin chez Canguilhem (1965) qui rapporte la controverse autour de la théorie cellulaire à des conflits d’images. L’enjeu du programme est bien de saisir la controverse dans son déploiement historique en repérant l’éventuelle contingence des objets originels, les trajectoires de durcissement dogmatique par les continuateurs, les déformations conceptuelles au cours d’exportations disciplinaires… Au final, c’est bien aux « mouvements des modèles » et aux abus théoriques associés générateurs de controverses qu’il convient de prêter attention. Andrieu (2001) parle d’une « mobilogie ».

Conclusion : la généralisation comme défi

Les présentes réflexions n’ont pas pour ambition de limiter les prétentions, légitimes, des travaux scientifiques à l’élaboration de théories générales. Elles ne font pas non plus l’éloge des monographies qui, bien qu’utiles, n’épuisent pas l’idéal scientifique. À l’inverse, en insistant sur certains mécanismes et mobiles à l’origine d’inférences douteuses, elles réaffirment la nécessité pour les sciences sociales de relever le défi consistant à asseoir empiriquement leurs généralisations. Ainsi, Lahire (1998) considère-t-il toute interprétation pertinente en sciences sociales comme une « sur-interprétation contrôlée » : celle-ci prend le risque de dépasser la timidité monographique tout en argumentant ses extensions possibles et ses limites de validité. Position confirmée par Olivier de Sardan (1996) : « Les prises de risque interprétatives raisonnées, dès lors qu’elles sont empiriquement argumentées, qu’elles ne rentrent pas en contradiction avec les données connues, et qu’elles ne se prétendent pas plus étayées empiriquement qu’elles ne le sont en fait, ne peuvent être qualifiées de sur-interprétations. »

Toutefois, la frontière entre sur-interprétations raisonnées et incontrôlées n’est en pratique jamais si tranchée : les procédures de la nécessaire prise de risque interprétative peuvent sans cesse déraper vers la sur-interprétation incontrôlée. L’explication en est simple : à chaque exigence de la recherche (recherche de facteurs dominants, cohérence, généralisation) correspond une menace d’abus théoriques (réduction à un facteur unique, obsession de la cohérence, généralisation abusive). Ces risques permanents de glissement rendent encore plus nécessaire la critique de la certitude des modèles sans laquelle chaque théorie pourrait prétendre à l’universalité (Andrieu, 2000). Cela impose de réaffirmer la posture d’une philosophie des sciences qui se maintient moins à l’extérieur des sciences que face à elles pour interroger la légitimité de leurs modèles tout en évitant de les cautionner.

L’auteur de la présente note a-t-il péché lui-même par abus théoriques en érigeant indûment des cas isolés en mécanismes épistémiques fondamentaux ? Cela n’est pas exclu et il n’est en aucun cas question de se soustraire à la critique argumentée. L’épistémologue renonce à la position policière du surplomb (Serres, 1994) au profit d’une invitation à la réflexivité généralisée, quitte à ce que sa grille d’identification des abus théoriques soit retournée contre lui (Bourdieu, 2001).