Corps de l’article

Il est dit parfois que l’histoire est la science du singulier : puisque les mêmes causes ne se reproduisent jamais exactement, jamais les mêmes effets ne peuvent être obtenus. Mais supposons que les mêmes causes se reproduisent exactement. Sommes-nous bien certain que nous aurons alors exactement les mêmes effets ?

Si tel était le cas, cela signifierait que nous vivons dans un monde déterministe. C’est-à-dire, pour reprendre les mots de Karl Popper (dans une définition qu’il emprunte lui-même à Laplace), un monde où « une connaissance complète et exacte de l’état initial du système du monde à un instant donné doit donc suffire pour en déduire l’état à un autre instant, quel qu’il soit »[1].

Sans entrer dans le débat de savoir si nous vivons ou non dans un monde déterministe, il importe néanmoins de remarquer d’ores de déjà que les implications de cette problématique sont cruciaux : c’est ni plus ni moins que l’acceptation même de l’idée de liberté qui est en jeu. Comme le souligne avec raison Karl Popper, l’idée d’un monde déterministe est « l’obstacle le plus solide et le plus sérieux sur le chemin d’une explication et d’une apologie de la liberté, la créativité et la responsabilité humaines »[2]. Dans un monde déterministe en effet, la liberté des humains est nulle; par conséquent est nulle également leur responsabilité.

La question à laquelle nous allons essayer d’apporter une réponse dans les pages qui suivent est la suivante : est-il possible, pour le chercheur, de rejeter le postulat du déterminisme – et par conséquent d’accepter l’idée de liberté – tout en conservant une approche scientifique ?

L’objet de ce texte est donc principalement d’ordre méthodologique. Il ne se propose pas de passer en revue les différentes théories utilisées et de montrer en quoi elles sont, ou non, déterministes.

Précisons néanmoins d’ores et déjà que nous ne parlons pas ici d’accepter une liberté résiduelle, celle qui se « niche » dans les imperfections de nos théories ou dans des espaces a priori largement délimités, que l’on trouve, par exemple, dans l’expression « marges de liberté »[3]. Nous parlons bien d’une liberté pleine et entière, qu’il ne faut pas confondre avec l’omnipotence. Ce n’est pas parce que l’on considère l’être humain pleinement libre et responsable qu’il peut faire « n’importe quoi ».

Pour tenter de répondre à la question que nous avons proposée, et conformément à l’appel à communication qui invitait les autres sciences sociales à alimenter le débat, nous allons nous appuyer principalement sur l’histoire. Dans cette discipline en effet, la question du déterminisme se pose avec une acuité particulière. Puisqu’il s’agit d’écrire des histoires, des récits, qui nous amènent d’un point à un autre, et puisque le chercheur en connaît, à l’avance, le point d’arrivée, il est tentant d’écrire une histoire que l’on peut qualifier de « déterministe a posteriori », c’est-à-dire qui présente les événements qui se sont produits comme s’ils n’avaient pas pu ne pas se produire.

Nous pouvons formuler notre question de recherche de façon plus précise ainsi : Comment peut-on écrire une histoire « scientifique » qui ne soit pas déterministe a posteriori ? Une histoire qui ne laisse pas entendre que ce qui s’est produit n’aurait pas pu ne pas se produire ?

Ce recours à l’histoire nous semble pouvoir éclairer de façon pertinente la question, même du point de vue du chercheur en gestion pour deux raisons. Tout d’abord, notamment dans le champ de la comptabilité mais pas uniquement, de plus en plus de chercheurs en gestion ont été formé en histoire et travaillent comme des historiens. Ensuite, de nombreux travaux, qui ne s’appuient pas sur une approche méthodologique de type historique, étudient néanmoins des processus et, de ce fait, racontent une histoire, présente une narration pour lequel les problèmes de déterminisme a posteriori peuvent se poser de manière identique[4].

Nous allons procéder en trois temps. Nous allons tout d’abord chercher à réfuter la thèse que l’on pourrait nous opposer d’entrée selon laquelle l’idée de hasard et de contingence s’oppose à celle de science, ce qui nous permettra de rejeter l’idée que seule une histoire déterministe, et plus généralement, une approche déterministe au sein des Sciences de Gestion pourrait avoir le statut de science.

Nous nous appuierons ensuite sur deux études empiriques qui montrent la possibilité et la pertinence d’une approche « ouverte » de l’histoire, qui ne cherche pas à montrer que ce qui s’est produit n’aurait pas pu ne pas se produire. Dans cette approche, ce qui s’est produit est parfaitement explicable a posteriori, mais nullement prévisible a priori.

Nous nous serons limités cependant, à ce stade, à la vision du chercheur; or, l’historien est confronté à des humains qui peuvent avoir des intentions, et dont les mobiles de l’action peuvent être à rechercher, non pas dans la situation « objective » décrit par l’historien, mais dans leur situation « subjective », qu’il importe également de prendre en compte. Nous proposerons alors deux approches qui permettent d’une certaine manière de faire preuve d’empathie avec ces humains, tout en demeurant « ouvertes » : ne cherchant pas à montrer que si un humain s’est comporté de telle manière, c’est qu’il ne pouvait pas faire autrement…

Apologie d’une histoire non déterministe a posteriori

L’idée peut choquer : nous avons souvent dans la tête, plus ou moins vaguement, l’opinion que, liberté et hasard étant des illusions du sens commun que la science répudie, l’historien, s’il veut s’élever au-dessus du savoir vulgaire, devrait sortir du sublunaire. C’est s’imaginer que l’histoire est une science humaine; telles sont deux illusions : croire que les sciences humaines sont sublunaires ; croire que l’histoire n’est pas sublunaire[5].

Paul Veyne reprend ici la distinction Aristotélicienne entre la région céleste, « celle du déterminisme, de la loi, de la science », et la région sublunaire, notre monde « où règne le devenir et tout est événement »[6].

Si nous ne pouvons que suivre Paul Veyne dans sa volonté de ne pas laisser l’histoire sombrer dans le déterminisme, il nous semble que sa volonté de tenir l’histoire en dehors du champ de la science repose sur une troisième illusion : celle de croire que la science implique le déterminisme et récuse l’idée de hasard.

La science n’implique pas le déterminisme

Dans son livre Plaidoyer pour l’indéterminisme, Karl Popper s’emploie à briser une telle idée. S’il admet que « la plupart des physiciens ont tendance à considérer un univers physique ouvert (donc, non causalement fermé, donc indéterministe) comme une superstition typique », il souligne que, depuis la théorie quantique, une « autre forme d’indéterminisme devint partie intégrante du crédo officiel de la physique. [Elle] suppose la possibilité d’événements élémentaires dus au hasard, irréductibles d’un point de vue causal »[7]. Ainsi le « saut quantique » est « un événement absolument imprévisible qui n’est contrôlé ni par des lois causales, ni par les coïncidences des lois causales mais uniquement par des lois probabilistes »[8]. Le hasard vient se loger au coeur de la science.

Et il en est de même du côté des sciences de la vie, notamment en ce qui concerne la théorie de l’évolution, elle qui, tout comme l’histoire, s’intéresse à la question du devenir. Jacques Monod ne se contente pas d’accepter l’idée de hasard. Il lui reconnaît une place centrale et précise que, par ce mot, il n’entend pas « un aveu d’ignorance, mais exprime une condition de fait »[9] :

Nous disons que ces altérations [dans le mécanisme de réplication] sont accidentelles, qu’elles ont lieu au hasard. Et puisqu’elles constituent la seule source possible de modifications du texte génétique, seul dépositaire à son tour des structures héréditaires, il s’ensuit nécessairement que le hasard seul est à la source de toute nouveauté, de toute création dans la biosphère. Le hasard pur, le seul hasard, liberté absolue mais aveugle, à la racine même du prodigieux édifice de l’évolution[10].

Jacques Monod cependant, comme par effet de symétrie, oppose à ce hasard originel la nécessité qui va suivre :

Tiré du règne pur du hasard, [l’accident singulier] entre dans celui de la nécessité, des certitudes les plus implacables. Car c’est à l’échelle macroscopique, celle de l’organisme, qu’opère la sélection […] La sélection opère en effet sur les produits du hasard, et ne peut s’alimenter ailleurs; mais elle opère dans un domaine d’exigences rigoureuses dont le hasard est banni. C’est de ces exigences, et non du hasard, que l’évolution a tiré ses orientations généralement ascendantes[11].

Stephen Jay Gould propose d’aller beaucoup plus loin et d’adopter la notion de contingence, vue comme « une chose en soi et non la combinaison du déterminisme et du hasard »[12] : il s’agit de désigner des phénomènes qui ne sont ni prévisibles (donc ne font pas partie du champ du déterminisme), ni soumis au pur hasard, car ils sont parfaitement explicables, a posteriori. La réinterprétation des découvertes du Schiste de Burgess, dit-il, « ont mis en question nos conceptions traditionnelles sur le progrès et la prédictibilité dans l’histoire, pour faire face à une notion bien connue des historiens : la contingence; de sorte que l’on est obligé à présent de regarder l’imposant spectacle de l’évolution de la vie comme un ensemble d’événements extraordinairement improbables, parfaitement logiques en rétrospective et susceptibles d’être rigoureusement expliqués, mais absolument impossibles à prédire et tout à fait non reproductibles »[13]. La conséquence est importante : à chaque fois que l’on redéroulera le film de l’évolution, on obtiendrait une histoire différente[14].

Ce détour par la biologie nous a permis de montrer que, même au sein des sciences de la nature, l’idée de contingence peut avoir sa place. Le déterminisme n’est donc pas, ou n’est plus nécessaire aux sciences de la nature. Ce point étant acquis, reste à savoir comment nous pouvons néanmoins écrire l’histoire autrement qu’en faisant comme si ce qui s’est produit n’aurait pas pu ne pas se produire ? Bref, en faisant autre chose que du déterministe a posteriori ?

Ne pas succomber aux sirènes du déterminisme a posteriori

Ne serait-il pas plus profond, plus signifiant, l’historien qui, étudiant les débuts de la Réforme en France, ne saurait rien encore de la Saint-Barthélemy ? Quelle force se lie à la naïveté ! Quelle adéquation au flux et au reflux du rapport de force n’assure-t-elle pas ! Connaître l’issue d’un combat contraint peut-être à sous-estimer la vigueur, le dynamisme du vaincu[15].

Il ne s’agit plus ici de repérer un biais épistémologique (celui de l’historien qui considérerait que pour faire de la science, il faut adopter une attitude déterministe) mais plutôt d’un biais méthodologique (celui de l’historien qui, parce qu’il connaît le point d’arrivée, risque d’être tenté de confondre ce qui s’est effectivement produit et ce qui aurait pu également se produire). Et Jean Lacouture de proposer l’histoire immédiate comme rempart contre la tentation du déterminisme a posteriori : « Incapacité de prévoir ou impossibilité de savoir, l’ignorance où se trouve le plus souvent l’historien « immédiat » de la conclusion de la période qu’il étudie peut être une force ou une vertu »[16].

Ce danger qui guette l’historien réside paradoxalement dans l’un de ses atouts essentiels, celui d’arriver après les faits; atout que décrit Fernand Braudel :

Surtout, mieux qu’un journaliste (et le plus averti de tous), je sais quels sont les grands et petits événements. Qu’est-ce qu’un grand événement en effet ? Non pas celui qui fait le plus de bruit sur le moment […] mais celui qui entraîne les plus nombreuses et les plus importantes conséquences. Les conséquences ne se produisent pas sur-le-champ, elles sont filles du temps. D’où les multiples avantages qu’il y a à observer une époque avec un large recul. C’est tout de même un avantage de saisir ainsi des alignements de faits, non pas des points mais des lignes de lumière. C’est quelque chose, étudiant un drame, que d’en connaître le dernier mot[17].

À condition de ne pas succomber aux sirènes du déterminisme a posteriori ! La réponse de Jean Lacouture, c’est, nous l’avons vu, de se « boucher les oreilles » en privilégiant l’histoire immédiate. Mais l’on peut aussi profiter du chant des sirènes sans y succomber… à condition de bien s’accrocher au mât.

Pour commencer, il importe de bien prendre conscience du danger. L’historien doit se montrer sceptique, écrit Naomi Lamoreaux, face à une histoire qui relie le problème, la solution et sa fin heureuse. D’abord parce que cette approche « n’explique pas comment et pourquoi la décision a été prise ni même pourquoi elle a été couronnée de succès; ensuite parce que cela rétrécit notre sens du possible, l’idée que les événements auraient pu tourner différemment; enfin parce que cela nous pousse vers [l’idée] selon laquelle ce qui s’est passé devait se passer parce qu’était supérieur aux autres alternatives »[18]. Dernière idée très proche de la thèse de Stephen Jay Gould vue précédemment.

Mais comment faire concrètement pour résister à cette tentation du déterminisme a posteriori ? Bien sûr, il importe de ne jamais oublier que ce qui s’est produit aurait pu aussi bien ne pas se produire; et que, à l’inverse, ce qui ne s’est pas produit aurait pu très bien se produire. Ne pas surestimer le vainqueur, ni sous-estimer le vaincu en quelques sortes.

Mais il faut aller plus loin. Arlette Farge propose une très belle expression pour désigner ces autres voies non empruntées par l’histoire : elle les appelle les « possibles ailleurs »[19]; et l’historien se doit de rechercher ces possibles ailleurs.

Quels étaient-ils ? Pourquoi, ou plutôt comment se fait-il qu’ils n’ont pas été empruntés ? Il ne s’agit pas de retomber dans piège précédent en cherchant à expliquer le non-emprunt de ces chemins par des causes irrésistibles. Mais si l’on cherche ces possibles ailleurs avec une attitude qui reconnaît la place du hasard et de l’imprévisible, on ouvre la porte à des chemins improbables peut-être, mais nullement impossibles. Bref, faire autre chose que considérer l’histoire comme un simple film que l’on déroule.

S’agit-il de dire alors qu’il aurait pu se passer « n’importe quoi », et revenir à une conception de l’histoire ou le hasard joue le rôle central ? Considérer que les « causes profondes », qui dépassent largement l’humain, ne jouent qu’un rôle mineur ? Certainement pas.

Comment donc trouver ce juste équilibre entre une histoire déterministe d’un côté et une histoire « naïve » de l’autre ? Peut-être convient-il de rappeler la distinction subtile de Paul Veyne : « les causes profondes décident de ce qui arrive, si cela arrive, et les causes superficielles décident que cela arrivera ou non »[20].

Henri Ashby Turner, dans son travail sur l’accession d’Hitler au pouvoir, utilise d’autres mots mais n’est pas très éloigné de cette idée :

Les événements des 30 premiers jours de janvier 1933 n’expliquent pas, à eux seuls, pourquoi Hitler arriva au pouvoir. Seule une analyse plus approfondie du passé de l’Allemagne permettrait de comprendre pleinement ce qui s’était produit. […] Les interprétations de l’accession au pouvoir d’Hitler qui privilégient de tels antécédents ont une fâcheuse tendance à devenir déterministes. Elles amènent à penser que cet événement fut le produit inévitable de puissantes forces impersonnelles, qu’il devait advenir et qu’il n’y avait pas de scénario alternatif. Pourtant, si dans de nombreux cas de tels facteurs ont été nécessaires au résultat, ils ne furent pas suffisants. Ils peuvent aider à comprendre comment le IIIe Reich devient une éventualité, mais ne peuvent expliquer comment il devint une réalité[21].

L’opposition est intéressante en ce qu’elle reconnaît à la fois la place des causes « profondes » au sens des causes couramment utilisées dans les sciences sociales et qui déterminent ce qui peut arriver. Tout en ajoutant ces causes superficielles qui vont décider de leur réalisation ou non. L’histoire est explicable, après coup, aussi bien par ces causes ou conditions qui ont rendu possible ce qui s’est produit, que par ces causes superficielles qui ont transformé ce possible en réalité. Explicable, de façon causale, l’histoire ne devient pas pour autant fermée car le hasard – ou la liberté de délibérations des humains, nous y reviendrons plus loin – peut encore faire, ou non, d’une éventualité une réalité.

Rechercher les possibles ailleurs, c’est donc construire, à partir de ces causes profondes, les autres voies qui auraient pu être empruntées; bref, les autres éventualités que contenaient « le passé ». Chacune de ces éventualités pouvant être expliquée a posteriori, exactement comme ces autres films de la vie que se proposait d’expliquer Stephen Jay Gould. Il s’agit en fait d’accorder une place à la notion de contingence.

Revenons à Paul Veyne : « Les événements ont des causes, les causes n’ont pas toujours de conséquences, enfin les chances d’arriver des divers événements sont inégales »[22]. Car il importe d’insister sur ce point : le fait qu’une éventualité se soit transformée en réalité ne signifie nullement qu’elle était celle qui avait la probabilité la plus grande d’advenir. Quant bien même on parviendrait à calculer avec précision la probabilité de chacune des éventualités par l’étude des causes profondes, il faudrait encore « jouer l’histoire » pour voir laquelle s’est finalement réalisée. Si vous lancez deux fois le dé et que vous faites la somme, vous avez une chance sur trente-six d’obtenir douze, mais une chance sur six (soit six fois plus) d’obtenir sept. Cela ne vous empêchera pas, parfois, d’obtenir douze.

Deux travaux nous paraissent illustrer parfaitement la réussite d’une telle approche, qui recherche les possibles ailleurs et reconnaît la part de contingence qui s’attache à eux. Le premier montre qu’il existait des possibles ailleurs, peut-être improbables mais néanmoins possibles et qui auraient pu advenir; le second montre que le chemin emprunté n’était non seulement pas le seul possible mais n’était même pas le plus probable. Le premier évoque un événement qui s’est bien terminé mais aurait pu se terminer de manière plus tragique : la crise des missiles de Cuba; le second, un événement qui s’est terminé de façon tragique mais n’aurait pas dû se produire : la nomination d’Hitler au poste de chancelier de l’Allemagne en janvier 1933.

À la recherche des possibles ailleurs

Lorsque ce qui ne s’est pas produit aurait pu se produire 

On retient souvent d’Essence of Decision[23] le fait qu’il est possible d’interpréter une situation non seulement à partir d’un modèle rationnel, mais également organisationnel (où l’accent est mis sur les productions des organisations, notamment les routines) et politique (où l’accent est mis sur le jeu des acteurs). Il s’agit, sans conteste, de l’une des thèses de ce livre. Mais se limiter à celle-ci me paraît bien réducteur. Car accepter l’idée selon laquelle le modèle rationnel ne suffit pas à éclairer un événement, c’est déjà remettre en cause l’idée de déterminisme.

D’après le seul modèle rationnel en effet, cette crise n’était qu’un jeu bien calculé : « Puisque la guerre nucléaire entre les Etats-Unis et l’URSS aurait été un suicide mutuel, aucune des nations n’aurait choisi cette option, et la guerre nucléaire n’était donc pas, de ce fait, une possibilité sérieuse »[24]. Le message général qui émane d’un tel modèle est celui de la prévisibilité, de la nécessité. Bref, un tel modèle est parfaitement adéquat pour montrer que ce qui s’est produit ne pouvait pas ne pas se produire.

Mais introduire les modèles organisationnels et politiques, c’est élargir « grandement l’éventail des possibilités cauchemardesques, eux qui ajoutent au mélange les mauvaises informations, faux avertissements, accidents et échauffourées involontaires »[25]. Ces modèles remettent en cause « cette assurance dans l’impossibilité d’une utilisation -irrationnelle dans les termes du modèle I- par les nations d’armes nucléaires et sur le caractère gérable des crises nucléaires »[26].

La thèse que défendent les deux auteurs, d’une portée autrement plus grande que le simple fait de regarder une situation de trois manières différentes, me semble assez bien résumée dans leur conclusion : « Plus l’événement s’éloigne, plus il devient difficile de croire – existentiellement- que la guerre nucléaire aurait réellement pu se produire. Mais les preuves rassemblées précédemment permettent de comprendre combien les Etats-Unis et l’URSS ont été près de faire advenir l’impossible »[27].

Sans doute l’expression « faire advenir l’impossible » est-elle mal choisie. Il conviendrait de parler d’impensable. Leur argumentation consiste en effet en grande partie à montrer que la guerre nucléaire était certes non voulue par les principaux protagonistes, était certes sans doute improbable, mais n’était nullement impossible.

Deux exemples issus du modèle II (organisationnel) nous paraissent très caractéristiques de l’approche d’Allison et Zelikow. Le 26 octobre, soit au beau milieu de la crise qui s’est étendue du 16 au 28 octobre, les Américains ont tiré un missile en direction de l’île Kwajalein, dans le Pacifique, depuis la base de Vandenberg, base équipée d’armes nucléaires. Il s’agissait en fait d’un simple test programmé longtemps avant le déclenchement de la crise, que personne n’avait pensé à faire annuler…[28] Cet incident s’est donc déclenché sans intervention des décideurs.

Par chance, les Soviétiques pensaient, à tort, que cette base n’était pas équipée de missile nucléaire. « Si les Soviétiques avaient été conscients que Vandenberg était devenue une base opérationnelle pour lancer des missiles armés […], ce test de routine aurait pu apparaître comme le premier missile de l’attaque »[29].

Second exemple issu du modèle organisationnel, et seconde routine prévue de longue date, que personne n’avait songé à annuler, un avion-espion américain U-2 effectua un vol près du cercle polaire afin d’analyser des échantillons de résidus de tests nucléaires soviétiques. Repéré et pris en chasse par les Soviétiques, cet avion fut rejoint par des chasseurs américains, dont la mission était de le ramener aux Etats-Unis. Mais parce que le niveau d’alerte pendant cette crise était maximum (DEFCON 3), « ces chasseurs américains étaient armés de missiles air-air équipés de têtes nucléaires […] le contrôle de la mise à feu de ces armes était entièrement entre les mains des pilotes des chasseurs »[30].

Le déclenchement de la guerre nucléaire n’était plus du seul ressort du président des Etats-Unis (ou de l’URSS); des pilotes, agissant sous l’effet de la panique, ou qu’elle qu’en soit la raison d’ailleurs, auraient pu lancer des armes nucléaires. L’avion U-2 a pu finalement revenir sans accrochage jusque dans l’espace aérien américain[31]. Rejouerons-nous le film de l’histoire une seconde fois pour être bien sûr que le dénouement heureux ne pouvait pas ne pas avoir lieu ?

Autre exemple, issu du modèle III (politique) cette fois : le 27 octobre, un avion U2 américain fut abattu (celui-là…) au-dessus de Cuba lors d’un vol de reconnaissance. Un tel cas avait été prévu par le commandement américain, et la riposte également : une attaque aérienne contre le site responsable et ce, dans les minutes suivantes.

« McNamara proposa une attaque à l’aube le jour suivant. Kennedy hésita encore. Mais Kennedy était l’exception. Cette prudence supplémentaire de Kennedy ne pouvait pas avoir été anticipée »[32]. Sans l’intervention de Kennedy donc, la riposte aurait eu lieu et l’escalade aurait pu être la suite logique; les défenseurs de Cuba disposaient en effet déjà, ce que les Américains ignoraient, d’armes nucléaires tactiques.

Malgré cet exemple de la « prudence » bienvenue de Kennedy, ce livre pourrait apparaître, me semble-t-il, comme une critique assez sévère du président américain. En effet, regardée d’après le seul modèle rationnel, l’action de Kennedy peut s’apparenter à un coup de bluff qui n’avait aucune chance de se terminer en guerre, pour les raisons exposées plus haut. De même, regardée d’après ses suites, une telle opération fut un succès pour Kennedy.

Mais les différents exemples, notamment issus du modèle II, qui rappellent que les décideurs ne sont pas omnipotents, montrent que les dirigeants, et Kennedy en particulier, ne contrôlaient pas l’ensemble de la situation, que celle-ci aurait pu leur échapper. Peut-être était-ce improbable, mais ce n’était pas impossible.

Et il semble bien que c’est Krouchtchev qui, le premier, en a pris conscience : « un moment pourrait arriver où le noeud [de la guerre] serait si serré que même celui qui l’aura serré n’aura pas la force de le défaire, et alors, il sera nécessaire de couper ce noeud; et je n’ai pas besoin de vous expliquer ce que cela signifie car vous savez parfaitement de quelles forces terribles nos pays disposent »[33].

Faut-il voir la résolution pacifique de la crise comme résultante d’un accès de lucidité de Krouchtchev ? Il me semble que les auteurs du livre ne sont pas loin de le soutenir. En tout état de cause, leur livre peut-être lu comme une recherche de ces possibles ailleurs qui auraient pu se produire et conduire à la catastrophe. Interprété ainsi bien sûr, le jeu de Kennedy apparaît beaucoup moins génial que si l’on considère que la guerre nucléaire était tout simplement impossible…

Lorsque ce qui s’est produit n’aurait pas dû se produire

Henri Ashby Turner, de son côté, se propose de retracer les 30 jours qui précédèrent l’accession d’Hitler à la chancellerie. Il entame son livre par la manière dont fut saluée la nouvelle année 1933 par le partisans de la République de Weimar : la tendance menaçante qui pesait sur elle depuis plusieurs années « semblait s’être inversée d’un seul coup. « L’assaut des nazis contre l’État démocratique a été repoussé » proclamait le prestigieux Frankfurter Zeitung dans son éditorial du nouvel an. « La République est sauvée » annonçait un journaliste du Vossische Zeitung, le vénérable quotidien de Berlin »[34].

Faut-il interpréter rétrospectivement ces acclamations comme une hallucination collective, à quelques semaines de l’accession d’Hitler à la chancellerie ? En fait, cette issue n’était non seulement pas inéluctable, mais n’était pas même probable.

Un mois plus tôt [avant son accession à la chancellerie donc au début de l’année 1933], Hitler avait semblé hors-jeu. Son parti avait reçu un sérieux coup de semonce lors de la dernière élection nationale, puisque deux électeurs sur trois l’avaient rejeté, et son déclin s’était encore aggravé dans les scrutins régionaux et locaux suivants. Des dissensions et des rébellions étaient apparues dans les rangs de ses partisans désillusionnés. Les prémices d’une amélioration de la situation économique menaçaient de le priver d’un des arguments qu’il avait exploités avec tant de succès depuis le début de la crise. Et pourtant, à peine trente jours plus tard, le président qui n’avait cessé de le repousser venait de le nommer chef du gouvernement[35].

Il ne s’agit nullement pour Henri Ashby Turner de soutenir que l’histoire allemande n’a pas joué un rôle important. Mais, si ces facteurs « peuvent aider à comprendre comment le IIIe Reich devient une éventualité, [ils] ne peuvent expliquer comment il devint une réalité »[36]. « Car, si des facteurs impersonnels favorisent certains événements, seuls des individus font qu’ils se produisent »[37].

On pourrait être tenté de lui opposer l’argument que, même sans ces agissements, tôt ou tard, Hitler aurait été porté au pouvoir. C’est négliger le fait qu’il était en train de reculer et plus le temps passait, plus l’éventualité du IIIe Reich se réduisait; c’est aussi oublier que la faillite éventuelle de la démocratie pouvait déboucher sur un autre possible : celle d’un régime militaire. C’est d’ailleurs ce qui s’est passé dans la plupart des pays d’Europe où la démocratie avait périclité. « C’était une conséquence d’une faillite de la démocratie beaucoup plus probable que ne l’était la prise du pouvoir par un mouvement fasciste. Dans deux cas seulement, l’Italie et l’Allemagne, des régimes de ce type prirent naissance en temps de paix »[38].

Ce qui est intéressant du point de vue méthodologique dans l’approche de cet auteur, c’est qu’il travaille en fait par différence. Il ne se contente pas de rechercher « les possibles ailleurs », même s’ils occupent une place importante dans son travail. C’est par l’écart entre le réalisé et ce qu’il construit comme le probable qu’il ouvre la porte à une explication qui laisse une large place au hasard, et à la liberté des individus.

Comme si sans doute les causes profondes ne créaient que des éventualités, ne leur attribuaient que des probabilités et qu’il restait encore à jouer l’histoire. Et, parce que l’improbable n’est pas l’impossible, cette issue hautement improbable au début de l’année 1933 de l’accession d’Hitler au pouvoir va effectivement advenir, par un mélange de malchance et de décisions dramatiques prises par plusieurs décideurs de premier plan.

A la recherche de l’univers des possibles et impossibles des acteurs

La distinction entre éventualités et réalité nous permet de rejeter la sourde opposition entre déterminisme d’un côté et hasard de l’autre en ouvrant la voie justement à une reconnaissance de la contingence, qui fait que l’on peut à la fois expliquer causalement, a posteriori, ce qui s’est produit, sans que cela signifie que ce qui s’est produit était prévisible a priori.

Nous ne pouvons cependant en rester là. Nous nous sommes en effet, pour le moment, centrés uniquement sur le chercheur qui écrit l’histoire, nous nous sommes intéressés aux possibles ailleurs que ce chercheur construit à partir de son travail. Mais nous ne nous sommes toujours pas tournés vers les humains qui vivent cette histoire. Étant entendu que « quand il était « réel », [le passé] était tout autre chose pour ses acteurs, pour les hommes qui l’ont vécu : il était pour eux du présent, c’est-à-dire le point d’application d’un noeud grouillant de forces qui faisaient surgir hors de l’avenir incertain ce présent imprévisible »[39].

Or, dans ce présent, les possibles ailleurs qu’a construits l’historien ne sont pas nécessairement ceux que se construisaient ces humains, ou même un des humains de cette histoire.

Il s’agit de renverser la perspective et de se placer cette fois « à l’intérieur » de nos « étudiés ». Le chercheur a jusqu’alors repéré les possibles ailleurs; il a établi des éventualités. Soit. Mais comprendre ce qui s’est passé, pour les humains en question, n’est-il pas une manière d’éclairer comment une éventualité s’est transformée en réalité ?

Attention cependant, il ne s’agit pas de revenir au déterminisme et de laisser croire que si un humain a agi d’une certaine manière, c’est parce qu’il ne pouvait pas agir autrement. Et à l’inverse, il ne s’agit pas de laisser entendre que tout cela n’est que hasard, faute de quoi la discipline (l’histoire) elle-même n’aurait plus rien à dire. Là encore, et même au niveau de nos « étudiés », il s’agit de montrer que ce s’est produit est explicable a posteriori, mais n’était pas prévisible a priori.

En quelque sorte, selon la belle expression de Karl Popper, pour penser la liberté, il ne s’agit pas seulement de se demander comment « nous pouvons agir d’une manière imprévisible et fortuite, mais comment nous pouvons agir délibérément et rationnellement »[40].

Nous allons tout d’abord revenir à la théorie de l’action de Weber qui nous permettra justement de penser la rationalité, sans la replacer au sein du déterminisme. Ensuite, nous présenterons la théorie des possibles et impossibles d’Andreu Solé, manière de parler des « possibles » au niveau de l’étudié et non plus de l’historien. Enfin, nous montrerons comment l’on peut faire fonctionner ensemble ces théories.

Dépasser la distinction entre rationnel et irrationnel

Nous avions évoqué à propos d’Allison et Zelikow la question du modèle rationnel, et avions souligné qu’il s’agit là d’un modèle prédictif et déterministe. Mais la rationalité évoquée dans ce modèle est très réductrice. Elle s’appuie notamment sur les travaux de Herbert Simon, pour qui un comportement est « rationnel dans la mesure où il choisit des alternatives favorables à la réalisation des objectifs précédemment choisis »[41].

Or cette conception de la rationalité est très proche de celle que Max Weber nommait la rationalité en finalité : agit de manière rationnelle en finalité celui qui, dans une situation donnée, « oriente son activité d’après les fins, moyens et conséquences subsidiaires »[42]. Mais il utilisait ce concept justement pour l’opposer à une autre conception de la rationalité, celle « en valeur » : « Agit d’une manière purement rationnelle en valeur celui qui agit sans tenir compte des conséquences prévisibles de ses actes, au service qu’il est de sa conviction portant sur ce qui lui apparaît comme commandé par le devoir, la dignité, la beauté, les directives religieuses, la piété ou la grandeur d’une « cause » qu’elle qu’en soit la nature »[43].

Ainsi, dans le premier cas (rationalité en finalité), l’être humain choisit les actions dont les conséquences lui permettent d’atteindre ses fins tandis que dans le second (rationalité en valeur), il choisit celles qui, indépendamment de leurs conséquences, sont en conformité avec des principes.

Un des exemples les plus spectaculaires de la littérature est sans doute la situation de Rodrigue, dans le Cid. Venger l’honneur de son père, c’est perdre la femme qu’il aime. S’il avait été rationnel en finalité, il aurait donc évité une action dont les conséquences allaient être si désastreuses pour lui. Mais rationnel en valeur, il devait agir conformément à ses principes, quelles qu’en soient les conséquences.

Si Max Weber les place toutes deux du côté de la rationalité, c’est parce qu’elles sont conséquentes (confronté plusieurs fois à la même situation, l’être humain en question devrait réagir de la même manière), les raisons qui poussent l’humain à agir sont de plus conscientes, contrairement aux deux autres formes de l’action qui sont le comportement traditionnel et le comportement affectuel. Le comportement traditionnel, « manière morne de réagir », qui concerne notamment les routines, est également un comportement qui va se répéter mais, contrairement aux deux rationalités, il va se faire de manière non consciente, plus par habitude que par délibération; quant au comportement affectuel, par exemple les accès de colère, c’est justement l’exemple type du comportement non conséquent.

Mais, soulignant le caractère « conséquent » des rationalités, ne sommes-nous pas en train de revenir au démon du déterminisme ? Ne sommes-nous pas en train de chercher à démontrer que la personne étudiée ne pouvait pas agir autrement qu’elle le fit ? Max Weber ne dit-il pas lui-même que « l’activité rationnelle en valeur consiste toujours […] en une activité conforme à des « impératifs » ou à des « exigences » dont l’agent croit qu’ils lui sont imposés »[44] ?

Cependant, il convient de relever trois points. Tout d’abord, Max Weber précise qu’il s’agit d’une croyance. Ensuite, et quand bien même ces comportements seraient « imposés », cela n’explique pas pourquoi une personne, face à une situation donnée, choisira d’orienter son comportement vers la rationalité en valeur, plutôt qu’en finalité, ou pourquoi il sera orienté vers le comportement traditionnel ou affectuel.

Surtout, que se passe-t-il lorsque, à l’intérieur même d’une forme de rationalité, un conflit apparaît ? Ainsi entre deux fins contradictoires qui empêchent de choisir simplement les moyens pour la rationalité en finalité; ainsi entre deux principes contradictoires qui ne permettent pas un comportement conforme à ces deux principes en même temps.

Il me semble que la théorie que propose Andreu Solé nous permet de répondre à ces questions et s’articule par conséquent à la théorie de l’action de Max Weber; elle permet aussi et surtout de proposer une démarche méthodologique complémentaire de celle des possibles ailleurs précédemment évoquée.

Des « possibles ailleurs » aux « possibles et impossibles » des humains

Andreu Solé considère que, pour comprendre une décision, action, comportement d’un humain, il importe avant tout de repérer ses « possibles » et ses « impossibles ». Les possibles, ce sont les événements que cet humain, ou un groupe d’humains, considère pensables, envisageables. Les impossibles, ce sont les événements qu’ils considèrent inimaginables, tabous[45].

Il importe à ce stade de bien repérer que ces possibles et impossibles n’ont rien à voir avec les possibles ailleurs[46]. Si tout deux sont bien sûr construits par le chercheur, les possibles ailleurs concernent ceux que le chercheur se donne, par rapport à une histoire qu’il étudie, alors que les possibles et impossibles concernent ceux que les humains, les « étudiés », se donnent. Passer de l’un à l’autre consiste donc à passer du plan du chercheur à celui de l’acteur.

Bien entendu, dès que l’on mélange ces plans, on se met à brouiller les frontières entre le subjectif et l’objectif, voire entre le réalisme et le constructivisme.

En effet, les possibles et impossibles prêtés aux humains concernent directement les « sujets » et apparaissent comme une notion éminemment subjective. En même temps, ils sont « objectivisés » par le chercheur qui les traite comme des objets de recherche qu’il soumet d’ailleurs à ses pairs et au débat intellectuel. Et dès lors qu’il considère que ces possibles et impossibles sont susceptibles « d’avoir un effet », il n’est pas loin de les traiter de façon… très réaliste ! Car après tout, « la réalité, c’est tout ce qui peut exercer un effet sur […] les choses matérielles »[47]. Et ces possibles et impossibles sont largement susceptibles de produire des actions qui peuvent tout à fait avoir un effet très concret, y compris sur des choses matérielles…

A l’inverse, les possibles ailleurs que cherche à repérer le chercheur apparaissent a priori objectifs car issus d’un observateur qui n’est pas un acteur et qui soumet le résultat de ses travaux à ses pairs. Mais un autre chercheur peut tout à fait traiter le premier comme un acteur dans le cadre d’une histoire intellectuelle par exemple et considérer que les possibles ailleurs établis, tout comme d’ailleurs les possibles et impossibles prêtés à différents humains, sont largement issus de la subjectivité du premier chercheur. C’est d’ailleurs ce que fait Karl Popper lorsqu’il cherche à montrer le cadre intellectuel à l’origine d’une des théories de Galilée[48].

L’important est simplement de bien repérer les différents plans sur lesquels portent les deux approches. Les possibles ailleurs sont ceux des historiens (les chercheurs); les possibles et impossibles sont ceux de chacun des acteurs.

Une seconde différence fondamentale sépare les deux approches. Dans le cas des possibles ailleurs, le chercheur peut affecter à ceux-ci une probabilité. Une telle question est secondaire dans le cas des possibles et impossibles d’une personne.

Reprenons l’exemple du fait que Cuba soit déjà équipée d’armes nucléaires au moment de la crise. Bien sûr, à un moment donné, les Américains ont dû se poser la question, et peut-être même affecter une probabilité à l’événement « Cuba est déjà équipée d’armes nucléaires ». Mais au moment du processus de prise de décision concernant la réponse à apporter aux Soviétiques, il semble, d’après Alisson et Zelikow, que les dirigeants américains aient fait comme si Cuba n’était pas équipée de tels missiles. Cette éventualité n’a pas été jugée de faible probabilité. Elle n’a plus même été considérée comme une éventualité. Le fait que Cuba puisse être équipée de missiles nucléaires était devenu, pour ces dirigeants américains, un impossible. Certainement, si la question leur avait été posée, ils auraient sans doute été capables d’affecter à cet événement une probabilité. Mais le problème semble plutôt être qu’à un moment donné dans leur processus de décision, ils ne se soient justement plus posés la question.

Troisième différence, les possibles ailleurs établis par l’historien ne sont pas pensés dans une conception dynamique. Il s’agit de repérer, à un moment, où allaient les autres chemins possible. Dans le cas de l’approche par les possibles et impossibles, il faut bien garder à l’esprit la conception fondamentalement dynamique qu’elle porte. A tout moment, ces possibles et impossibles sont susceptibles de changer, de basculer, de se recomposer. L’important n’est pas tant de considérer comment l’être humain va jouer « à l’intérieur » des « marges de manoeuvre » de son espace des possibles, mais bien comment il va, ou du moins, comment il peut, en puissance, recomposer toujours ses possibles et impossibles.

Enfin, dernière différence, dans l’approche des possibles ailleurs, on oppose simplement ce qui est jugé possible par le chercheur et ce qui est impossible. Dans l’approche d’Andreu Solé, il convient de repérer à la fois le possible, l’impossible, mais aussi le certain.

Andreu Solé insiste sur le fait que les impossibles peuvent s’écrire sous la forme « impossible de… » ou bien, au contraire « impossible de ne pas ». Dans le dernier cas, cet « impossible de ne pas » désigne un événement considéré comme certain, comme inéluctable, par l’humain étudié[49]. Que s’est-il passé pour l’officier de veille américain qui, à Pearl Harbour, a vu apparaître de très nombreux avions sur son radar ? D’après Andreu Solé, il ne s’est pas dit qu’il était possible qu’il s’agisse d’avions américains. S’il s’était construit un tel possible, il aurait donc jugé, également, qu’il était possible qu’il s’agisse d’autre chose. Or, il n’a pas donné l’alerte. Parce qu’il a considéré qu’il était impossible qu’il ne s’agisse pas d’avions américains. Les Etats-Unis n’étant pas en guerre, les avions se dirigeant vers Pearl Harbour ne pouvaient donc être que des avions alliés[50]

Possibles, impossibles, rationalité et liberté

Jusqu’à présent, les quelques exemples que nous avons pris de possibles et impossibles (de, ou de ne pas) ont désigné seulement des événements, réalisés, ou à venir. Ainsi le fait que Cuba soit équipée d’armes nucléaires; ainsi le fait qu’il s’agisse d’avions japonais, etc.

Mais ils peuvent désigner tout autre chose. Non pas des événements extérieurs à l’individu mais plutôt des actions qu’il peut accomplir ou non. Car cette action (ou décision, ou comportement, etc.) peut être jugée impossible. Non pas qu’elle ne pourrait pas en soi se produire, mais parce que la personne ne peut pas accepter de l’accomplir : impossible d’obéir à cet ordre me demandant de tuer un innocent, par exemple.

En ce sens, les impossibles de ne désignent pas seulement l’inenvisageable, mais également l’inacceptable, le tabou. Quant aux impossibles de ne pas, ils désignent le certain, mais aussi l’inéluctable, l’obligatoire.

Et c’est ici que nous rejoignions la théorie de la rationalité en valeur de Max Weber. Car, au coeur de cette rationalité, l’on trouve des « impossibles de… » et des « impossibles de ne pas… ». Bien sûr, ces deux formes d’impossibles nous permettent de définir, en creux, ce qui demeure possible. Mais ce sont bien eux qui sont premiers. Et ce sont eux qui vont être susceptibles de « bouger ».

Lorsque Andreu Solé travaille sur les possibles et impossibles, il met l’accent sur les dilemmes susceptibles de se produire entre des impossibles contradictoires. Or, nous dit-il, ces dilemmes sont des moments de tension intense, voire insupportable, pour les humains. D’une manière ou d’une autre, il s’agit de sortir du dilemme. Ou bien en créant un nouveau possible qui rend conciliables les deux impossibles; ou bien en brisant l’un des impossibles[51].

Précisons que les tensions peuvent être à l’intérieur d’une rationalité, ou bien entre les deux rationalités. Reprenons notre exemple du Cid. Rodrigue est pris, au départ, dans un dilemme entre deux impossibles contradictoires : impossible de venger son père, et impossible de ne pas venger son père. Le premier est lié à la rationalité en finalité (impossible de venger son père car il perdrait la femme qu’il aime; c’est la fin qui pose problème); le second à la rationalité en valeur (impossible de ne pas venger son père car ses principes « le lui imposent »; c’est l’action – ou plutôt ici la « non-action », qui pose problème). Parce qu’ici, la rationalité en valeur l’emporte, c’est « l’impossible de venger son père » qui est brisé.

Même au niveau de l’humain dans l’histoire, nous pouvons écrire une histoire ouverte qui ne soit pas simplement une suite de hasard sur lequel l’historien n’aurait rien à dire. Les actions pourront être expliquées, a posteriori, en recherchant les possibles et impossibles qui en sont à l’origine. Mais le comportement reste, a priori, imprévisible car ces possibles et impossibles sont toujours susceptibles d’être renversés… par d’autres possibles et impossibles que l’on pourrait tout aussi bien expliquer après coup.

Au final, il ne s’agit pas de dire que l’homme est libre de faire A ou de faire B. Même la rationalité en valeur pourrait le conduire, lui « imposer » de faire A. Mais il ne s’agit que d’une éventualité, pas encore d’une réalité. Et l’être humain pourra toujours créer de nouveaux possibles et impossibles, ou les détruire. Bref, il pourra toujours, en puissance, ne pas aller là où, d’après les conditions initiales, il aurait dû aller. Non pas libre d’aller à droite ou à gauche donc, mais libre de ne pas aller à droite, lorsque tout aurait laissé penser qu’il serait allé dans cette direction.

Conclusion

Nous avons essayé, au cours de ces quelques pages, de montrer qu’il était légitime et pertinent de construire une histoire « ouverte » qui accepte l’idée de liberté humaine. Nous avons, pour ce faire, rappelé que la science ne s’opposait pas à l’idée de hasard et n’impliquait nullement le déterminisme. Et nous avons souligné les tentations et les dangers du déterminisme a posteriori.

Ensuite, nous avons exploré deux travaux empiriques qui, se plaçant clairement dans la perspective d’une histoire ouverte, apportent des éclairages pertinents et stimulants. Ce type de travaux, qui, à nos yeux, revient à rechercher les « possibles ailleurs », nous paraît être une condition nécessaire mais non suffisante pour penser la liberté. Nécessaire car tant que l’on considère que ce qui s’est produit n’aurait pas pu ne pas se produire, tant que l’on ne rejette pas la thèse du déterminisme, il n’est pas envisageable d’accepter l’idée de liberté. Non suffisante car il est toujours possible alors d’imaginer des êtres humains qui seraient soumis à un mélange de déterminisme et de hasard.

Nous avons alors opéré un basculement de perspective en nous intéressant non plus à la vision de l’histoire du chercheur, mais à celle des humains qui vivent l’histoire. Nous avons alors cherché à montrer comment le recours de nouveau au concept de « possible » était utile, même à ce niveau d’analyse, mais comment il était insuffisant, et que la recherche des possibles et impossibles permettaient d’aller plus loin.

Cette dernière perspective serait-elle alors suffisante ? Il nous semble au contraire que les deux perspectives, en partie contradictoires, doivent néanmoins être menées ensemble. Car se contenter de la seconde, c’est renoncer, pour l’historien, à offrir aussi sa perspective, les différents possibles qu’il construit et qu’il peut comparer aux possibles, impossibles et non-impossibles de ses étudiés. Enfin, c’est renoncer à parler de probable et d’improbable, renoncement légitime du point de vue de l’humain étudié mais dommageable du point de vue de l’historien : il n’est pas neutre, notamment par rapport à la question de la liberté, de dire que ce qui s’est produit était probable ou était hautement improbable, surtout lorsque les conséquences de cet événement sont considérables.

Bref, le chercheur fait face à un double travail : d’une part, ne pas oublier les « possibles ailleurs », ces possibles qui auraient pu se produire mais ne se sont finalement pas produits. Eventuellement, leur affecter des probabilités d’occurrence, pour travailler par différence. De l’autre, il doit encore travailler sur les possibles, impossibles de, et impossible de ne pas des humains qu’il étudie, repérer un éventuel renversement de ceux-ci, et les confronter aux « possibles ailleurs » qu’il a lui-même construit.

Ouvrant alors un espace pour penser la liberté, et pas seulement le déterminisme ou le hasard, nous nous approchons néanmoins d’un gouffre pour le chercheur. Ce dernier, en effet, n’a pas à juger; uniquement chercher à décrire, comprendre, ou expliquer. Mais dès lors que l’on introduit l’idée de liberté, nous ne pouvons pas ne pas être confrontés à la question de la responsabilité. Est-il alors possible de ne pas juger ? Non pas les valeurs des uns et des autres, on risquerait l’anachronisme, bien sûr, mais juger la conduite, les décisions des acteurs ?

Allison et Zelikow, je l’ai évoqué, le font de manière implicite par rapport à Krouchtchev et Kennedy. Henri Ashby Turner le fait, lui, de manière explicite, terminant son livre par un « procès en responsabilité » des différents acteurs, justifié à ses yeux par le fait que, si « l’on réfute la thèse du déterminisme, la question de la responsabilité doit être posée »[52].

Le chercheur peut-il assumer cette position ?