Corps de l’article

Introduction

La théorie du chaos déterministe nous a habitués à des situations où des équations parfaitement déterministes donnaient lieu à des comportements présentant toutes les caractéristiques d’un phénomène aléatoire. Nous allons décrire ici, par quelques exemples inspirés de la théorie des graphes et des paysages, de plus en plus utilisées en biologie contemporaine, la situation inverse. Des phénomènes purement aléatoires donnent lieu à des régularités largement déterministes, à telle enseigne que le « hasard » révèle des propriétés parfaitement prédictibles. Le concept de hasard[1] renvoie à des situations où l’on ne peut maîtriser (en fait ou en principe) entièrement les conditions d’existence d’un phénomène (alors qu’on en connaît peut-être les lois structurelles ou d’évolution) ou pour lesquelles on n’a pas accès à une connaissance précise de leurs lois (en raison de la complexité du phénomène par exemple). Quelle qu’en soit l’origine, dans un grand nombre de situations, dont les exemples abondent en biologie contemporaine, le « hasard » ne s’oppose en aucune manière à la prédictibilité et à la régularité.

Il est tout à fait classique d’affirmer que le hasard possède des régularités et des lois. Tout le calcul des probabilités repose sur cette affirmation. La loi des grands nombres traduit cela de manière explicite. Si vous lancez 1 000 fois une pièce de monnaie non truquée vous vous attendez à trouver un nombre moyen d’occurrences de « pile » et de « face » d’environ 500. Vos chances d’erreur diminuent d’ailleurs avec le nombre de lancers de la pièce. Nous sommes ici devant une grande régularité. Schrödinger[2] donne une belle illustration de ce fait en remarquant que la vérification de toutes les lois de la physique ou de la chimie est entachée d’une erreur. Si nous effectuons n mesures pour les vérifier, nous trouvons une erreur relative de n-1/2 qui tend vers 0 quand n tend vers l’infini. La présence de perturbations aléatoires n’empêche donc pas une prédictibilité avec quasi-certitude et cela est d’autant plus vrai que le nombre d’expériences augmente.

Un autre exemple classique est celui de Kakutani. Imaginons un mouvement brownien défini sur un segment de droite limitée par les points d’abscisse a et b et partant d’un point x à l’intérieur de ce segment. Considérons à présent le « jeu brownien » dans lequel vous gagnez 1 euro si la trajectoire brownienne partant de x atteint b avant d’atteindre a et 0 euro sinon. Le magnifique résultat de Kakutani (1944) est que l’espérance de vos gains est donnée exactement par une fonction harmonique G(x), dont les valeurs aux frontières de l’intervalle sont G(a) = 0 et G(b) = 1[3]. Le résultat se généralise aisément avec un mouvement brownien défini dans un domaine compact de l’espace limité par deux surfaces. L’espérance de votre gain lié à un jeu purement de hasard est parfaitement déterminée par une équation qui a priori n’a rien de stochastique, mais qui possède une profonde interprétation géométrique.

Nous allons distinguer deux domaines d’occurrence du hasard. Le premier est celui où le hasard est lié au processus qui engendre un réseau[4]. Le second est le domaine où le hasard intervient au coeur d’un réseau déjà constitué. Mathématiquement, un réseau est simplement un graphe, c’est-à-dire un ensemble de points reliés par des liens.

I. Le déterminisme des réseaux aléatoires

Nous allons considérer maintenant un processus aléatoire qui conduit à la formation d’un réseau. Prenons N points au hasard sur un plan. Pour chacune des N(N - 1)/2 paires de points possible on trace un lien entre ceux-ci avec une certaine probabilité p(N). Par exemple, pour chaque paire de points, je lance un dé à six faces et je trace un lien si le nombre 3 apparaît, ce qui correspond à une probabilité (si le dé n’est pas pipé) de 1/6. Ceci engendre ce que l’on appelle un graphe aléatoire[5]. La théorie des graphes aléatoires a été initiée par les mathématiciens Erdös et Renyi dans les années 1950. Si l’on devait résumer cette théorie en quelques phrases, on pourrait dire la chose suivante. Les propriétés des graphes aléatoires changent de manière brusque et radicale lorsque la probabilité p(N) atteint un seuil critique, N étant très grand (tendant vers l’infini)[6]. Une de ces propriétés est par exemple la connexité du réseau. Un graphe est connexe si deux de ses points peuvent toujours être reliés par un chemin (un ensemble de liens) du graphe. Si la probabilité de relier les points, p(N), est faible, le réseau a tendance à engendrer des groupes de points reliés non connectés les uns aux autres. Si p(N) est très grande presque tous les points sont reliés et le réseau forme un ensemble « d’un seul tenant », connexe. On conçoit donc aisément qu’il existe une probabilité critique où l’on passe d’un réseau disconnecté à un réseau connexe. Ce qui est surprenant et assez générique pour toutes les propriétés des réseaux aléatoires, c’est que cette transition se réalise de manière extrêmement abrupte. Erdös et Renyi ont montré que ce seuil critique où le réseau se « fige » dans un état connexe est déterminé par ln(N)/N. Si la limite quand N tend vers l’infini de p(N)/(ln(N)/N) tend vers 0, la connexité du réseau à une infinité de points est fausse à 100 %. Si par contre cette limite tend vers l’infini, la connexité du réseau à une infinité de points est vraie à 100 %. Même si le réseau est engendré par des processus aléatoires, on peut en déduire de manière absolument certaine certaines propriétés topologiques. Cette certitude vient en grande partie de cette transition brusque qui délimite de manière tranchée le régime non connexe du régime connexe. D’autres propriétés des réseaux de grande taille apparaissent[7] ou disparaissent[8] brusquement à un seuil critique de probabilité de liaison entre leurs points[9]. De manière générale, on a le comportement suivant. Soit Q une telle propriété d’un réseau à N points où l’on a choisi une probabilité p(N) de relier les points. Il existe une probabilité critique pc(N) telle que :

  1. si la limite quand N tend vers l’infini de p(N)/pc(N) tend vers 0, la probabilité que le réseau avec un nombre infini de points possède la propriété Q tend vers 0 ;

  2. si la limite quand N tend vers l’infini de p(N)/pc(N) tend vers l’infini, la probabilité que le réseau avec un nombre infini de points possède la propriété Q tend vers 1.

Ce genre de résultat a été utilisé par Stuart Kauffman[10] pour expliquer l’apparition, dans un monde prébiotique, de cycles auto-catalytiques, c’est-à-dire de boucles de réactions où un élément chimique contribue à sa propre production. Il considère un ensemble de N molécules qui ont une certaine affinité (une probabilité d’interaction chimique) p(N). Si le réseau est formé de ces molécules avec comme lien des réactions entre celles-ci, les résultats d’Erdös et Renyi montrent qu’il doit exister un seuil de réactivité au-dessus duquel apparaissent avec une quasi-certitude (probabilité 1) des cycles auto-catalytiques.

Même si de fait, en biochimie ou en biologie, on n’est pratiquement jamais dans des situations où les réseaux sont purement aléatoires, ce résultat est très instructif. En effet, il signifie que le caractère purement aléatoire des interactions entre des acteurs d’un réseau n’est pas du tout incompatible avec l’émergence, au sein de ce dernier, de propriétés prédictibles avec une certitude de 100 %[11]. Cette émergence est « commandée » de manière quasi déterministe par la variation de la probabilité d’interactivité des acteurs.

Donnons un autre exemple significatif de situations où l’on peut contrôler de manière tout à fait déterministe des réseaux de composants, aux comportements individuels purement aléatoires, en interaction. Il s’agit d’un système de synchronisation d’oscillateurs étudié par Y. Kuramoto[12]. Imaginons une série d’oscillateurs numérotés par i = 1,2 ;…,N de phase θi et de fréquence propre ωi. Ces fréquences sont choisies aléatoirement et sont caractérisées par une densité de probabilité de Lorentz. Le système dynamique qui décrit l’évolution des phases est le suivant :

k est une constante de couplage. Une des manières de décrire de manière quantitative le phénomène de synchronisation est d’introduire un paramètre d’ordre r(t) qui est nul si les oscillateurs sont désynchronisés. Kuramoto choisit de façon astucieuse :

Il trouve alors le résultat suivant. Lorsque le nombre N d’oscillateurs tend vers l’infini, il existe une certaine valeur critique kc telle que si k est inférieure à kcr est nulle et si k est supérieure à kcr prend brusquement la valeur finie (1 - (k/kc))1/2. Donc, la synchronisation des oscillateurs à fréquences aléatoires en interaction est en définitive un phénomène parfaitement déterministe et la constante de couplage sert de « commutateur » servant à enclencher la synchronisation.

Un exemple très important des propriétés déterministes des réseaux aléatoires est celui des réseaux appelés « small worlds[13] ».

L’origine de tels réseaux remonte aux travaux du psychologue Stanley Milgram. Celui-ci s’était demandé quel était le degré de « séparation sociale » existant entre deux habitants des États-Unis aléatoirement choisis. De quoi s’agit-il ? Supposons que Jean ne connaisse pas Pierre. Mais Jean connaît Luc, qui connaît Marie-Valérie qui connaît Thérèse qui connaît Pierre. Le degré de séparation de Jean et de Pierre est 3. En envoyant des lettres à des personnes en leur demandant de les réexpédier vers une personne spécifiée ou vers une personne dont ils soupçonnent qu’elle pourrait connaître cette personne spécifiée à l’avance, Milgram réussit à montrer que le degré de séparation sociale est d’environ 6. La société des États-Unis est un « petit monde » puisque chaque personne aléatoirement choisie n’est éloignée de n’importe quelle autre que par 6 personnes intermédiaires. On pourrait donner d’autres exemples de « petits mondes », par exemple le Web. On remarque que n’importe quel site aléatoirement choisi est séparé de n’importe quel autre par un très petit nombre de liens. Sur la « toile » tous les sites sont très proches. Ce phénomène est très intéressant car il montre de nouveau qu’un réseau où les acteurs ont un certain nombre d’interactions aléatoires, peut présenter une transition brusque vers un régime possédant des régularités étonnantes. Cette transition brusque est bien connue de tous. Lorsque nous sommes enfants, nous ne connaissons que peu de monde (notre connectivité dans le réseau social est faible !). En grandissant, on constate assez aisément que le « monde est petit ». En effet, deux trois sorties, quatre cinq rencontres parfaitement aléatoires, lors d’un mariage, d’un dîner ou d’une conférence scientifique, et nous voilà proche d’une multitude de personnalités jusque-là inaccessibles. Il existe en fait un seuil critique de rencontres au-delà duquel la distance moyenne dans le réseau social devient très petite, au-delà duquel le monde devient un village ! On voit donc que l’aléatoire n’interdit nullement une sorte de déterminisme : je sais que si je dépasse tel seuil de rencontres aléatoires, nécessairement mon degré de séparation sociale va chuter.

Cette propriété a des applications importantes en biologie. En fait la propagation rapide des épidémies se comprend aisément dans ce contexte. Quelques personnes contaminées effectuant quelques déplacements aléatoires dans le monde suffisent à contaminer un grand nombre de personnes dans le monde ; tout le monde se retrouvant à une distance très proche d’un malade. Le caractère « small world » de certains réseaux biologiquement importants (réseaux métaboliques, écologiques ou même réseaux liés aux reploiements des protéines : les points sont les acides aminés et les liens sont les liaisons faibles entre les monomères) explique leurs propriétés caractéristiques. Par exemple, dans un tel réseau la vitesse de transmission de l’information d’un point à l’autre est très rapide puisque la distance moyenne entre deux points est très courte.

II. La canalisation du hasard

Nous allons suggérer ici le fait suivant. Quand on met des « modules » (des automates) aux comportements aléatoires en réseau, leur évolution est fortement contrainte par la topologie du réseau, à tel point que l’on peut se rapprocher de situations quasi déterministes.

Prenons un premier exemple qui est inspiré de réseaux à modules redondants qui augmentent la fiabilité de systèmes technologiques ou biologiques. Pour simplifier prenons des modules qui fonctionnent aléatoirement et qui produisent un certain résultat avec une probabilité p. Plaçons deux tels modules en parallèle. Nous voyons que le réseau ainsi obtenu produit le résultat avec une probabilité égale à 1 – q2q = 1 – p. Or, 1 – q2 ≥ p. Nous voyons tout de suite que la disposition des modules en parallèle peut réduire de façon significative le rôle du hasard[14]. Ici, la présence du hasard n’exclut pas le déterminisme global parce que la topologie du réseau « étrangle », pourrait-on dire, l’aléatoire.

Considérons à présent une deuxième situation. Dans la plupart des réseaux d’acteurs, de machines (réelles ou simulées) biologiques en interaction, on définit une certaine fonction qui régit l’évolution des états de ces acteurs. Il peut s’agir d’une fonction d’énergie comme dans le cas de la détermination de la structure spatiale des protéines. Les acteurs sont ici les acides aminés. Il peut s’agir aussi d’une fonction d’adaptabilité à l’instar de celles qui sont utilisées en génétique des populations. Il peut s’agir enfin de la fonction monotone qui régit l’évolution des configurations d’un réseau de neurones formels vers des attracteurs. Si l’on analyse les propriétés de ces fonctions, on remarque, à la suite de Stuart Kauffman[15], que leurs propriétés dépendent étroitement de la topologie du réseau considéré et en particulier de la connectivité des machines (c’est-à-dire du nombre moyen de connexions qui lient une machine aux autres). Elles dépendent également de l’intensité des interactions entre les acteurs ainsi que de leur nature.

Pour des connectivités extrêmement faibles (peu ou pas d’interaction), la fonction définit, sur l’espace des configurations possibles des machines du réseau, une surface, un « paysage » qui ressemble soit à une cuvette (dans le cas énergétique) soit à un sommet montagneux (dans le cas de la fonction d’adaptabilité). Dans cette situation, il existe un extremum global d’énergie ou d’adaptation. L’évolution de ce genre de réseau est simple. À partir de n’importe quelle configuration tirée au hasard, on évolue naturellement vers une seule configuration optimale. C’est une situation ordonnée et parfaitement déterministe.

Pour des connectivités très fortes (tous les acteurs interagissent avec presque tous les autres). La surface définie par la fonction est une surface aux multiples pics ou vallées, qui ne laisse entrevoir aucun extremum dominant les autres. Cette multiplicité des pics et des vallées provient du fait qu’il n’y a plus un état du système qui serait optimal pour tous les acteurs car la multiplicité des interactions entraîne nécessairement une frustration importante. Ceci signifie, par exemple, que tous les acteurs ne peuvent maximiser en même temps leur adaptabilité ou minimiser en même temps leur énergie. L’évolution d’un réseau régi par une telle fonction est aléatoire. Si l’on tire au hasard une configuration initiale des machines du réseau, on ne peut prédire a priori quelle sera son évolution.

Pour des connectivités intermédiaires (généralement faibles), le paysage décrit par la fonction dessine soit un massif central bien identifié (cas de la fonction d’adaptabilité) soit une sorte d’entonnoir aux parois rugueuses, hérissées de petites vallées.

Ce genre de paysage est extrêmement intéressant. En effet, tout d’abord, il possède une cohérence, une forme globale, qui guide et contraint les configurations en les canalisant vers un petit nombre d’extrema globaux bien identifiés. Lors de son évolution, une configuration initiale tirée au hasard peut se retrouver piégée dans une petite vallée latérale, mais dans de « bonnes » conditions, elle finit toujours bien par arriver dans les configurations qui se situent au sommet du massif central ou au fond de l’entonnoir rugueux. Ce paysage est intéressant ensuite en raison justement de ses multiples vallées latérales, qui constituent des états stationnaires intermédiaires qui permettent aux configurations de se déformer de manière cohérente. C’est là une des sources de la plasticité biologique, fondement de la réalisation de bon nombre de fonctions essentielles au vivant. Et il n’est donc pas étonnant qu’un grand nombre de réseaux à différentes échelles du phénomène biologique possèdent les caractéristiques topologiques que nous venons de décrire et engendrent des « paysages » rugueux mais cohérents.

Un exemple significatif est celui des protéines. Les protéines remplissent une série de fonctions cruciales pour la vie. S’il en est ainsi, c’est essentiellement en raison de quelques configurations spatiales précises qu’elles adoptent, les configurations natives. Un des problèmes importants est de savoir comment une protéine réussit à partir d’une chaîne linéaire d’acides aminés à trouver, en un temps record, une des configurations natives alors qu’elle pourrait explorer, a priori, un nombre astronomique d’autres configurations. Une protéine peut être vue comme un réseau de petits modules, les acides aminés, en interaction. En général, le nombre de liaisons faibles qu’un acide aminé entretient avec les autres est peu élevé. De plus, le reploiement de la chaîne linéaire d’acides aminés qui formera la protéine fonctionnelle, se passe de telle manière à minimiser une fonction d’énergie. Nous voyons donc, à la suite de Frauenfelder[16], qu’il est naturel d’associer à une protéine une fonction définissant un paysage en entonnoir. Le fond de l’entonnoir est occupé par quelques configurations natives. La paroi de l’entonnoir est hérissée de multiples rugosités correspondant aux différentes conformations intermédiaires que peut prendre la protéine. Il peut arriver, que dans des situations énergétiques particulières, la protéine se retrouve piégée par une rugosité latérale : il s’agit alors d’une structure amyloïde qui ne possède pas du tout les mêmes propriétés fonctionnelles que la protéine « native ».

Si un grand nombre de systèmes biologiques est constitué de réseaux de machines à relativement faible connectivité et interagissant faiblement les uns avec les autres, il existe donc de nombreuses situations où les phénomènes constitutifs du vivant sont régis par des paysage rugueux. Ceci signifie donc que même si l’évolution des configurations des états des machines est largement aléatoire, cette évolution est fortement canalisée et donc prédictive. Cette idée de canalisation par un paysage est à la base des travaux anciens de Sewall Wright en génétique des populations et de Waddington en embryologie. Ce dernier imaginait un paysage épigénétique guidant l’embryogenèse et canalisant les configurations embryologiques par homéorhésie, une version dynamique de l’homéostasie de Claude Bernard.

La notion de fonction a une haute valeur évolutive. La sélection fait émerger des fonctions. Les fonctions sont liées à des conformations moléculaires ou à des interactions relativement faibles entre modules ou machines dans des réseaux à connectivité ni trop forte ni trop faible. Mais ce genre de réseaux contraint la forme du paysage des fonctions énergétiques ou adaptatives associées et lui confère une forme cohérente et rugueuse (multistationnaire) qui va en retour canaliser les évolutions des configurations. On peut dès lors comprendre que c’est le processus évolutif lui-même qui a engendré de très fortes contraintes de canalisation sur les évolutions a priori aléatoires.

Une troisième situation où la topologie d’un réseau contraint l’aléatoire est celui des réseaux invariants d’échelles (« scale free »). Ici, ce qui est aléatoire, ce sont les destructions locales opérées sur le réseau. On peut penser à des mutations qui inhibent l’expression de certains gènes dans un réseau de gènes en interaction (où il y a de nombreux gènes peu connectés et peu de gènes fortement connectés).

Même si la question reste sujet à débat, on peut dire que certaines études statistiques révèlent qu’un grand nombre de réseaux biologiques sont « invariants d’échelles ». Dans de tels réseaux, la loi de probabilité de trouver une connectivité moyenne d’un point (noeud) du réseau égale à k est donnée par une loi en 1/kγ. Ceci signifie qu’il existe beaucoup de points peu connectés et peu de points avec une très grande connectivité. Un exemple de tels réseaux à l’échelle humaine est celui des liaisons aériennes. Il existe un petit nombre d’aéroports accaparant un grand nombre de connexions aériennes et un grand nombre d’aéroports peu connectés. Par opposition, le réseau autoroutier est très souvent un réseau aléatoire au sens défini ci-dessus.

Considérons des attaques aléatoires consistant à éliminer des liens entre les points (noeuds) du réseau. On comprend aisément que dans les réseaux « scale free », la majorité des attaques ne produit pas un changement radical de la topologie du réseau. En effet, la majorité des noeuds sont à faible connectivité et donc une suppression de liens au niveau de ces noeuds peu connectés a peu d’influence sur la topologie globale et donc sur les propriétés du réseau. Le réseau invariant d’échelles présente donc une grande robustesse qui contraint le hasard à rester caché. Pour paraphraser Motoo Kimura[17], dans de telles situations, la plupart des mutations aléatoires restent neutres. Par contre, un petit nombre d’attaques ciblées sur des noeuds fortement connectés peuvent provoquer des changements radicaux de la topologie du réseau. Les réseaux « scale free » sont donc à la fois robustes et vulnérables. Assez robustes ils amortissent les effets du hasard mais, vulnérables, ils permettent éventuellement une innovation évolutive quand leur effet n’est pas entièrement destructif.

Que le hasard soit présent au niveau du comportement local d’une machine ou d’un acteur biologiques, qu’il se situe au niveau des interactions entre acteurs ou des pressions extérieures (attaques aléatoires), ce hasard est contraint, canalisé par le type (topologie) et la hiérarchie des réseaux d’acteurs considérés ainsi que par l’intensité et la nature des interactions qui lient les acteurs en réseaux. Or cette mise en réseau induit automatiquement des fortes contraintes qui soit étranglent l’aléatoire, le neutralisent ou lui donnent, à certains niveaux au moins, des régularités aussi fortes que celles que l’on trouve dans des phénomènes parfaitement déterministes. L’oubli de ces contraintes « latticielles » conduit à fausser la réflexion sur le rôle et l’importance de la dimension stochastique en biologie. Dans le domaine du vivant, on se situe toujours dans des situations où des acteurs sont mis en interaction dans des réseaux aux propriétés topologiques et structurelles (hiérarchies) bien particulières. On ne peut considérer le hasard indépendamment de ce contexte. Or celui-ci contraint de manière drastique l’aléatoire et lui confère des propriétés qui ressemblent à celles des systèmes déterministes. Christian de Duve[18] a beaucoup insisté sur ce genre de contraintes qu’il considère comme inhérentes à la vie et à son évolution :

Il me semble que l’allure de l’évolution illustre admirablement les notions cardinales du livre de Monod : le hasard et la nécessité ; mais qu’elle montre en outre qu’il existe entre ces deux facteurs une relation de réciprocité qui est fonction du temps. À partir d’une situation dominée par l’aléatoire et pratiquement libre d’évoluer dans toutes les directions, on voit sous l’influence de la sélection naturelle se contracter progressivement le domaine où le hasard peut jouer, diminuer en quelque sorte les degrés de liberté du système, en même temps que s’accélère le processus évolutif. Pour moi, ce resserrement progressif constitue une contrainte inhérente à la nature même de la vie et des mécanismes qui en règlent l’évolution, et qui doit s’exercer nécessairement partout où une certaine forme de vie apparaît.

Il est intéressant de noter que dans l’article dont nous venons de citer un passage, le grand scientifique belge utilise le terme « d’entonnoir évolutif » pour caractériser cette situation constitutive de l’essence de la vie et de son évolution dans laquelle le hasard est canalisé. La notion de paysage évolutif, adaptatif, donne au fond un contenu mathématique à cette idée et il n’est donc pas étonnant que cette notion se retrouve aujourd’hui au coeur de bon nombre de descriptions théoriques de l’évolution, de l’organisme ou du moins de certains de ses sous-constituants fondamentaux[19].

La pensée du professeur de Duve rejoint ici celle du mathématicien Émile Borel à laquelle d’ailleurs le Prix Nobel de médecine fait explicitement référence. Dans un de ses livres très éclairants, Borel déclare[20] :

Tout le monde admet que les êtres vivants sont le résultat d’une lente évolution à partir d’organismes élémentaires et, dans cette évolution interviennent certaines propriétés de la matière vivante qui ne permettent pas de dire qu’elle s’est accomplie suivant les lois du hasard […]. Certaines de ces propriétés de la matière vivante appartiennent d’ailleurs aussi à la matière brute, lorsqu’elle se présente sous certaines formes, telles que les cristaux. Il ne semble pas possible d’appliquer les lois du calcul des probabilités au phénomène de la formation d’un cristal à partir d’une dissolution plus ou moins sursaturée. Du moins, il ne serait pas possible de traiter ce problème de probabilités sans tenir compte de certaines propriétés de la matière, propriétés qui facilitent la formation des cristaux et que nous sommes obligés de constater. Nous devons, me semble-t-il, regarder comme vraisemblable, que la formation d’organismes vivants élémentaires et l’évolution de ces organismes sont aussi régies par des propriétés élémentaires de la matière que nous ne connaissons pas parfaitement, mais dont nous devons cependant admettre l’existence.

Les exemples que nous avons donnés ici sont quelques illustrations de propriétés typiques des systèmes constitutifs du vivant et qui, canalisant ou amortissant l’effet des phénomènes aléatoires, révèlent un aspect largement déterministe de certains processus biologiques.

Conclusions

La notion de hasard pur, comme celle de chaos total semblent n’avoir guère de consistance rationnelle. Chez Platon, la χώρα présente déjà une régularité même si elle est dominée par l’ἀνάγκη ! L’aléatoire ne prend sens que dans un jeu de contraintes qui le définit et en permet justement l’étude (on spécifie le type de variable aléatoire, l’espace des événements, …).

Mais ici on peut se poser la question de savoir s’il ne conviendrait pas d’inverser la perspective qui nous a guidé jusqu’ici dans notre approche du hasard. Au lieu d’un concept de hasard impossible à cerner, ne pourrait-on pas se risquer à dire qu’il existe plutôt une variété de déterminismes, ceux-ci étant plus ou moins « souples », c’est-à-dire présentant plus ou moins de contraintes, de régularités. La biologie avec ses contraintes propres liées aux modes d’organisations des formes et constituants du vivant ne partagerait pas le même déterminisme que celui qui est au fondement de la mécanique céleste, mais elle participerait quand même d’un type de déterminisme particulier. Le concept de hasard serait alors purement relatif, au sens où il n’existerait pas une notion absolue de hasard, mais une pluralité de significations du concept « déterminisme ».

Si l’on peut penser à juste titre, à la suite d’Émile Borel et de Christian de Duve, que « le hasard a ses contraintes », ne pourrait-on pas dire également, avec un autre regard, que « le déterminisme a ses souplesses » ?