Corps de l’article

« In jeder Zeugung spiegelt sich das All ».

Ernst Jünger

I. L’énoncé séculaire et minimal d’une position théiste

Le théisme, en sa version chrétienne, soutient qu’un être distinct de l’univers physique est responsable ultimement de son existence et qu’il a voulu y réaliser certaines fins déterminées dans un processus temporel. Il nous apprend de plus que nous sommes situés en une étape d’une création en train de se poursuivre[1]. Le temps étant pour ainsi dire rivé à notre corporéité elle-même, qui est assemblage et désassemblage incessant d’éléments plus simples lui servant de matériaux unifiés par une structure, de combustible pour leurs opérations et de nourriture pour emmagasiner de l’énergie, rend très difficile à notre pensée l’accès aux intentions d’un être qui posséderait la connaissance tota simul de ce qui est, de ce qui a été et de ce qui sera.

On pourrait être tenté de nier ces faits en quelque sorte « axiomatiques » en faisant valoir qu’il n’est pas sensé de tenir qu’un être divin et cause de soi puisse attendre la venue au jour de quoi que ce soit en enjoignant aux êtres conscients que nous sommes de ratifier un quelconque dessein qui leur aurait été proposé. Si Dieu est, et que nous pouvons voir et participer en lui à l’essence de tout ce qui nous est concevable, c’est qu’alors le temps et le devenir n’ont de réalité qu’illusoire. Sommes-nous dès lors en présence d’une objection, certes poussée à la limite, mais dans un effort d’échapper à la première position extrême tout juste exposée, elle-même intenable ? Les propositions comme celle de Spinoza, Bradley ou McTaggart sont en réalité des manières de sauver l’idéalisme absolu en le prémunissant contre les effets jugés inconséquents du dogme de la création, qui n’est pas qu’un dogme mais également une thèse capable de nourrir la méditation du philosophe, même s’il est douteux qu’elle aurait pu être historiquement dérivée par lui de l’expérience.

En fait, la position biblique, pour peu qu’elle nous serve à composer un concept cohérent de Dieu, n’exige ni l’immobilisme absolu du dieu purement conceptuel de Parménide, ni l’incompréhensible dynamisme immanent au monde et émergeant progressivement de lui tout en étant limité par ses ressources et sa finitude, à la manière de S. Alexander ou de A.N. Whitehead[2]. Si Dieu existe et qu’il est distinct de nous, il devra nous être pour une part connaissable par des actes qu’il aurait posés, des effets dont il serait responsable. Il faut en dégager une certaine volonté à l’origine de l’ordonnancement des choses, dont on peut penser que l’Auteur du monde a décidé de les placer dans un certain ordre de succession temporelle et qu’il reste en mesure de leur imprimer une tendance.

Lorsque par la suite nous portons attention au développement des sciences expérimentales et à leur type très particulier d’intelligibilité, nous devons prendre garde de ne pas sombrer dans une équivoque. Parler d’une tendance imprimée aux choses c’est faire intervenir un vocabulaire et une conceptualité que l’esprit scientifique ne reconnaîtrait pas facilement comme siens. On pourra remarquer que la philosophie chrétienne d’un Thomas d’Aquin a tenté le tour de force de réunir le premier moteur de la philosophie d’Aristote et l’idée d’un Créateur provident de l’univers. Du premier, on notera qu’il meut toutes choses en les attirant à lui comme à la perfection générale d’un élan propre à l’espèce et à ses membres qui courent en quelque sorte après l’actualisation complète de tout ce qui est implicite dans leur essence[3], alors que le Dieu Père de la révélation biblique voit à toutes choses comprises dans leur singularité, au sens où il n’y a pas une fleur des champs qui pousse en dehors de son concours, pas un cheveu de notre tête qui ne tombe sans qu’il le sache.

Il faut cependant s’empresser de remarquer à quel point la tendance motrice de tout être peut n’être pas comprise correctement lorsque nous projetons sur cette thèse du primum movens les idées relatives à un quelconque horloger céleste mettant en branle la poussée initiale d’autant de mécanismes liés par des actions de proche en proche. Cette conceptualité relève davantage des écoles déistes que de la philosophie christianisée d’Aristote. Nous aurions tort d’oublier que les grands scolastiques ont vu dans le principe de « mouvement-changement » tout autre chose que la simple action locale mécanique retenue par les successeurs de Galilée suite aux premiers succès de la mécanique en Occident. Il était destiné à inclure avant tout un effort d’élucidation de la dépendance et de la ressemblance de l’effet à sa cause. Le changement aristotélicien (μεταβολή), s’il désigne à la fois la genèse (γένεσις) et le mouvement (κινήσις), s’est vu constitué en concept avant tout dans un effort d’explicitation de la première. La genèse d’une forme à partir d’une autre forme pose des problèmes conceptuels encore plus grands à la science que les objections que nous pourrions élever, au nom des lois de la physique, à l’endroit de l’idée d’un appel inhérent aux créatures à retrouver leur véritable demeure dans une union finale et ultime avec le Principe qui les a lancées dans cette trajectoire qu’est leur existence empirique.

La cosmologie d’Aristote est sans conteste périmée si l’on pense à ses emboîtements de sphères célestes, mais il est parfois bon de se méfier de ce qui semble périmé. Derrière un complexus de faits relationnels, ce ne seront toujours que certains aspects déterminés qui seront déclarés incompatibles avec ce que l’observation ultérieure nous aura montré. Ainsi devra-t-il y avoir un contenu empirique associé au fait que les êtres organisés du monde environnant sont l’oeuvre d’une pensée où s’abouchent les commandes déclenchantes de leur organisation et la tendance qui les meut. Certes, on voit mal comment les méthodes courantes des sciences expérimentales pourraient mettre à l’épreuve une telle affirmation, ce qui nous oblige à identifier, entre l’empirique au sens usuel (que les néopositivistes avaient tenté un moment de circonscrire à l’intérieur de définitions opérationnelles), et ce qui est « transcendantal » en tant qu’il ne nous renseigne que sur la faculté cognitive humaine, un tertium visible par le degré de ressemblance et d’intégration à un schéma que nous pourrions qualifier d’« eupraxique ». C’est une épistémologie attentive à ce tertium situé entre l’empirisme d’ascendance humienne et le rationalisme (« critique » ou non), dont nous nous inspirerons dans cette étude.

II. Les caractères essentiels de l’intelligibilité scientifique

Le mode d’appréhension de la réalité associé à la science nous a permis de trouver cohérence et régularité dans la manière dont nous nous faisons une représentation du monde existant hors de nous. Elle nous livre ce qui paraît souvent au profane comme un « récit » particulier, qui est en fait un condensé d’expérience, qu’elle tente de rendre aussi court que possible, où nous n’aurions plus qu’à regarder en saisissant un minimum d’enchaînements, et dont nous n’aurions qu’à nous aviser pour savoir comment toutes choses obéissent à une détermination qui leur assigne l’influence qu’on devrait s’attendre à les voir exercer sur l’ensemble des objets qui les entourent. Ainsi son objectif n’est-il pas vraiment de nous raconter ce qui s’est passé, mais de nous donner des moyens de mettre en oeuvre les opérations même que nous jugeons avoir existé et avoir été utilisées dans la venue au jour de ce qui nous entoure, et ce peu importe l’époque de l’évolution cosmique dont nous traitons.

Dans un tel « récit », ce ne sont plus les métaphores et les autres idées organisatrices qui compteront, mais des concepts dont une série d’opérations et d’étapes d’expérimentation pourront nous donner toute la signification. Pour la science ainsi comprise, expliquer ce serait faire advenir, en vertu simplement de la présence d’une propension à une obéissance passive. Rien n’interdira à une entité de posséder un dynamisme, pourvu que la théorie puisse se l’approprier et en démonter le parcours réglé par des lois réversibles, à même d’être organisées dans une convenable circularité. Celle-ci devrait pouvoir, idéalement, être pensée en des termes où son application puisse se faire sans ce vague et cette indétermination du contexte d’application qui vient grever ce qui est incomplètement formalisé.

Il est des opérations que l’on peut parfaitement pratiquer fort longtemps sans être tout à fait en mesure de réaliser vraiment l’ensemble des implications de leur manière de s’accomplir. Ainsi, l’esprit inquisiteur peut-il, nous le savons, isoler des éléments de manière à tenter d’identifier des « briques » constituant le substrat le plus profond des objets que notre expérience macrophénoménale nous donne de rencontrer. L’histoire du développement des idées montre que la tendance des atomistes antiques d’invoquer le simple rapport entre les entités constituantes pensé dans des termes qui soient à peu près interchangeables avec les réalités mêmes que l’on se propose d’expliquer, n’est peut-être, après tout, ni la seule voie ni la plus prometteuse. Le choc qui sert d’exemple de la conservation de la force vive et de la quantité de mouvement n’est sûrement pas de ces chocs n’ayant d’autre particularité que celle de subvenir à un niveau subordonné de l’analyse et de la description. On peut du reste se demander si une telle attitude n’est pas par principe encline à favoriser une clôture présomptive de la démarche de connaissance. Elle nous laisse tout à la fois le message qu’aucun niveau d’intégration supérieur au réel donné dans la perception sensorielle n’est nécessaire pour rendre compte de ce que nous observons et de ce qui conditionne les aspects essentiels à théoriser dans la mise au jour d’une structure d’appartenance première à la terre, théâtre de déploiement du dynamisme inhérent à la physis.

Une tradition différente de l’explication se rend attentive à ce que nous pourrions nommer une « profondeur » suggérée par les choses, et elle refuse de poser en principe que l’esprit ne puisse « balayer » le réel que dans une direction. Elle enregistre le fait élémentaire qu’une entité intégrée à un niveau d’analyse et de vérification peut parfaitement être conditionnée dans ses actes par un rapport qu’elle entretient avec un facteur qui l’influencerait mais sans être immédiatement visible dans les interactions de proche en proche qu’une considération rapide pourrait nous fournir. En ce cas, l’entité dont tente de s’approcher le regard théorique a moins d’intérêt à être décrite d’une manière structurellement fermée qu’à être replacée dans le contexte dont l’isolation observationnelle l’a extraite. Ce que nous parvenons alors à identifier, ce ne sont pas seulement des coordonnées de localisation indifférentes qui pourraient tout autant décrire n’importe quel autre objet, mais un élément d’une progression théorique particulière, localisée et circonstanciée.

Une connaissance moins détaillée à propos des éléments qui ensemble constituent un niveau d’organisation, certes non souhaitable dans la mesure où n’existerait de possibilité explicative que celle que nous avons présentée comme ramassant l’intuition analytique, est toujours néanmoins compensée par une meilleure détermination des relations qu’entretiennent ces éléments avec ceux par lesquels passe le courant qui suscite leur fonctionnement et leur obéissance en termes de lois où nous pourrions prévoir et prédire. Ce que nous gagnons en pareil cas, en laissant le regard remonter par exemple de la molécule en direction de l’entité qui l’intègre, à savoir la cellule, plutôt qu’en pratiquant l’opération dissectrice inverse, c’est une information sur l’état du système. C’est ce même concept qui était implicitement présent dans les réflexions classiques sur les jeux de hasard, qu’elles soient celles de Cardano, Pascal ou Fermat[4]. Ce concept d’information a bien sûr été rendu opératoire, et maints biochimistes l’utilisent quotidiennement au laboratoire. Mais sa définition n’est applicable qu’aux cas très particuliers qui ressortissent du calcul des probabilités[5]. Il existe bien une information pensée en termes de quantités et appréhendée comme le logarithme négatif d’une probabilité, mais la question philosophique posée par sa présence témoigne de ce que, en admettant qu’elle soit toujours logée dans une conscience qui puisse s’en prévaloir pour communiquer un canevas organisationnel, nous devrons peut-être, nous y reviendrons, obligatoirement rendre compte de la présence encadrante de l’esprit capable de la lire et de la décoder.

Celle-ci nous donne, nous le disions, comme un canevas que nous pourrions, dans un premier temps, penser dans les termes d’un modèle interchangeable de toutes les relations qui auront nécessairement cours dans un environnement semblable, peu importe le détail des conditions auxiliaires. Mais en fait, là où l’approche légaliste et analytique ne voyait les légères divergences par rapport au comportement préprogrammé dans la loi que comme des perturbations insignifiantes pouvant être négligées sans dommage pour la tentative explicative, nous devons comprendre que dans le cas que nous évoquons il en va autrement. S’il est exact que les relations des niveaux d’organisation sus- ou sous-jacents influencent ce que nous observons tout en restant suffisamment dissimulées pour que l’approche la plus classique les ait souvent laissées dans l’ombre, nous devrons nous rendre plus attentifs au fait que la théorie obtenue par une approche intégratrice nous livre un compte rendu d’une loi de devenir et d’évolution qui synthétise en quelque sorte les irrégularités, les imprévus et les singularités résistant au balayage unilatéral dont nous avons dit quelques mots.

La visée explicative d’une conception dominante en épistémologie

Tout cela suggère une attitude assez différente dans l’ordre du travail scientifique et dans celui de sa justification épistémologique. Nous semblons alors portés à la recherche scientifique par une forme de saturation d’un regard qui accepte de prendre le risque de l’engagement à la recherche d’un objet que d’aucuns pourraient considérer comme un mirage de l’imagination. L’esprit scientifique suppose comme une jeunesse de l’âme et la capacité de voir toujours du neuf là où tous les passants — et nombre d’empiristes — ne perçoivent que monotonie, régularité et obéissance à d’immuables lois.

C’est pourquoi finalement la vision légaliste du reconstructionnisme logique est insuffisante et ignore la psychologie de la recherche. Les systèmes formalisés qui font l’orgueil de l’esprit de géométrie ne prennent leur essor que moyennant l’établissement antérieur de signes pourvus d’une signification qui fasse intervenir une compréhension. Ce n’est que par la suite, en faisant abstraction de cette valeur, qu’on pourra les formaliser d’autant plus « aveuglément » que l’on saura d’avance ce que l’on manipule[6], pour finalement conférer une interprétation au système achevé. Mais pour être digne de l’esprit scientifique de nos devanciers, après tant de succès éclatants et de grandes synthèses laissées par le passé, il faut être capable de percer le mur des lois, d’en postuler de nouvelles et de raccompagner par la pensée la venue au jour de celles qui nous semblent les plus immuables et les mieux assurées.

On comprend dès lors l’impossibilité d’une séparation radicale de la science et de la philosophie, car cette prudence du métaphysicien au regard de l’illusion du monde des sens, qu’est-ce qui en motive l’exercice sinon une profondeur postulée du réel, un au-delà des choses qui apparaissent ? Nouvelle mise en échec pour le reconstructionnisme logique au dire duquel tout est donné avec le contenu de la perception. Le réel y deviendrait simplement la totalité des expériences sensorielles que présuppose la science et qu’elle réorganise logiquement de manière déductive[7]. Il ne s’agit pas là en réalité d’une absence de métaphysique, mais d’une gnoséologie parménidienne à laquelle il est adhéré sans esprit critique. Comme le remarquait Paul Weingartner, une approche comme celle du premier Wittgenstein semble fondée « sur le présupposé qu’il y a un nombre constant (fixe) de problèmes authentiques[8] ». Avant de critiquer sur ce point la méthodologie et la logique des sciences, il faut avoir considéré les liens qui la rattachent à l’idéal de la rationalité antique, cadre où l’on comprit d’abord que l’affirmation contient plus d’information que la négation. C’est pour cette raison que la pensée scientifique moderne est parménidienne tout comme la logique : « […] il est absurde de se proposer de former des idées négatives. La seule excuse serait l’existence d’un non-être dans la réalité[9] ».

Il y a cependant une part de « wishful thinking » dans cette pensée pour laquelle le simple détournement de l’esprit connaissant, son absence ponctuelle de visée, ferait pour ainsi dire retomber dans le néant le réel momentanément laissé à lui-même. Un tenant de cette position qui aurait vécu au xixe siècle serait parfaitement fondé à accuser son confrère du Wiener Kreis d’avoir admis dans sa synthèse du non-être en intégrant par exemple un postulat comme celui de l’isotropéité de la lumière. Un Maxwell ou un Boltzmann assistant à une série de conférences sur la relativité ou sur la théorie quantique quitteraient possiblement l’auditoire en protestant qu’on se moque d’eux et qu’on leur fait perdre leur temps.

Mais pourtant, la science moderne n’a pas pris le parti de la logique de l’attribution intemporelle et universelle[10]. Cherchant à se rapprocher du fait dans son devenir et à en épouser, par transposition dans un monde idéal, la structure formelle dans toute son évolution, la science cherchera une logique fonctionnelle et relationnelle qui lui permette de faire de la réalité observée un complexe de rapports toujours décomposables, une substance unique indéfiniment analysable en faits relationnels élémentaires. Si l’on cherche à coïncider avec le mouvement d’un mobile, le meilleur exemple d’un fait scientifique sera donné, comme le suggère Harré, par un éclair d’occurrence discontinue et instantanée[11]. Nulle contradiction entre l’atomistique primitif, l’instantané, et cette procession qui résiste à toute conceptualisation, car précisément le grand geste de la science est de s’être donné des termes dont la présence et la disponibilité ne posent aucun problème, dans la mesure où ils sont déjà intégrés à un tissu, un stuff qui ne risque pas d’être transpercé. Une relation appréhendée entraîne avec elle une chaîne de liaisons de proche en proche où l’on peut voir, mais dans le cadre d’une autre démarche, à quel point il y a perpétuation, à travers les dénégations les plus fortes, d’un enracinement qui n’est spécifiable que dans le cadre d’une réflexion métaphysique : dans ce dernier cas, il s’agira bien entendu du concept d’un plénum dans lequel les occurrences récupérables ne contiennent pas d’interstices où se glisseraient de troublantes inconnues.

L’au-delà « nouménal » sera récusé au profit d’une culture de cette capacité étonnante de l’esprit qui sait rester attentif au singulier, même et surtout parce qu’il lui faut pour ce faire nier toute hiérarchie ontologique. Par rapport à la logique du concept et de l’universel, nous verrons donc le développement de ce qu’il faudrait nommer une réduction du discours au niveau du prédicable dans l’ordre de l’accidentel nécessaire, par affirmation d’une propriété.

Ces logiques contiennent une préadaptation à la pensée du pur devenir car, s’articulant non plus autour des termes et de l’attribution mais plutôt de l’enchaînement de rapports renaissant entre des propositions elles-mêmes inanalysables en faits plus élémentaires, elles permettent par focalisation méthodique et momentanée de rejoindre un semblant d’immobilité puisqu’elles se déterminent à partir de l’affectation d’une nécessité stable à l’expression des successions temporelles[12]. La logique catégorielle de l’attribution universelle ne peut quant à elle, à partir du morcellement qu’elle a fait subir à l’indistinct primitif, recomposer du mouvement, aussi portera-t‑elle ses efforts à la réintroduction de ses termes dans la forme qui, par application à un divers, pourra être dite occasion de genèse.

Il reste à voir si cette pratique peut rendre compte du surgissement hors de ce tissu de relations, qui est précisément le moment de l’invention du schème intelligible anticipant ses vérifications. La pensée scientifique ne cesse de se donner des moyens qui témoignent de l’ascension vers une généralisation toujours plus intégratrice à partir de quelques observations protocolaires empiriques. Mais il est permis de douter que ce soit la considération de ce qui est saisi et possédé par le réseau syntaxique de l’explication scientifique qui fournit l’énergie nécessaire à une perpétuelle reprise de l’effort de clarification. On pourra assurément tenter de retracer une lointaine filiation à cette approche de la science, comprise dans une certaine isolation de toute l’opacité qu’elle rencontre, à laquelle il demeure toujours possible d’opposer une ignorance locale et épisodique appelée à se dissiper lorsqu’une meilleure représentation des faits sera disponible.

Une conception qui eut un large succès en épistémologie soutient que le travail scientifique consiste à lier des observations élémentaires, spécifiables en un ensemble de conditions initiales, à des lois préférablement causales ou déterministes, qui permettent de transformer un événement à expliquer, par le mode déductif, en instance confirmatoire. Nous pourrions l’illustrer rapidement à l’aide d’un schéma dû à Carl Hempel[13], un des épistémologues qui ont fait le plus pour répandre cette conception « nomologico-déductive » :

forme: 000628arf001n.png

Dans un tel mode de pensée, la structure qui traverse le temps et peut recevoir différentes propriétés comme différents couples de contraires, celle qui tient l’exigence de substantialité sans laquelle toute faculté de penser et de se situer dans un divers nous serait retirée, ne sera considérée que comme une représentation auxiliaire, tolérable en vertu seulement de l’infirmité de notre pensée, incapable de toujours voir sous le jour de la parfaite clarté. L’essentiel est de formuler le principe, nous dit-on, et d’en extraire ce qui s’y trouve contenu sans que le problème d’en rendre raison se trouve thématisé comme tel. Le présupposé est ici qu’il est toujours possible de transformer les prémisses de telle façon que l’une devienne une proposition conditionnelle alors que l’autre sera convertie soit en antécédent, soit en conséquent. Une attention exclusive accordée à l’expression sous forme de conditionnelle entraînera le développement d’une conception purement « événementielle » de l’explication scientifique, cette dernière ne décrivant plus alors que les états successifs d’un objet mais non l’objet lui-même.

Mais une science est davantage qu’une recherche d’occurrences enregistrées statistiquement. Bien plus que de colliger des régularités de manière disparate, la science cherche de quelle façon une structure, représentée par un modèle, renferme certaines propriétés dont elle seule possède le secret de production. De cette façon, c’est bien dans l’espace intuitif à trois dimensions que le mouvement de progression de la pensée scientifique nous ramène toujours, mais vers un sensible qui serait réconcilié avec l’intelligible se laissant voir en lui. Pour nous faire une juste idée des motivations réelles de la recherche, il faut savoir être attentif à l’invisible, en comprenant du même coup que l’homme n’aura jamais une aussi grande envie de construire une représentation que lorsqu’il se trouve devant ce qui ne se laisse pas représenter :

On peut bien sûr porter une structure à l’esprit en la décrivant, mais on ne peut se faire une image de la conditionnalité. C’est la possibilité de nous approcher d’un état où nous convertirions tout ce qui nous entoure en mots, sans la possibilité de tout convertir en images, qui nous a peut-être conduit à l’erreur de supposer que le mode conditionnel seul est ce que nous avons à convier à ceux qui nous entourent comme étant scientifique, comme si la partie descriptive n’avait, pour appliquer le mode conditionnel, qu’à énoncer des conditions initiales. Pourtant, cela laisserait à l’écart le noyau essentiel d’une théorie, sans lequel nous ne pourrions atteindre aucune certitude à l’effet qu’une séquence d’événements puisse se produire autrement que d’une manière accidentelle[14].

On peut douter qu’il soit absolument nécessaire de chercher les explications scientifiques où il nous sera possible de replacer un explanandum dans le noeud d’interconnexion structurale de l’explanans. Cette exigence logique sera de toute façon satisfaite du seul fait que nous puissions observer des régularités nomiques. Du même coup, l’essentiel sera redéfini alors qu’il y aura beaucoup plus d’intérêt à chercher une structure et un mécanisme d’explication qu’à manipuler des idées générales d’où l’on pourrait tirer des instances confirmatoires en n’importe quel contexte. Ce sont alors les propositions conditionnelles organisées en système déductif qui deviendront de simples heuristiques.

Il nous semble beaucoup plus profitable, comme le proposait Harré dans sa « révolution copernicienne » en théorie de la connaissance, de tenter de renverser le programme logiciste en montrant que la visée doit porter sur l’invention de modèles et d’explications hypothétiques par l’analogie ou toute autre méthode heuristique[15]. En partant ainsi des cas qui se laissent intégrer dans une relation fonctionnelle, nous verrons les scientifiques se rendre eux-mêmes à la position de nouveaux problèmes exigeant que l’imagination remplace la seule faculté de classement selon la constitution de notre mémoire qui, d’elle-même, ne doit pas être placée au point de départ et sans aucune mise à l’épreuve en rapport isomorphique à la structure de la réalité. La venue au jour de mécanismes inédits ne sera possible que dans l’interaction maintenue entre ce que le philosophe devra bien nommer l’intériorité de l’objet et les manifestations tangibles qu’il ne cesse de produire.

III. L’inévitable « détour » inhérent à la science mécaniste classique

Il n’est pas possible de penser l’esprit comme commandant directement l’activité métabolique et le déplacement des membres sans faire intervenir ses effecteurs subordonnés et, à l’intérieur de ceux-ci, les lois de leurs domaines propres et respectifs. Mais on fera bien de se rappeler les grandes énigmes et paradoxes de la physique classique. On a commencé par étudier les lois du mouvement, de l’action-réaction, de la proportionnalité de la force et de l’accélération, en réfléchissant à partir de mobiles soustraits à toutes les influences qui brouillent l’obéissance parfaite à la loi physique dans quantité de situations quotidiennes, au-dessus desquelles l’on n’avait pas su s’élever jusqu’alors. Le comportement d’un mobile du type boule dure roulant sur un plan incliné permettait de penser une perduration indéfinie de la quantité de mouvement lorsqu’elle n’est pas entravée. On savait bien que de plus petites quantités de matière, que rien n’interdisait au théoricien de penser comme indivisibles et insécables parvenues à un certain ordre de grandeur, devaient abriter en elles le secret de cette conservation de l’impulsion. Sauf que personne n’était vraiment en mesure de définir avec précision cet ordre de grandeur. Les corps qui étaient le pendant psychologique à l’origine de la formation du concept de point matériel dans la physique newtonienne se devaient d’être conçus comme un système de tels points matériels obéissant, de manière atomistique, aux lois de mouvement. Pour traiter le continu, tel du moins que nous le percevons dans les objets usuels, on avait inventé la mécanique des corps déformables qui permettait de parler des corps en faisant d’eux un ensemble de points doués de masse et soumis aux équations de Newton, dont seule la très grande proximité permettait le passage à un effet de (simulation d’un) continuum. Ainsi avait-on déplacé l’obéissance aux lois de la dynamique newtonienne des corps macroscopiques jusqu’à leurs entités constitutives considérablement plus petites mais censées leur obéir pareillement.

Dans ces circonstances, il est peut-être moins difficile de comprendre les résistances fort nombreuses des meilleurs représentants de la chimie de la fin du xixe siècle face à l’hypothèse atomiste. Lorsqu’on voulut chercher ces entités abritant en elles le secret d’opération de ce mécanisme, que l’on tenta de se faire une idée juste de leurs dimensions véritables, il fallut bien admettre que les forces transformables dans les termes des équations différentielles totales s’appliquaient en fait à un nombre immense d’atomes, puis à des groupements moléculaires. Ce que l’on est bien obligé de dégager alors, c’est que leur application est de type statistique, que ce sont des agrégats de milliards d’atomes qui, en fait, obéissent aux lois de la mécanique. Or, la vérité de la mécanique ne doit pas être, si elle s’inspire véritablement de l’idéal constant de l’explication intégrale, une simple tendance obtenue à partir d’une sommation d’un nombre immense de constituants élémentaires. Il y aurait quelque chose de paradoxal et de finalement peu satisfaisant pour l’esprit à simplement s’en contenter. Les explications de ce type peuvent certes nous aider à deviner dans quel sens, selon quelle orientation de vélocité « populationnelle » le mouvement devra se propager avec une probabilité voisine de la certitude, mais en raison de ce que nous savons aujourd’hui être une « décohérence » quantique.

Ce qui cependant s’applique à des phénomènes de foule, à des lois des grands nombres, ne peut convier d’autre impression que celle d’un phénomène dérivé. Une connaissance obtenue sur des éléments combinés par les méthodes de la statistique est toujours, par définition, perte d’une information portant sur chacune des entités particulières ayant été sommées. La moyenne d’âge de décès d’une population n’empêche que tel individu clairement identifié mourra, lui, à un âge strictement déterminé quantitativement. Nous savons que le comportement d’un seul atome n’obéit pas à ce qui vaut pour un nombre immense dans une enceinte où l’énergétique et la thermodynamique nous permettent de prévoir leur action dans un fonctionnement d’ensemble. Il n’est peut-être pas étonnant après tout que nous ayons à penser une inversion dans l’« orientation » suivie par le regard théorique qui considère attentivement de tels phénomènes. Les premiers résultats théoriques de la mécanique avaient été obtenus en se basant sur une extrapolation, et il n’est que normal que nous ayons à en « déficeler » les effets en sens inverse.

Mais sur quoi nous appuyer alors ? On peut prendre deux directions. Soit prétendre qu’en réalité le corpuscule est non seulement une apparence créée par un « paquet d’ondes » et ne fournissant que des localisations particulières momentanées, mais qu’il ne fait que remplir des « cases vides » nécessaires à notre représentation coutumière qui a tort de déplacer dans l’ordre microphysique les habitudes entraînées par notre situation macrophénoménale où, un nombre immense d’atomes étant impliqués, nous pouvons encore espérer trouver des localisations spatiotemporelles précises qui ne vont pas se dissoudre pendant que nous les cherchons. On dira que le formalisme mathématique peut parfaitement rendre compte seul du fonctionnement que nous constatons alors, que nous n’avons affaire qu’à des systèmes dont nous calculons la probabilité de présence en faisant intervenir une équation différentielle partielle dans un espace de configuration à plusieurs dimensions. Mais qui ne voit que c’est, là encore, admettre l’état dérivé de ce que nous observons. On peut certes être tenté de reconstruire le monde de l’expérience à partir de ce que nous connaissons du monde quantique[16], mais ce qui sera en pareil cas introduit et proposé à notre considération reversera le tout, au plan épistémologique, à des questions relatives à la réalité de nos perceptions.

Pour celui qui ne se considère pas contraint à l’adoption d’un pareil détour, la question de l’existence physique ne saurait s’évanouir par des artifices mathématico-idéels. Ce qui met en exercice nos sens, leur procurant la stimulation nécessaire à un décodage, doit pouvoir être atteint par leur moyen et ne peut acquérir des propriétés différentes simplement à partir du fait qu’il coexiste dans un ensemble en compagnie d’un nombre aussi élevé qu’on voudra de semblables éléments. En fait, il ne peut y avoir, du niveau le plus petit considéré, jusqu’à celui correspondant à notre échelle, que transformation dans le sens d’une perte non seulement d’individualité mais de ce qui est propre à une « unicité » au sens philosophique[17]. Si le calcul ne parvient à se faire une idée du phénomène que secondairement, c’est sans conteste parce que ce qui est considéré a été obtenu dans le temps à partir d’un effet de retardement. Comment nous en assurer ? L’expérience montre que, si nous parvenions à penser l’opération d’un seul atome, nous ne le percevrions pas comme obéissant aux lois de mécanique newtonienne, mais comme soumis aux influences d’un champ. Celle-ci nous montrera à son tour qu’il se comportera non par encadrement d’une contrainte d’extrémalité, mais par soumission à un milieu d’attraction qui rend impossible de penser toutes les transitions graduelles et infinitésimales d’un mobile tel que l’exigerait le calcul classique. C’est qu’il y aura bien en pareil cas comportement et non pur fonctionnement mécanique par poussées, propagation progressivement impartie de l’énergie ou collisions moléculaires interindividuelles.

IV. Le premier point « nodal » : l’objet biologique

Même en favorisant ainsi l’approche par la synthèse, il est douteux que nous puissions obtenir de la science le « déficelage » de ce qui tient rassemblées les unités organiques et les liaisons sous l’égide d’un principe d’organisation qui nous montre phénoménalement l’action et l’opération d’un logos dans la matière même. En effet, si notre « canevas » ne nous laisse en réalité qu’une information, il n’est pas encore immédiatement évident que celle-ci puisse correspondre à un langage récupérable et dont nous puissions assimiler aisément la sémantique incluse. Nous savons que la simple augmentation des sélections binaires correspondant au logarithme d’une probabilité suffit pour que l’on parle d’information. L’information que nous trouvons dans l’organisme pourrait ainsi y avoir été inscrite, nous rétorquera-t-on, d’une manière purement stochastique. Il y a de l’information dans toute organisation pour peu que nous voulions en trouver, la manière dont elle s’y est retrouvée n’ayant pas à être thématisée comme telle. Concédons-le provisoirement.

Mais à moins que, de manière poppérienne, on ne nous interdise de faire intervenir quoi que ce soit de ce qui concerne le contexte de découverte, sous prétexte que cela ne ressortirait pas à la science, la discussion ne sera pas close pour autant. En effet, saisir ces relations obtenues entre les éléments n’est pas une pure illusion d’optique créée par le fait de remonter en direction des ensembles les plus intégrants, comme si elle était interchangeable avec le regard procédant dans l’autre direction, c’est aussi gagner une possibilité de « mettre en forme », obtenir sur le système considéré l’avantage que donne quelque chose comme une « réserve de temps[18] ». Il importe donc de distinguer deux manières d’informer, une qui se demande à quel point une séquence d’origine a été brisée (cas de l’information identifiée à l’origine à une quantité d’« entropie »), puis celle que l’on voit dans une organisation qui ne va pas simplement à contre-courant d’une tendance absolument universelle, comme les molécules qui orientent toutes leur mouvement dans la même direction, mais qui se différencie « qualitativement » en ce qu’elle réalise d’abord la quantification d’une forme dans son unicité[19], alors qu’on peut également dire, ensuite, qu’elle en conserve la capacité d’applicabilité universelle, au sens où dans le triangle est contenu le secret d’application à n’importe quel substrat de tous les triangles vrais imaginables. On sait comment cet argument influença les philosophes rationalistes du xviie siècle.

L’énigme de la hiérarchie fonctionnelle

Nous nous comportons comme si les phénomènes naturels les plus coutumiers obéissaient passivement aux instructions physico-chimiques où le plan entier de leur développement serait précontenu. Il est indéniable que depuis les succès, et même le triomphe de la mécanique en Occident, notre attention se soit fixée presque uniquement sur les réalités n’obéissant qu’à une finalité prédéterminée, et en ce sens ne témoignant que d’un fonctionnement par poussées et actions locales. Lorsque cependant nous devons rendre compte du développement d’un végétal, il n’est pas sûr que l’appel aux théories courantes de la biophysique nous permette de cerner intégralement le phénomène. C’est une chose pour la photosynthèse de permettre le stockage dans l’adénosine triphosphate des cellules chlorophylliennes de l’énergie fournie par les photons, et c’est encore autre chose que d’opérer le développement et la différenciation des parties à partir d’une ébauche primitive. Une énergie d’orientation des vélocités moléculaires peut certes faire comprendre où se trouve le combustible propre à canaliser différents déplacements et montages en chaîne catalytiques, en vertu d’un ordre homogène d’où on peut tirer un travail, mais les positionnements dans l’espace selon un plan capable d’adaptation (nous avons tous déjà vu un arbre modifier sa trajectoire pour s’adapter à une clôture et passer à travers elle) ne peuvent être liquidés à si bon compte.

S’aviser de calculer le contenu informationnel du texte fourni par les séquences des nucléotides ne fera que manifester l’insuffisance de ce « code-script » dérisoirement trop court pour abriter en lui le secret de développement des organes. D’une part en effet, les propriétés du message capable de spécifier la construction du vivant, s’il est douteux qu’elles puissent en rendre compte intégralement, ne peuvent avoir surgi par accumulation de microévénements bruts. Exactement comme une phrase ne saurait être composée que de ses seuls mots, puisqu’à prendre les mots dans un ordre différent elle ne subsisterait plus et serait immédiatement détruite, la signification des mots étant toujours déterminée par une langue naturelle et n’étant jamais intrinsèque à l’arrangement des lettres. Ainsi devons-nous voir dans le message qui entretient le vivant une caractéristique générale de tous les messages, celle d’être, comme le reconnaissait un des meilleurs spécialistes de la théorie de l’information, une réalité qui n’est pas matérielle bien qu’elle possède un contenu d’information mesurable[20]. Seule une forme peut conduire à la construction d’une forme, en vertu d’un transfert d’ordre, mais d’un ordre non plus seulement homogène comme l’est celui du physicien mais structuré, et dans le cas que nous envisagions notre séquence ne semble contenir tout au plus que des signaux d’exécution.

D’autre part, tout nous autorise à postuler qu’il existe un hiatus important entre ce que permettent de spécifier les lois scientifiques connues et ce qui est accompli sous nos yeux par n’importe quel des organismes vivants que rencontre notre regard. Ce déficit informationnel est compensé par un « savoir-faire » héréditaire, par des signaux mnémoniques qui attirent d’une manière qui ne peut être que faiblement suggérée par la mécanique, et encore seulement celle des champs et des potentiels. Ici pourrait se profiler une autre approche moins statistique et davantage géométrique. En effet, le biomathématicien pourra nous apprendre que le système vivant, lorsqu’il est capable de réorganisation en augmentant le nombre de ses niveaux, montre, à la différence de la matière inerte évoluant vers l’équilibre thermodynamique, une diminution de ce qu’on a proposé de nommer l’« orgatropie » (évolution de l’organisation en direction d’une « entropie fonctionnelle ») qui s’accompagne d’une augmentation de l’ordre fonctionnel[21]. La biophysique qualifiera d’auto-organisé un système où se constate le passage d’un état stable à un autre état stable lorsque soumis à des modifications, ce qui correspond en termes physiques au passage d’un attracteur stable vers un autre dans l’espace des phases. Une fonction physiologique, comme ensemble des interactions entre les éléments matériels qui participent à un effet considéré, ne sera toujours identifiable que dans un comportement sous mode global. Les discontinuités structurales, en plus de manifester la présence de ce mode d’action global, mettront en interaction un grand nombre d’unités de structure appartenant elles-mêmes à des niveaux différents de l’organisation d’ensemble. Si ces discontinuités s’intègrent naturellement à une hiérarchie anatomique bien connue de la médecine classique, la reconnaissance de la fonction physiologique exigera d’introduire une hiérarchie fonctionnelle construite sur les unités structurales et qui ne coïncide pas avec la hiérarchie anatomique. Mais toutes ces considérations, pour utiles qu’elles soient lorsque nous cherchons à suivre le caractère réglé du développement, sont dans une situation équivalente à celle de qui considérerait une carte topologique : il y trouverait certes l’indication des sentiers qui doivent être suivis pour rejoindre un point déterminé (condition nécessaire), mais sans l’expérience d’atteindre en elle-même une destination finale (ce qui seul ferait figure de condition suffisante).

À regarder les faits sous cet angle, nous pourrions croire que le scientifique n’était pas tout à fait justifié dans les reproches de vague, d’imprécision quand ce n’est carrément de confusion qu’il a trop souvent proférés à l’endroit des tenants d’une morphologie qualitative. Lorsqu’un de ceux-ci nous suggère, dans son langage, que le monde en son devenir et par l’action de n’importe quel être vivant enfreint les principes de conservation scientifique, que nous aurions tout autant le droit de voir les transformations naturelles comme un permanent miracle sans cesse renouvelé, il est indéniable qu’il touche à quelque chose de juste. Pourtant, dans les célèbres débats ayant opposé nos « deux cultures » (C.P. Snow) jusqu’à donner naissance d’un côté à Carnap et aux « general semantists », puis de l’autre à Heidegger réfugié sous la redingote des poètes jusqu’à affirmer que « la science ne pense pas[22] », il n’est pas sûr qu’il faille, même au nom de quelque théisme, se ranger sans plus du côté des poètes.

Si nous voulons demeurer cohérents et que nous reconnaissons être partis d’une insuffisance constatée dans la description en termes de contenu informationnel, si par ailleurs nous gardons en mémoire ce qui a permis le développement des idées scientifiques, à savoir le refus de sauter trop rapidement à des niveaux très au-dessus des phénomènes considérés (canon de Lloyd Morgan), nous aurons à nous demander « où » est située l’information qui semble faire défaut. Sur ce point, la question sera de savoir si l’information est une pure réalité physique, au sens où deux télécopieurs pourraient véritablement s’« informer », ou s’il s’agit nécessairement d’obéir non seulement à un programme et à la valeur réglée d’une commande, mais également à l’intention de la conscience encadrante qui l’a mise en place à l’origine. On peut certes remarquer que dans la version de Shannon, primitivement dérivée des travaux de Hartley, le sens devait être exclu à l’origine pour que le calcul informationnel puisse avoir prise sur les phénomènes, si bien qu’un assemblage des mots les plus banals et un vers poétique extrêmement expressif n’auraient pas l’un plus que l’autre de valeur informationnelle. La dépendance contextuelle de l’information était ainsi grandement sous-estimée, et l’applicabilité en principe universelle de l’instrument la faisait basculer dans la limitation fondamentale des mathématiques qui se font tellement « pures » qu’elles ne nous livrent plus aucune information sur le monde.

On peut remarquer avec Tom Stonier qu’il ne s’agissait en ce dernier cas que d’une théorie portant sur le transport de l’information et que le rapport avec l’entropie, par le biais de la « brisure » initiale du code nécessaire à la surprise expérimentée par le récepteur du message (l’augmentation de sa valeur entraînant l’augmentation concomitante de la valeur informationnelle du message) peut être modifié[23]. On peut penser que l’organisation dont témoignent les entités naturelles est une quantité d’ordre en un sens qui la rende relativement indépendante de la matière et de l’énergie. Nous aurions en ce sens une information qui puisse s’appréhender scientifiquement en se voyant dégagée de la structuration portée par l’organisme étudié par des méthodes qui n’ont pas à quitter complètement le terrain de l’observation expérimentale. Quelle est en pareil cas la conscience assignant une valeur d’information à ce qui constitue le canevas éventuellement récupérable et transformable en vertu d’un calcul que la théorie coutumière dite de l’information nous a appris à déchiffrer ?

À bien y réfléchir, la véritable énigme ne naît pas de la capacité du seul esprit humain à assigner de l’extérieur une valeur intelligible et sémantique à ce qui est alors transmis, mais du fait que cette structure puisse se transmettre d’une manière incessante par un processus d’enveloppement et de développement subséquent sur lequel le physicien David Bohm a plusieurs fois attiré l’attention[24]. Les recherches biochimiques sur les gènes régulateurs, la molécule dite « morphogène », de même que les « transposons » sont encore loin de nous en fournir une compréhension adéquate. Il est impossible en tout cas de ne pas remarquer que ce qui est le plus digne de considération attentive n’est pas la capacité tout extérieure d’une « double lecture » effectuée par l’esprit du théoricien ou du contemplatif de la nature. C’est bien plutôt ce que réalise lui-même l’organisme en développement qui vient combler cet hiatus sur lequel nous attirions l’attention.

L’immédiation et l’invention d’intelligibilité

Il faudrait réfléchir sur la ligne de continuité qui nous permet de suivre la trace des chemins et des canaux que se fraie l’information dans notre expérience. La seule trace que la science s’est habituée à suivre est celle de l’influence et de la propagation causale. Elle en voit quelque chose à l’oeuvre dans les rapports qui solidarisent les événements et c’est ce qui lui permet de poser en principe que rien ne surgira d’hors du visible et du pondérable pour exercer une influence causale. Pourtant, au moment même où il tente de se prémunir contre un tel « effet sans cause », le savant ne rencontre que deux possibilités. Il peut se contenter de suivre les chemins de propagation causale et tenter d’identifier une sorte d’analogie entre leurs manières de « frapper » un paramètre quelconque de détection, qui les fasse passer du côté des entités clairement identifiables. Il pourra alors, peut-être, espérer saisir comme une parenté de forme entre des occurrences distinctes et étalées dans le temps. Par ailleurs, il lui est également possible de réfléchir sur de tels constats d’expérience, comme Kepler le fit sur les tables d’observations de Tycho Brahé[25] et, ne cherchant plus cette fois simplement à en prolonger la durée et à en augmenter le nombre, de tenter de trouver cette forme générale qui n’avait été dans l’autre cas que vaguement sentie parce que dégradée en une structure rigide. À la différence de l’induction, où il généralisera ce qui est vrai pour un certain nombre de cas à toute la classe, nous le verrons plutôt passer de l’observation des faits à la découverte d’un principe général capable de les expliquer tout en étant différent de ce qui a été observé, processus où l’on reconnaîtra ce que C.S. Peirce nommait l’« abduction[26] ».

Nul ne peut alors lui garantir un « raccrochement » certain avec ce qui précède, et en conséquence un quelconque bénéfice de l’usage oblique du mode de pensée causaliste. L’invention de la forme de ce mécanisme ne peut qu’apparaître avec une discontinuité. Il est malencontreux qu’on en soit venu à y voir quelque chose de complètement autre que la piste inductive précédente, en particulier à cause des douteuses polémiques à propos de la démarcation entre science et métaphysique (avatar poppérien du néopositivisme). Nous aurions en réalité toutes les raisons de penser qu’elle manifeste une sorte d’acuité du regard, qui exige pour se déployer la longue et patiente fréquentation ressortissant à l’accumulation laborieuse de données. Il n’est pas légitime de dire que le « comment » de cette invention d’intelligibilité ne concerne aucunement la science, que c’est l’affaire de la seule psychologie, et que l’induction n’est pas utile à la découverte. Il y a sans doute là, à bien y réfléchir, une « concrétude mal placée » dans l’usage de la catégorie de causalité. En effet, si on y prend garde, on pourra se rendre compte que nous ne « décrochons » ce schème qui fasse la liaison de toutes les parties d’un problème ou d’une énigme à partir d’aucun lieu qui nous soit connu et qui pourrait, par sa capacité à fournir des données pondérables, mesurables et quantifiables, répondre à l’exigence énoncée pour la validité présumée de ce qui est digne de considération dans l’enquête scientifique.

En d’autres termes, la science elle-même transgresse ses propres interdits, et le plus fondamental de ceux-ci, à chaque fois qu’elle fait un pas en avant véritable dans la compréhension du monde. Il est nécessaire ici de souligner l’adjectif, car nous en sommes venus à tellement valoriser la simple préservation de la structure d’ensemble de l’infrastructure intellectuelle de la science présente, en nous perdant dans une débauche d’expérimentation, que nous n’avons peut-être plus les conditions réunies pour comprendre ce qui est en jeu dans ce problème[27]. On ne le dira jamais assez clairement : toute découverte véritable et digne de ce nom est sans cause.

Or, il se peut tout à fait que nous puissions suivre le problème par l’autre bout, en ne considérant plus le versant psychologique de la mise en jeu mentale des conditions de la découverte, mais en nous demandant quel est le rapport entre ce « canevas » dont nous avons parlé, et la structure donnée de l’univers physique, de cette nature dont la science s’est mise en devoir de percer les secrets. Nous pourrions dire, en usant d’un langage bergsonien, qu’agir sans causalité c’est prendre le monde non par la direction où il se défait, mais par celle où il se fait[28]. Ainsi, lorsque nous saisissons cette forme la plus générale qui rend compte du bilan de toutes les opérations d’une entité soumise à l’examen expérimental, nous refaisons un lien, forcément brisé dans notre expérience, qui n’est plus de l’ordre de la poussée qu’un mobile exercerait sur un autre, mais plutôt comparable à la figure de déploiement harmonieux à laquelle une entité tenterait de se mesurer et de s’égaler. Si vraiment les relations entre les éléments constitutifs des totalités complexes et organiquement liées qui nous entourent tiennent dans un mode de convergence leurs trajectoires, le fait pour nous de saisir la relation nouvelle qui doit entraîner à conjoindre des ordres de comportement naturels jusqu’alors toujours considérés en isolation[29], ne peut être autre chose que le fait d’englober les niveaux d’organisation déterminés dans ceux qui sont pour eux déterminants. Cela revient, comme l’avait bien vu R. Ruyer, à opérer le rétablissement d’une information[30].

V. L’ordre et l’esprit

Nous verrons, en y regardant de près, que la position théiste correspond au discernement d’un sens dual à toute expérience de construction morphologique en ce monde. Cette dualité de fait peut, lorsqu’elle est incorrectement évaluée philosophiquement, donner naissance soit à un refus de penser l’ordre et le désordre comme tenables en isolation, ce qui sonne le glas d’un théisme non-équivoque tel que nous le défendons ici, soit encore à une forme de dualisme franc qui admettrait la présence d’une source de l’ordre et de l’organisation cosmologique, mais en la limitant dans sa réalité et son essence à partir des insuffisances et de la « dystéléologie » rencontrée par le regard expérimental[31].

Quel est le rapport entre la nature et l’esprit ? Est-il possible de penser toutes les inventions de la matière et de la vie sans la présence d’une source de l’ordre et d’une conscience encadrante au sens cybernétique ? On peut tout à fait légitimement sentir la nécessité de rompre avec un séparatisme métaphysique du type de celui qu’entretenaient les théories vitalistes. Ce sera alors l’occasion d’accuser d’une part la très intime collaboration entre l’agencement des parties et des éléments constitutifs d’un être organisé, et d’autre part le principe d’organisation responsable de l’entretien de la vie. Si les choses sont, tout à fait correctement, comprises en ce sens, nous n’accepterons plus facilement de penser l’esprit humain à la manière d’un quelconque domaine de la pensée pure, enclose sur elle-même. Conséquemment, nous verrons à mieux rendre compte de la liaison devant exister entre la nature et l’esprit.

Diverses positions seraient ici possibles. Nous pourrions tenir que dans la nature tout opère par les coups de pouce successifs de processus purement aléatoires, bien que nous devions concéder la poursuite indéniable de projets et de fins dans l’ordre humain. Qui ne voit que c’est renvoyer sur la créature humaine l’invention complète de la finalité. Mais d’où viendrait alors cet accès soudain à une continuité non brisée dans la tendance à poursuivre un objectif ? La nature antérieure ne saurait nous en montrer l’exemple autrement que par bonds désordonnés livrés aux caprices d’appels instinctifs. Et même faudrait-il encore expliquer leur capacité conservatrice à très long terme. Cournot avait fort bien remarqué que dans la finalité humainement déterminée c’est le terme final qui gouverne la série des termes antécédents. Dans la finalité instinctive cependant, nous voyons un ensemble de tentatives qui cherchent à approprier le mieux possible la production actuelle à des conditions antécédentes : ainsi par exemple un pouvoir organisateur aura-t-il modelé l’oeil en fonction des propriétés de la lumière, ce qui ne signifie absolument pas que la lumière aurait été constituée en vue de la structure de l’oeil[32].

Une autre position soutiendra que l’esprit est bien la donnée fondamentale, que c’est pour nous l’objet d’une expérience indubitable et que, quoi qu’on puisse penser de la nature telle que l’envisage le regard matérialiste, la communauté de forme que nous partageons avec elle, à commencer par celles que nous en recevons telle que la structure même de notre cerveau qu’elle sait édifier alors que nous n’en sommes pas capables (notre conscience « seconde » et réflexive n’ayant rien à y voir), oblige à tenir que l’organisation du monde elle-même obéit à un plan préconçu au moins dans ses traits essentiels.

Voulant échapper à une telle conclusion, parce qu’elle leur semble violer un certain idéal d’objectivité scientifique ou d’« objectivité de la nature » ainsi que le nommait Monod[33], certains soutiendront que nous sommes effectivement en présence d’une interrelation totale entre la nature et l’esprit, en ajoutant toutefois qu’il s’agit d’un seul et unique processus, avec ceci de particulier qu’il ne demande pas, dans l’ordre de ce que nous nommons l’« esprit », de faire appel à d’autres principes que ceux qui nous sont offerts par le démocritéisme et le darwinisme.

Dans un ouvrage parsemé de fines remarques et d’observations minutieuses, Gregory Bateson a tenté d’identifier nature et esprit en les transformant tous deux en autant de processus stochastiques[34]. Il commence par noter que l’idée ancienne d’une échelle ontologique des êtres, d’une scala naturae édifiée sur la conviction que le plus parfait ne peut jamais être dérivé du moins parfait, s’est vue d’abord bouleversée par l’idée du transformisme apparue premièrement avec Lamarck au début du xixe siècle. Nous serions passés de la thèse d’un logos transcendant à celle d’un esprit immanent à la nature et capable de faire émerger progressivement des formes qui ne se trouvaient contenues antérieurement dans aucune réalité qui leur soit semblable. En exigeant de ne pas attribuer de fonctions mentales aux organismes qui ne sont pas doués d’un système nerveux capable de les recevoir par une différenciation suffisante des parties constituantes, cette thèse préfigurait le chemin qu’allait emprunter la morphogenèse ultérieure. Si d’une part un esprit n’existe jamais dans ce qui ne comporte pas un degré suffisant de complexité neurophysiologique, et que nous savons d’une manière définitive que les mutations générées aléatoirement dans le pool génique se voient conservées dans la population comme unité fondamentale de sélection (Ernst Mayr) en vertu d’un tri par la sélection naturelle selon le paramètre de valeur adaptative, nous pourrons nous faire une idée assez juste de la manière dont procède cette entité que nous nommons l’« esprit ». En vertu de l’interrelation nécessaire qu’il se doit d’entretenir avec la nature d’où il émerge, il devra lui aussi être pensé comme un processus générant des alternatives entre lesquelles il y aura sélection déterminée par la rétention et le renforcement.

Ainsi, nous assure-t-on, nous pourrions corriger les visions du xixe siècle, telle que la « théologie naturelle », non en ajoutant comme elles le faisaient un esprit non-stochastique au processus évolutif, mais en réinterprétant le domaine de l’esprit comme étant fondamentalement un processus de même nature. L’évolution deviendrait indépendante des valeurs que nous pourrions projeter en elle de l’extérieur, alors que création et destruction en viendraient à occuper une place égale dans un processus symétrique. Une condition de la création de nouveauté serait d’avoir accès à une source de variations aléatoires, où les processus deviennent divergents, rencontrant ensuite un comparateur bâti à même les ressources de l’organisme. S’il nous est en effet possible de procéder à des prédictions théoriques dans le cadre de processus convergents, et si même nous pouvons prédire des changements particuliers dans un environnement, nous devons tout autant reconnaître que le phénotype et l’environnement, pris ensemble, seront source d’imprédictibilité, puisque ni l’un ni l’autre ne contient les informations sur ce qui sera réalisé par leur combinaison. Bateson nous assure enfin qu’un « platonisme » d’un type nouveau est ainsi possible, non plus à partir d’arguments dérivés d’une théologie dualiste, postulant un designer caché dans la machinerie évolutionnelle, mais en faisant au contraire appel à une pensée stochastique.

C’est là un type d’approche du problème qui a été repris de diverses manières par des auteurs récents[35]. Pouvons-nous soutenir que l’évolution, envisagée comme le jeu de variations fortuites, puisse parvenir à faire ce dont par ailleurs nous créditons l’esprit ? On peut répondre, comme William Dembski, qu’il n’est pas possible à un processus qui ne serait aucunement dirigé de produire une complexité ayant de plus la propriété d’être spécifiée[36]. En d’autres termes, — en évoquant l’exemple célèbre des singes dactylographes — s’il est en effet possible à une source de choix successifs désorientés de frapper occasionnellement un arrangement de lettres utilisable à l’intérieur d’un discours structuré selon des règles grammaticales et sémantiques, cette complexité ne sera toujours pas spécifiée, c’est-à-dire qu’on n’y trouvera pas un pattern indépendant de l’occurrence envisagée et qui nous permettrait de la reconstruire indépendamment de l’événement. L’arrangement improbable de lettres nous quittera aussi rapidement qu’il s’est présenté.

On a objecté à l’idée de Dembski, selon qui l’évolution biologique ne saurait créer d’information complexe spécifiée parce que, en tant que processus de transmission d’information soumis aux théorèmes de la théorie de l’information elle tomberait sous l’interdit de l’addition d’information nouvelle par simple retransmission, qu’en réalité l’évolution était capable de réaliser les mêmes effets que ceux dont nous tiendrions responsable un designer explicite[37]. On a fait valoir en particulier que dans la conception de Dembski le processus de variation et de sélection ne pourrait tout au plus que faire ressortir la programmation initiale d’une information comme critère prédéfini de sélection. Or rien n’interdit aux lois de la physique de donner naissance, par variation et sélection, à des îlots de complexité spécifiée. Le second principe de la thermodynamique n’interdirait pas à un système ayant atteint son entropie maximale de donner naissance à de nouvelles possibilités de formation d’ordre à partir de la réplication de structures qui se diversifient en explorant de nombreuses configurations complexes.

Ainsi l’aléatoire posséderait-il des vertus inattendues, en permettant à un système l’exploration de différents états, sans qu’il soit possible de rechercher derrière quelque pattern caché et programmé tacitement dans l’énoncé des conditions initiales. On en voudrait pour preuve la démonstration de la théorie algorithmique de l’information à l’effet que tout ce qui est réellement aléatoire est sans pattern. De plus, la flexibilité existerait aussi bien dans les machines que dans ce que nous nommons l’« esprit », puisqu’une fonction aléatoire dispersera ce qui est prédéfini, servant de générateur de nouveauté ; si toutes les fonctions sont ainsi une combinaison de règles et d’aléatoire, il n’y aurait pas que le domaine de l’esprit qui soit flexible d’une manière échappant au pouvoir des règles préétablies.

Il y a cependant nombre de présupposés derrière de telles objections. Le plus frappant vient de tout ce qu’on demande à la variation fortuite et à la mutation aléatoire. Nous pourrions élever à notre tour une objection en admettant d’abord que la vie aurait exploré l’ensemble des possibilités combinatoires s’offrant à elle en face d’un défi particulier, et qu’elle ait réalisé la plus favorable au maintien de ce qui existe déjà en situation de haute adaptabilité. Cela suppose un tâtonnement, mais aussi le discernement de points et de niveaux de stabilité irréversibles. La stabilité désigne le fait qu’un système retourne vers sa position d’équilibre après en avoir été faiblement écarté. Comme y a déjà insisté le neurophysiologiste Henri Laborit, les structures inventées par l’ontogenèse sont conservatrices, ayant retenu, par exemple, en notre cerveau humain, celles, antérieures, des reptiles et des mammifères[38]. Il se peut très bien que la mutation ne soit pas du tout ce qui est le plus significatif dans l’évolution et que nous ayons plutôt à regarder du côté de cette stabilisation par addition à ce qui existait auparavant, qui est également une stabilisation par complexification.

Or la structure, qui seule distingue un assemblage immense de molécules d’un être vivant différant du simple cadavre, s’est stabilisée par l’opération d’un ensemble de niveaux d’organisation. Chacun de ces niveaux possède bien sûr sa propre capacité de régulation, qu’il tend à fermer par rétroaction selon un schéma auquel la cybernétique nous a rendus familiers. Les sous-ensembles de l’organisme entier sont ainsi bouclés quant à leur information-structure, mais la coopération à la base de la capacité d’assimilation et d’adaptation du vivant exige qu’il leur soit possible d’entrer en interaction avec les niveaux englobants. Les cellules, par exemple, dépendront pour leur activité de celle des organes, qui eux-mêmes obéiront à des commandes émanant des systèmes qui les englobent. Il en ira de même pour l’organisme entier face à son environnement. Nous ne pouvons ignorer que chacun des niveaux d’organisation peut se voir transformé en servomécanisme par l’information qu’il reçoit de l’ensemble qui lui est sus-jacent. Parvenu à ce point, nous devons faire intervenir le concept d’information circulante. Or la tendance de l’expérimentaliste est souvent de se braquer sur l’observation d’un niveau d’organisation et de supprimer la commande qu’il reçoit de l’extérieur. C’est le secret d’opération du régulateur qui l’intéresse plus que sa capacité d’agir en un courant de communication où, par subordination des effecteurs, il répond à un servomécanisme opérant.

Mais puisqu’on a cherché à qualifier de « stochastique » la stabilisation progressive elle-même, et qu’on nous assure que de pures transformations aléatoires seraient suffisantes à en rendre compte, en nous affirmant que cet aléatoire est purement et simplement sans pattern, nous aurons à clarifier cette lancinante objection. Peut-on véritablement prendre tout l’ordre qu’un esprit s’applique laborieusement à imposer à un divers qui serait source de nouveauté en lui fournissant les résultats de l’aléatoire pur, et le reverser dans cette même catégorie ? Il faudrait pour cela que la pensée puisse appréhender convenablement le hasard, s’en faire une idée claire en conservant ce qui en fait l’essence même, soit l’imprédictibilité et l’absence de tout pattern. Nous devrions être capables d’atteindre à une reconnaissance de l’absence de pattern. Tous admettront que connaître une absence introduit dans une quête philosophique pour le moins curieuse ; la première condition pour connaître une réalité c’est qu’elle soit.

Les travaux de Kolmogorov et de Chaitin ont proposé une propriété fondamentale des nombres générés par le hasard : ils ont une description qu’il n’est pas possible de compresser en la transformant en un algorithme capable de les produire. Par exemple, devant une suite de 0 et de 1 véritablement aléatoire, nous pouvons espérer trouver une règle plus courte capable de l’engendrer par itération, mais nous ne pouvons fournir une preuve de son caractère aléatoire autre que la réénonciation de la suite. Celle-ci supposerait de faire la démonstration qu’aucun algorithme plus court que la suite n’existe, et le système formel où nous aurions à l’insérer serait nécessairement plus complexe que le nombre à évaluer. Cela signifie que le degré auquel elle est aléatoire n’est mesurable qu’à partir d’un degré plus grand. Le hasard est ainsi extérieur au système formel qui n’engendrera toujours que de l’ordre. L’aléatoire provient de l’extérieur des frontières du niveau d’organisation sélectionné, système intégralement régulé en lui-même. Cela signifie que ce qui paraît aléatoire à un niveau donné peut parfaitement être un effet régulé d’un système d’organisation supérieur. Bien entendu, parvenu au niveau où nous avons affaire à l’environnement, au système solaire, aux autres systèmes galactiques et à l’univers entier, on pourrait encore défendre que nous sommes incapables d’être finalement rassurés quant à l’inexistence à ces niveaux d’un hasard véritable. Cependant, les systèmes de l’environnement terrestre montrent une régulation souple sur laquelle nous sommes encore mal renseignés, ils ne montrent sûrement pas un devenir purement aléatoire[39].

On nous interdit de nous appuyer sur le global pour descendre au local ; quand nous procédons à la découverte d’ordre dans les niveaux subordonnés, nous refusera-t-on encore le droit d’induire à un ordre global encadrant ? L’argumentation prétendument platonicienne et stochastique à la fois est ici sérieusement ébranlée. En bonne logique, si nous ne pouvons légitimement procéder que depuis les niveaux locaux accessibles à notre regard expérimental et nous contenter d’un agnosticisme complet relativement au caractère totalement ordonné ou totalement aléatoire de ce qui serait visible uniquement par le moyen d’une connaissance exhaustive et globale, c’est dire que nous ne devrions rencontrer dans le local que de l’aléatoire. Si ce que nous y trouvons est plutôt une subtile régulation en cascade, c’est dire aussi par le fait même que la stabilité structurelle du monde telle que nous pouvons l’expérimenter autorise une induction en sens exactement inverse.

Le rapport problématique au statut de l’invisible

Le théisme demande en définitive à la science de ne pas simplifier à outrance son objet, de rester attentive à l’organisation d’ensemble de la nature. Est-il juste de dire qu’il oblige à faire intervenir quantités d’effets sans cause ? Ceux qui font cette objection ont à l’esprit l’habitude d’anciens vitalistes (qu’ils prennent généralement soin de ne pas nommer), lesquels auraient invoqué une force vitale complètement extérieure à la matière et pouvant être pensée sans rapports véritables avec elle[40]. Ils ajoutent souvent que celle-ci serait directement, et sans plus, identifiable à Dieu et que l’atteinte d’un tel niveau a l’inconvénient fâcheux de déclarer périmée et inutile toute investigation poussée du donné qu’il nous resterait à poursuivre[41].

Mais posé en ces termes, le problème est brouillé et rendu partiellement inintelligible par les adversaires mêmes du théisme. Il est déplacé d’emblée sur un terrain en face duquel plusieurs spiritualistes et vitalistes se seraient reconnus incompétents. Que l’on soit sympathique à l’admission d’une transcendance pensée en termes personnels ou d’un pouvoir créateur extérieur à l’univers, ou que l’on critique simplement les thèses du type « hasard et nécessité » au nom de quelque spontanéisme inqualifié[42], nul ne sera de toute façon dispensé d’identifier précisément les moyens et les opérations concrètes de cette transcendance, restant sauve la question de savoir si elle existe ou non revêtue de tels et tels attributs traditionnels.

Ce qu’il faut maintenir en revanche, c’est que, tout à fait paradoxalement, l’invisible comme facteur d’ordonnancement de ce qui est structuré d’une manière déterminée trouve une place privilégiée dans la conception nomothétique occupée essentiellement à prédire des résultats. Le morphologiste, dans la continuité de nombreux opposants au darwinisme qui ne manquèrent pas de se faire entendre suite à la parution de The Origins of Species en 1859, lorsqu’il refuse la variante contemporaine du préformationnisme obtenue en vertu d’une surenchère portant sur ce qui est caché dans les nucléotides, laquelle se voit encore renforcée par la métaphore du « tout génétique », se tient en réalité beaucoup plus près du visible qu’on ne l’affirme généralement. Il insiste pour nous faire voir l’univers comme un ensemble de manifestations ordonnées qui, avant même de manifester quelque Autre absolu qu’il reviendra au théologien d’apprécier, se manifestent elles-mêmes en composant un langage qui, dans l’amplitude universelle et cosmologique de tous les messages qui font son, tente de permettre la transmission de leur part d’unicité, comme pour perpétuer une expérimentation unique et irréductible à tout autre lignée.

VI. L’individualité consciente et le point « nodal » ultime

Si le moi, faisant grand cas de son auto-conscience, se perd dans une nuit que nous ne parvenons pas à penser, quel enseignement devrons-nous en tirer à l’égard des dogmes religieux ? Ce qui est certain, c’est que ces derniers ne devront pas être indistinctement amalgamés dans un « concept-valise » tel que le « religieux ». En fait, l’individualité et la conscience d’une destinée singulière, d’un parcours « surdéterminé » à travers l’espace-temps et l’histoire du cosmos, seront très diversement appréciés dans des traditions religieuses différentes. La conscience de soi n’est pas tellement ce qui est en cause, ce serait plutôt ce qu’elle doit à sa longue élaboration dans un univers physique où nous la voyons « basculer » deux fois, d’abord lors de l’accession effective à cette grande métaphore sans référent qu’est le « Je », dont on doit bien supposer qu’elle s’enracine dans une conscience plus élémentaire que nous ne parvenons pas à cerner clairement, puis lors de sa disparition subite au terme de la vie psychique individuelle, alors que certains cas problématiques de chute dans une vie végétative et comateuse montreront comme l’image en miroir de la première émergence considérée.

Que dire de l’individualité la plus fondamentale ? N’est-elle pas une individualité délocalisée ? Comment pouvons-nous passer de cette réalité unifiée par des propriétés élémentaires à la certitude de la réalité d’ensemble des états que nous avons traversés et que nous considérons comme notre histoire individuelle ? Si nous n’étions qu’une intensification de traits déjà présents au niveau microphysique le plus élémentaire, comment pourrions-nous rendre compte de la « conscience de soi » de chaque atome ? Si même nous la postulions, nous devrions être tiraillés entre de multiples décisions individuelles de stratégies comportementales à chaque instant. Il n’est pas vrai que nous agissions en faisant constamment la moyenne de diverses stratégies, opérant ainsi simplement à l’intérieur d’une tendance à la réactivité primaire et au retour à l’équilibre. Ludwig von Bertalanffy a critiqué de manière convaincante ce schéma de l’« homme-robot[43] ». Certes, nous sommes parfois des êtres divisés, mais nous le sommes d’autant moins que nous avons longuement pratiqué la libre délibération en face de situations qui ont pour caractéristique de se présenter avec un suffisant degré d’analogie. Il est peu vraisemblable que nous ne soyons que la colonisation, du type des individualités politiques, de plus élémentaires subjectivités[44]. En effet, les groupements d’atomes, constitués en molécules et macromolécules, ne sont pas simplement intégrés dans l’unité qu’est la cellule, puisque cette dernière s’organise elle aussi avec d’autres et réalise une coordination supérieure où, totipotentielle dans la période suivant immédiatement la fécondation, elle s’en éloigne progressivement malgré le fait que certaines cellules somatiques, telles que les neurones du cerveau, gardent toute la vie quelque chose des propriétés régénératrices qui sont celles des tissus embryonnaires. On peut considérer ces diverses intégrations, qui « encadrent » les niveaux atomique, puis moléculaire, puis cellulaire, puis finalement organoformateur, comme une réduction à l’absurde de la thèse voulant qu’il n’y ait en pareil cas que conscience élémentaire d’un atome éventuel. C’est pourtant là que peut seul se trouver le secret dernier des choses, dans la mesure où l’on continue à poser les problèmes dans les termes qui sont ceux de nos habitudes réductionnistes.

Voilà autant de considérations qui doivent cependant nous aider à comprendre pourquoi les meilleurs efforts de réflexion sur le problème de l’âme rejetèrent la thèse d’une âme réduite à n’être qu’une unité de parties[45]. Il faut bien que le champ organisateur applicable tout autant au cas de l’atome qu’à celui de la cellule soit capable d’émettre des commandes réalisables par ces mêmes entités, bien que survolant leur intégration d’ensemble et ne pouvant jamais être considéré comme « émergeant » d’elles.

L’expérience de l’ineffable et la quête inassouvie

Nous aurions avantage à considérer d’une manière différente la possibilité d’une double lecture de l’ensemble de l’intelligibilité présente dans l’univers. Il est possible de voir dans le versant correspondant aux thèses théistes, non plus des questions fallacieuses qui n’intéresseront que des esprits égarés, mais des zones de sens qui attendent que la liberté réflexive les investisse en s’appuyant sur tout ce qui leur correspond comme inscription objective dans l’univers pré-humain. L’expérience vécue du mystique doit être réinsérée dans la phénoménologie scientifique, comme l’avait parfaitement vu Bergson[46]. Après la traversée du désert et de la nuit qu’il a dû pâtir, il a l’intime conviction d’une métamorphose le conduisant à naître à quelque chose de nouveau[47]. Le mystique ressent en quelque sorte une nouvelle naissance, comme le réveil dans un matin où toutes choses existeraient avec l’ensemble totipotentiel de ce qu’elles pourraient représenter, elles lui semblent véritablement s’éveiller à la vie et à l’être pour la première fois. Tout s’éprouve pour lui sous la figure de l’aube, chaque chose lui paraissant composer une harmonie.

Comment alors comprendre qu’il soit même possible de suggérer leur agencement totalement fortuit ? Nous aurions tort de céder à l’illusion de Wittgenstein à propos de l’idée que ce n’est pas comment est le monde qui est l’élément mystique, mais qu’il soit[48]. En effet, cela suggère que seule la perception du monde en totalité, sans plus aucune limitation, et de l’ensemble des enchaînements intelligibles d’états de chose qu’il renferme, dans la mesure où nous la supposerions accomplie, nous donnerait accès à cette vue comme à l’indicible pur[49]. Or chaque réalité concrète, dans son indépassable singularité, sur laquelle insista Maurice Blondel (Omne individuum ineffabile), pose tout autant ce problème : elle est déjà un monde en soi. Une auréole de paix semble envelopper chacune de ces choses, pour celui qui s’éveille à leur chant silencieux. Et la question devient peut-être celle de savoir quelle sera la part à réserver à un monde qui semble s’appréhender sous la seule figure à laquelle la science puisse nous donner accès[50], soit celle de l’universel écoulement du temps, de son flux processuel qui ne respecte rien d’achevé et d’établi, introduisant à la fois catastrophes, cataclysmes et destructions, et le Dieu qui ne serait plus seulement celui d’une théodicée justificatrice et Auteur du « meilleur des mondes possibles », mais d’un état où toutes choses pourraient ensemble n’avoir plus à lutter pour exister, où elles se verraient hissées là même où l’homme a appris à croire qu’on est parti « lui préparer une place » (Jn 14,2).

Si tout absolument, fut-ce l’atome, contient une trace du Dieu infiniment saint (comme l’ont affirmé à la fois T.F. Torrance et W. Pannenberg), il n’y a pas une seule des fleurs des champs qui ne pose le problème de la perpétuation de cette figure de la perfection d’un autre monde à laquelle il a été donné la grâce d’en témoigner. Ce ne sont plus alors les ensembles « populationnellement » constitués qui posent question, c’est de savoir ce qu’il est vraiment advenu des histoires singulières en quantité innombrable qui ont tissé la trame de ce monde. La structure même de l’univers exige peut-être que nous pensions tout à partir de la personne, ainsi que l’avait bien compris Teilhard de Chardin[51].

Un univers de passage et d’intervalle

Est-ce qu’en définitive la conscience personnelle est assez solide pour justifier les arguments en faveur du théisme, de quelque nature qu’ils puissent être ? Devons-nous penser que les questions qui conduisent à s’élever au-dessus d’un niveau de langage et d’explication sont en réalité laissées au loisir et à la curiosité d’esprits qui, différents du plus grand nombre, auraient besoin de quelque chose de plus ? Se dispenser d’un tel passage à la limite reviendrait à se satisfaire de ce que peuvent nous apprendre des méthodes et des recettes éprouvées ; il y aurait au-delà, pensera-t-on, autant de pièges pour les imaginations débridées. Mais à poser un regard vraiment phénoménologique sur cette seconde option, qu’aurons-nous alors sous les yeux ?

Un praticien de la science ou simplement un esprit cultivé nous assure que la conscience dans laquelle il a mis ses espoirs de compréhension intégrale n’a d’autre raison d’être ultime que matérielle. Elle apparaîtrait sans raison, et disparaîtrait de même sans laisser d’adresse. Penser que tout notre effort pour rendre le monde hospitalier à la vie, pour y combattre fléaux et cataclysmes, pour y participer au mystérieux royaume de l’« advenir » en transmettant la vie qui nous a été elle-même transmise[52], ne soit finalement qu’une efflorescence décorative, voilà qui révoltera l’esprit de plusieurs. « Qu’importe ? », diront les autres, puisque c’est ainsi. À ce niveau se profile cependant une autre question.

À nous placer cette fois dans la perspective de qui, au contraire, défend rationnellement et confesse religieusement qu’une pensée et une intention créatrice émanant de Dieu sont l’assise véritable du monde de notre expérience, au nom de quoi éviterons-nous d’avoir à admettre en fin de compte le même type de constat résigné ? Est-il possible d’identifier quelque région de sens, dotée d’une certaine contraignance, qui se verrait apte à prémunir le théiste contre les affres du sentiment de l’inutilité, et même de l’absurdité finale de tout effort ? En fait, ce dernier est exposé tout autant que le premier à sentir le vide apparent de tout l’élan qui le porte, si on s’avise de le juger à partir de l’impulsion affirmatrice que lui communique sa foi, rationnellement articulée ou plus volontariste et « religieuse ». Cette chute apparente dans une nuit de silence et d’incompréhension, c’est le théiste qui en sera frappé avec l’intensité la plus grande, parce qu’il vit d’une attente qui, en vertu de l’altitude à laquelle elle respire, ne semble que davantage trahie et contredite.

On voit mal comment il serait possible d’échapper à ce sentiment que d’aucuns ont déjà qualifié d’« océanique ». Je puis me voir contemplant une scène naturelle prégnante de beauté et qui donne vraiment l’impression de me parler un langage. Mais, premièrement, qui pourra le décoder et en tirer un message précis et univoque, tel que dans la même situation toute autre conscience semblable à la mienne opérerait exactement le même décodage ? La difficulté est si notoire qu’il n’y a pas à y insister. En second lieu, la qualité de ma perception et la joie éventuelle qu’elle provoquera en moi, sans doute pourrai-je penser qu’il est, peut-être, arrivé à d’autres dans le passé d’en éprouver quelque chose, mais tout de suite je devrai me rendre compte de ce que toute communion est rompue avec cet interlocuteur qu’il m’est loisible d’imaginer, tout comme j’aurai à réaliser à quel point ma propre expérience perceptive et contemplative du moment ne peut pas davantage être « télégraphiée » vers le futur, de façon à faire signe à quelque autre contemplateur solitaire qui pourrait revivre ce qui m’habite ici et maintenant. Est-ce donc que vraiment tout cela est destiné à chuter dans une pareille noirceur et à n’en ressortir jamais ? Nos efforts, nos sentiments et, par voie de conséquence, toutes nos pensées devront-ils ainsi disparaître à jamais ?

En face de pareilles considérations, des esprits religieux écrivant récemment répondront que oui, en effet, nous n’avons d’autre choix que de faire nos frais d’un pareil sentiment de complète déréliction et que cela est bien mieux que de rêvasser des consolations faciles[53]. Mais l’on doit remarquer deux choses. D’abord, se dépêcher de conclure ainsi, c’est être infidèle à cela même que l’on prétend appliquer. Faut-il donc vraiment que notre subjectivité toute recroquevillée sur elle-même apporte ainsi une réponse parfaitement déterminée ? Il y a autant, sinon plus, de raisons de soutenir que si personne n’échappe en définitive au sentiment du vide de tous nos efforts, c’est parce que la conquête de l’identité définitive qui est nôtre se doit à tout prix de payer cet honoraire.

Lorsqu’il se conjugue à cette prise de conscience, l’effort de la science achèvera de nous décentrer de nous-mêmes, en faisant prendre conscience à l’esprit humain assoiffé de compréhension qu’il n’est qu’un figurant dans un drame cosmique qui le dépasse de toutes parts. La grande leçon de la science c’est que le moi n’a de soubassement que cosmique et que sa destination est l’assimilation universelle de tout ce qui est. La science aura lutté tout au long de son parcours contre la « polarisation subjective » qui biaise tous nos actes de jugement[54]. À strictement parler, il n’y a rien ici qui liquide le sentiment pascalien d’être soi-même plus que tout l’univers des corps. Mais nous réalisons aussitôt qu’il se voit aiguillonné, sans que rien ne nous autorise à affirmer qu’il doive se résigner à quelque liquidation totale, à cela près qu’il devra s’expérimenter comme embrassant infiniment plus que ce qu’il tient uni dans sa compréhension actuelle.

Il faut ajouter à ces réflexions une autre considération en remarquant que la conscience d’une temporalité en laquelle nous serions jetés, du type de la « Geworfenheit » heideggérienne, ne fait qu’obscurcir ce problème en y important une mythologie romantique, et qu’elle n’est en aucune façon condition nécessaire d’éclaircissement de la question qui nous occupe. Il est complètement arbitraire de soutenir que nous aurions été « jetés » en ce monde. Cela n’aurait qu’un intérêt historique pour faire comprendre le sentiment qui animait certains néoplatoniciens. Il est clair qu’on ne peut accéder à ce sentiment obscur qu’en faisait de la conscience quelque chose qui existerait à côté de l’univers naturel dans lequel nous sommes enracinés aussi profondément qu’un autre animal. En réalité, nous ne sommes pas plus tombés dans le monde que la pomme n’est tombée dans le pommier. La scolastique raisonnait franchement mieux en tenant que nous sommes l’étant le plus complexe de la création, réunissant d’une manière inédite les attributs les plus apparemment éloignés mais dont notre situation paradoxale elle-même montre qu’ils sont en fait les plus complémentaires. Sa supériorité venait de ce qu’elle ne s’obligeait pas à trancher entre le « très haut » et le « très bas » qui tous deux nous animent.

Où donc loger le sentiment de déréliction lorsqu’on a vu que notre conscience réflexive personnelle n’existe qu’en ayant d’abord à se soumettre aux possibilités permises par un appareil cérébral lui-même construit par un ensemble d’individualités premières qui savent, à presque tous les coups, le reconstruire ? Blondel avait fort bien noté, s’inspirant souvent de Leibniz à l’époque de rédaction de sa thèse sur L’Action (1893), que dans la mesure où tout opère par les paliers ascendants d’une synthèse perpétuellement reprise, nous devrons tenir qu’un ensemble de subjectivités aspirent en réalité à quelque libération à travers notre propre vie consciente[55].

Peut-être alors comprendrons-nous que le théisme correctement entendu, le seul qui ait jamais existé si l’on s’avise de sa différence par rapport au déisme vulgaire et aux décevantes entreprises des « religions naturelles », n’est en rien ennemi ou adversaire des découvertes des diverses sciences expérimentales. Il peut au contraire tirer d’elles nombre d’éléments devant lui permettre de nous présenter une vision des choses moins indigne de l’homme, et par voie de conséquence moins indigne de Dieu. Il nous obligera en définitive à nous méfier des jugements hâtifs et des positions dialectiques trop étroitement tranchées. Nous le verrons par le fait que la perte de soi qu’il nous enseigne à accepter dès lors qu’il est question de la vie propre de notre conscience réflexive pourra se voir analogiquement modelée sur l’exemple d’innombrables descentes antérieures dans l’évanescence apparente, dont le même regard phénoménologique sur le monde nous garantit la présence.

Chacun de nous n’avons été « jetés » en ce monde qu’à partir du don de l’existence provenant de deux êtres auxquels nous ressemblons, comme la plante ne reprend vie que si elle subit d’abord une mort à son état premier de simple semence (Jn 12,24). Si la vie universelle ne peut s’appréhender qu’à partir de ce mouvement immense de perte de soi pour se retrouver agrandi[56], nous pouvons remarquer que le théisme chrétien ne fait que nous enseigner l’universalité d’extension, jusque dans l’ordre spirituel qui est plus proprement le sien, de ce mouvement parabolique interdisant de prétendre accéder aux demeures les plus hautes en écartant la première oeuvre modelée par la Sagesse du logos, lui qui n’est pas seulement le feu éthéré animant toutes les consciences, mais bien l’exemplaire divin selon lequel tout a été fait, comme l’avait parfaitement vu Bonaventure de Bagnoregio, un des plus grands philosophes qui fut jamais dans un ordre dernier des choses, précisément parce qu’il entendait demeurer fidèle au « philosophus noster[57] » qui, le premier, nous enseigne que notre connaissance et notre sagesse seraient folies si elles s’arrêtaient à se satisfaire de ce qu’elles savent en prétendant se situer en deçà de cette exigence constitutive de toute réalité, celle de n’exister que dans un mouvement de désappropriation et d’offrande de l’ensemble de ses potentialités à l’immense totalité de ce qui existe.