L'accès à la plateforme Érudit connaît actuellement un ralentissement, dû à un incident chez notre prestataire technique. Nous sommes désolés de ce désagrément et collaborons activement à rétablir le service. L'information sera mise à jour sur notre pageTwitter

Comptes rendus

Margaret Morrison, Unifying Scientific Theories. Physical Concepts and Mathematical Structures, Cambridge, Cambridge University Press, 2000, 272 pages.

  • Yvon Gauthier

…plus d’informations

  • Yvon Gauthier
    Université de Montréal

Logo de Philosophiques

Corps de l’article

C’est un vaste panorama des théories unifiées, de la physique à la biologie, que Margaret Morrison veut analyser dans une synthèse critique. Le sous-titre annonce la thèse centrale de l’auteure : la surdétermination des concepts physiques par les structures mathématiques. Mais cette thèse philosophique sur l’applicabilité des mathématiques n’est pas supportée par une option fondationnelle en mathématiques (ou en logique). Il s’agit surtout d’un ouvrage en histoire et philosophie de la physique, même si deux chapitres substantiels, les chapitre 6 et 7, portent sur la théorie darwinienne et la théorie synthétique de l’évolution, en particulier la génétique des populations chez des auteurs comme R.A. Fisher et S. Wright. En réalité, le motif recteur de l’entreprise est d’ordre philosophique plutôt que critique au sens de la critique interne du discours scientifique. Ainsi le premier chapitre est consacré à l’analyse du concept d’unité en science de Kepler à l’empirisme logique (Carnap et Neurath) en passant par Kant et Whewell. Le deuxième chapitre aborde la scène contemporaine avec une discussion du modèle de l’explication en science de Michael Friedman. Ce préambule philosophique doit servir, selon l’auteure (p. 59), à préparer le terrain pour l’analyse des théories unifiées.

Dans un examen plus historique que conceptuel de la théorie unifiée de l’électromagnétisme de Maxwell, Morrison explique comment le courant de déplacement postulé par Maxwell pour rendre compte du « transport » de l’électricité ne peut servir de justification à une théorie unifiée qui est venue par surprise. On sait que les équations de Maxwell qui définissent l’interaction entre le champ électromagnétique et sa source n’ont pas d’interprétation directe et il faut faire intervenir une densité de charge et une densité de courant pour lier ensemble champ électrique et induction magnétique, d’où l’électromagnétisme ; mais l’unification ainsi obtenue est purement théorique et a le caractère d’un appareil analytique dont les conditions de réalisation ne relèvent pas de l’interprétation physique comme telle. Ce vocabulaire, « analytischer Apparat » et « Realitätsbedingungen » que j’emprunte à Hilbert, n’est pas celui de Morrison. L’eût-elle utilisé que sa discussion eût été plus pertinente ; elle a plutôt eu recours à des termes vagues comme structures mathématiques et contraintes formelles (formal constraints). Le style philosophique de l’auteure apparaît dans ce contexte encore plus descriptif que critique, la thèse fondationnelle n’étant jamais explicitée, et on retrouve la même indécision dans le chapitre suivant (chap. 4) sur l’unification du champ électrofaible en théorie des particules élémentaires. Cette théorie a valu le prix Nobel à Weinberg, Glashow et Salam en plus d’un prix Nobel à C. Rubia pour son travail à la tête de l’équipe d’expérimentateurs du CERN qui a confirmé en 1983 l’existence des bosons intermédiaires W et Z requis par la théorie et un autre prix Nobel à G.‘t Hooft (conjointement avec M. Veltman) pour la preuve de renormalisation requise pour la consistance de la théorie. La théorie unifie le champ électromagnétique et le champ nucléaire faible peuplé de leptons ou particules « légères » insensibles au champ nucléaire fort des hadrons ou particules « lourdes ». L’auteure reconstitue fidèlement, avec l’approbation de Weinberg, l’histoire de cette théorie récente où les notions anciennes de jauge, symétrie et champ trouvent une application éclatante. Je dis ancienne parce que la première théorie de jauge, celle de Hermann Weyl, n’est rappelée que brièvement par l’auteure (p. 115) qui cite le théorème de Noether sans l’expliquer. Or ces deux éléments sont essentiels dans l’histoire des théories de jauge, puisque le (premier) théorème de Noether réduit les lois de conservation (de la mécanique classique) à leurs groupes de symétrie et que la théorie de jauge locale de Weyl est à l’origine de l’idée de transformation infinitésimale de jauge (longueur pour Weyl, plus tard angle ou phase) :

A’μ → Aμ + ∂μ λ ,

transformation qui laisse invariantes les quantités physiques du champ. Ces transformations sont opérées dans le groupe de Lie abélien (i.e. non commutatif) qui est au coeur de la théorie de Yang-Mills pour les symétries du champ fondamental avec brisure de symétrie dont le boson de Higgs, encore introuvable, devrait rendre compte. C’est aussi chez Weyl que l’on trouve la première formulation de la théorie des espaces fibrés qui sera appelée à fournir une justification mathématique à la théorie des champs contemporaine.

Cette histoire moderne de la théorie des champs culmine dans le problème de la renormalisation que l’auteure aborde sommairement dans un appendice (pp. 143-146) tout en reconnaissant qu’il s’agit d’un problème crucial pour toute théorie unifiée des champs. Il y va en effet de la consistance de la théorie et l’auteure n’a pas mis suffisamment l’accent sur cet aspect purement formel (voir mon article « Proof-theoretical analysis of physical theories : the case of renormalization procedures in quantum field theories » in Zeit. Für Alg. Wissenschaftsth. XIV/2, 1985, pp. 251-260). C’est F. Dyson qui avait obtenu la première preuve de renormalisation pour l’électrodynamique quantique en 1949 en insistant sur la séparation de la matrice S (de dispersion) qui est finie du formalisme de la théorie qui est infini. Dans sa discussion de la preuve de renormalisation pour la théorie électrofaible (due à ‘t Hooft), l’auteure aurait eu avantage à rappeler la leçon de Dyson sur la distinction entre observateur idéal et observateur réel, le premier étant capable d’une précision infinie et le second devant se contenter du fini - assez curieusement d’ailleurs, beaucoup d’éléments de la discussion sont empruntés à Dyson sans qu’il ne soit nommé. A. Salam a de même fait la distinction entre les contributions finies (polynomiales) et infinies dans le formalisme lagrangien. Ce rappel eût évité la conclusion fort ambiguë, en réalité inconsistante, de l’auteure : « Any quantum field theory could be renormalizable if an infinite number of redefinitions ( of parameters ) could be used to render all orders finite ». (p. 146).

Ce constat ignore la nature même du procédé de renormalisation et signifierait à la limite qu’une théorie non renormalisable est renormalisable ! Il faut bien comprendre que les ordres dont il s’agit ici sont les puissances d’une série de puissances infinie et que pour obtenir des puissances finies il faut revenir à un polynôme de degré fini de la forme

P(x) = a0xn + a1xn-1 + … + an-1x + an.

Les théories des cordes contemporaines, supercordes et supersymétries que l’auteure n’aborde pas, sont renormalisables parce que ce sont des théories finitaires ou polynomiales, comme la théorie de la dualité de E. Witten. La conclusion de Morrison signifierait que toute théorie des champs est infiniment renormalisable, ce qui contredit le sens même de la renormalisation, puisqu’une procédure infinie pour réduire des quantités infinies (e.g. masse et énergie « nues ») à des quantités finies n’est plus un calcul et n’aboutit pas à une théorie finitaire, mais à une métathéorie infinitaire dont la consistance est inaccessible. Mais c’est justement la consistance (finie) de la théorie qui est en jeu dans la renormalisation, puisque la régularisation « finitise » les intégrales infinies, alors que la régularisation dimensionnelle dans la preuve de ‘t Hooft a pour limite la dimension 4. L’oubli de cette circonstance témoigne à mon sens d’une méprise fondationnelle importante qui est à mettre au compte d’une position philosophique mal assise.

C’est à la théorie de la relativité restreinte (RR) que s’attaque Margaret Morrison dans le chapitre le plus substantiel de l’ouvrage (chap. 5). Il est vrai que RR est une théorie relativement simple et que son histoire est bien connue. Mais le traitement de l’auteure est exhaustif. Elle montre, par exemple, comment les transformations de Lorentz n’avaient qu’un sens mathématique pour lui (comme pour Poincaré et Hilbert). Il faut dire qu’elles n’acquerront un sens physique qu’avec les expériences de pensée d’Einstein en 1905 qui se verra chevaucher un rayon de lumière à l’aide de tiges rigides et d’horloges, ce que l’auteure ne manque pas de souligner (p. 175). Si la formulation de la RR par Minkowski en termes de continuum espace-temps constitue bien une véritable unification, comme le montre l’auteure (p. 183 et ss.), il eût été intéressant de généraliser la RR jusqu’à la RG (la théorie de la relativité générale) par le passage de la forme quadratique de l’intervalle d’espace-temps en RR

ds 2 = c 2 dt 2 - dx 2 - dy 2 - dz 2

jusqu’à la forme tensorielle en RG

ds 2 = gμn dxμ dxv

qui l’auraient amené jusqu’à l’équation du champ gravitationnel d’Einstein, d’autant plus que le passage est autorisé par la structure mathématique de l’élément métrique dans la variété riemannienne — comme Riemann l’avait vu dans son texte de 1854 « Ueber dieHypothesen welche der Geometrie zugrunde liegen ». Et l’auteure aurait pu aborder par ce biais les théories de grande unification pour servir encore mieux son propos.

Les deux derniers chapitres sur la théorie darwinienne et sur la théorie synthétique de l’évolution fournissent des exemples d’unification « informelle », si l’on pense par exemple que le théorème fondamental de la sélection naturelle de Fischer (1930) en génétique des populations stipule que le taux d’accroissement de l’adaptation pour tout organisme en toutes circonstances est égal à sa variance génétique en capacité d’adaptation dans les mêmes circonstances (p. 219). L’analyse statistique ici ne peut fournir de cadre unitaire satisfaisant, tant les résultats n’ont qu’une signification générale.

La thèse centrale de l’ouvrage n’est pas nouvelle : c’est l’appareil analytique (le formalisme mathématique) qui est responsable de l’unification et la fonction unitaire du savoir scientifique ne peut être attribuée à quelque unité de la nature qu’une métaphysique réaliste invoque trop facilement. Une épistémologie naturaliste pourrait aussi être récusée dans ce contexte, comme Mark Steiner le fait dans son ouvrage The Applicability of Mathematics as a Philosophical Problem (Harvard University Press, Cambridge, Mass., 1998) où il propose une dérivation « non physique » de la mécanique quantique d’un point de vue qu’il appelle formaliste (ou anthropocentrique) et qui est une version faible du constructivisme (finitiste). Morrison ne cite pas Steiner ; elle ne discute pas non plus de la mécanique quantique qui pourtant offre une belle cible (e.g. le formalisme de l’espace de Hilbert) à toute entreprise qui veut prendre la mesure de l’unification des théories physiques.

Le mérite essentiel de l’ouvrage de l’auteure se situe du côté de la fine analyse historique de certaines théories du champ, de Maxwell à Einstein et Weinberg. Elle n’a pas réussi cependant à fonder la thèse principale de son ouvrage, la surdétermination des théories physiques par les structures mathématiques (l’appareil analytique), sur l’analyse aussi fine d’une perspective unifiée dans les fondements logico-mathématiques (formels) de la pratique physicienne.