L’évolutionnisme face à la raison
I. — Le physicien devant l’être vivant
par Gustave Corção
Gustave Corção (1896–1978) est un des plus grands (peut-être le plus grand) écrivain brésilien du XXe siècle [1]. Deux seulement de ses livres ont été traduits dans notre langue :
— La Découverte de l’autre, qui retrace le récit de sa conversion (ouvrage qui fut lui-même à l’origine de toute une série de conversions, en commençant par celle de l’ouvrier linotypiste chargé d’en préparer l’impression) [2] ;
— Le Siècle de l’enfer (O Século do Nada) qui retrace la triste histoire du XXe siècle depuis l’affaire Dreyfus jusqu’au concile Vatican II [3].
Ingénieur de renommée internationale, Gustave Corção fut également passionné de philosophie et de théologie. Réfléchissant sur l’évolutionnisme, il entama à la fin de sa vie une série de conférences sur ce qu’il appelait « les discontinuités de la création ». Analysant les divers étages des êtres créés, il soulignait la rupture qui existe entre eux : il n’y a rien dans le monde physique qui permette de supposer l’apparition de la vie. Et l’on trouve, chez les êtres vivants eux-mêmes, une discontinuité entre le monde végétal et animal. Corção entendait poursuivre son étude et signaler que rien, dans la vie de l’intelligence humaine ne laisse supposer que Dieu voulait élever les âmes à sa propre intimité par la vie de la grâce, mais il n’a pas eu le temps de compléter son œuvre.
Le texte de ces conférences a été publié en 1992, près de quinze ans après la mort de Corção, sous le titre As Descontinuidades da Criação (Les discontinuités de la Création). L’ouvrage constitue, au total, un petit traité de philosophie anti-évolutionniste. Chaque partie du livre aborde la question d’un point de vue différent : celui du physicien, celui du philosophe et celui du théologien.
– 1ère partie : Le physicien devant l’être vivant.
– 2e partie : La physique moderne et la philosophie d’Aristote.
– 3e partie : Les discontinuités de la création.
Voici (traduit du portugais par nos soins) le premier chapitre de l’ouvrage.
Le Sel de la terre..
Le philosophe et le scientifique
Lorsque quelqu’un s’aventure hors de son domaine pour explorer l’inconnu, deux choses peuvent se produire. La première, c’est qu’il devienne ridicule et impertinent comme ce cordonnier qui, consulté par le sculpteur sur un détail des souliers du personnage qu’il avait représenté, en vint à des considérations plus hautes sur l’esthétique et l’art. En termes plus abstraits, il se peut qu’il s’obstine à introduire dans un autre plan les méthodes, les critères, les prismes qui sont valides dans son domaine, mais inadéquats et parfois désastreux dans un autre.
Il y a cependant une deuxième possibilité : la visite d’une intelligence dans la demeure du voisin peut être extrêmement profitable aux deux si le visiteur, sachant respecter toutes les différences de points de vue et de critères, sait tirer de ces mêmes différences un bénéfice qui se traduit par un lien, une communication et un enrichissement des deux domaines.
C’est le cas de l’expérience culturelle faite par le grand physicien Erwin Schrödinger [4] dans son essai What is Life ? (New York, Anchor Book, 1956).
La culture, et en particulier la pensée philosophique à qui incombe la recherche des synthèses – d’autant plus nécessaires que la culture moderne se subdivise toujours plus en compartiments spécialisés –, ne peut que tirer profit de travaux de cette nature. La tentative que nous allons faire dans ces pages est justement de profiter de l’essai de Schrödinger, pour une application philosophique aux deux domaines confrontés, celui de la matière inerte et celui de la matière vivante.
Si nous réussissons à parler de manière adéquate de l’une et l’autre chose sous l’angle de la philosophie de la nature, nous en tirerons quelque profit sur les points précis où les deux spécialistes se trouvent embarrassés, non seulement dans ce que chacun ignore du domaine de l’autre, mais surtout dans la philosophie que tout le monde fait, qu’il le veuille ou non, et qui n’est parfois pas meilleure que la prose de M. Jourdain.
Avant d’entrer dans le sujet, il convient de rappeler un droit que seuls les philosophes possèdent. Alors que ceux qui étudient les divers champs des sciences de la nature sont d’une certaine manière captifs de leur office, limités par leur spécialité, le philosophe a le droit de rechercher dans tous les domaines de la connaissance la matière de sa réflexion. Ce qui distingue sa science, c’est l’angle de vue, l’« objet formel », le degré d’abstraction. Contrairement à ce que disent beaucoup de modernes subversifs, la philosophie ne doit pas être jugée par la science des phénomènes, sinon « per accidens » ; cependant le philosophe, avant de se préparer à dévorer sa proie dans les hauteurs du degré d’abstraction le plus élevé, a le devoir de bien estimer la bonne information et le bon état de la matière qu’il demande aux spécialistes.
Lois statistiques et réalité
Après ces remarques indispensables, abordons maintenant l’essai de Schrödinger dans ses premières pages, et signalons une première pensée : pour lui, en tant que physicien, les lois qu’on appelle physiques et chimiques sont structurellement statistiques (p. 2). Au bas de la page, l’auteur reconnaît que la proposition prête à controverse et il propose de revenir ultérieurement sur le sujet. Mais il est déjà amené à comparer les deux mondes, celui de la matière physique et celui de l’être vivant, sur la base de ce critère. Et il ajoute que la partie essentielle d’une cellule vivante, le filament d’un chromosome, pourrait être appelée par le physicien « un cristal apériodique ».
Il dit cela précisément parce que le physicien est habitué à ne penser qu’au cristal comme structure périodique. Expliquons cela un peu mieux : le cristal est périodique comme le papier peint ou le carrelage qui répète le même dessin sur toute son étendue ; la cellule vivante est apériodique car elle est un dessin d’une très grande richesse, tel le chef d’œuvre de tapisserie d’un Raphaël, sans aucune périodicité.
Notons cette première et féconde admiration du physicien devant l’un des éléments chromosomiques d’une cellule qui lui paraît, comparée à la matière à laquelle il s’est habitué, semblable à une cathédrale gothique ou à une voûte de la chapelle Sixtine. Mais avant de poursuivre nos réflexions sur le contraste entre le vivant et le non-vivant, nous voulons dire quelque chose de la prétendue structure statistique de ce qu’on appelle les lois physiques et chimiques.
En réalité, l’univers physique se présente (au physicien) de deux manières ou, si l’on préfère, avec deux styles. Il y a des phénomènes dans lesquels l’idée prédominante est l’ordre, la régularité, la loi : tels sont, par exemple, les mouvements des astres sur leur orbite presque parfaitement géométrique. Pour d’autres phénomènes, l’idée prédominante au contraire, est celle du désordre, de l’irrégularité, du résultat aléatoire ; tel est par exemple le mouvement brownien d’une particule sujette à la collision des molécules en agitation désordonnée. Nous dirions que la vision mécaniste de l’univers a la première caractéristique, celle de l’ordonnance des phénomènes en obéissance à certaines « lois » ; la vision atomique, quantique, moléculaire, au contraire, conduit à l’idée du désordre aléatoire, capable cependant de produire des macro-phénomènes qui seraient interprétés, par l’observateur placé dans la première perspective, comme des mouvements réguliers et ordonnés, en raison du comportement statistique de ses particules.
Prenons quelques exemples triviaux que fournissent les laboratoires et appareils de précision. L’un est la chute des corps, que chacun observe depuis sa propre enfance et celle de l’histoire collective, pour en conclure qu’elle est régulière et qu’elle obéit à des lois déterminées. Avant Newton, on supposait que les corps plus lourds tombaient plus vite en raison de leur poids ; depuis Newton, nous savons qu’un clou tombe plus vite qu’une plume à cause du plus grand rapport de son poids à la superficie, tandis que la plume, qui a une plus grande superficie et un poids inférieur, subit davantage l’effet des collisions avec les molécules de l’air. Si on retire l’air, on observe dans le fameux tube de Newton, qui est devenu un élément indispensable des laboratoires infantiles, que le clou et la plume tombent avec la même vitesse. Nous dirions avec plus de rigueur : avec la même accélération, qui est la constante proportionnelle au champ de gravitation de la terre, qui se présente à nous comme la cause de la chute des corps.
Nous avons ici un solide exemple de phénomène de bon comportement newtonien ; remarquons toutefois que déjà dans ce tranquille et honnête comportement des corps pesants, il a été nécessaire d’enlever un élément anarchique, moléculaire, statistique – l’air – pour que nous puissions inscrire le mouvement du corps qui tombe dans une confortable équation du second degré : le corps tombe avec une vitesse croissante, l’augmentation de cette vitesse restant cependant constante. Cette constante désignée par la lettre "g" pour le champ de gravitation de la terre est déterminée en chaque point du globe avec une haute précision (plus de cinq chiffres significatifs), et a permis de démontrer l’aplatissement des pôles ; sous les hautes latitudes, les corps tombent avec une accélération légèrement plus grande que sous l’équateur.
Le progrès de l’astronautique permettra bientôt des expériences plus amples et plus libres que celles que nous fournit le tube de Newton. Sur la lune, si l’extrême raréfaction de l’atmosphère à son entour [5] est vérifiée, les premiers astronautes pourront se divertir, d’abord avec la diminution de l’accélération ou du poids, qui leur permettra des sauts de cinq mètres de hauteur ou plus, et ensuite avec l’absence de l’air, qui aura pour conséquence qu’une feuille de papier tombera à la même vitesse qu’un clou, et sans les gracieuses oscillations qu’elle décrit dans cette vallée de larmes.
Pourrons-nous donc, sur la lune, prolonger ou élargir la conception newtonienne de l’univers ? Ou mieux, pourrons-nous dire que la chute des corps, en éliminant l’air, devient rigoureusement ordonnée et exempte de tout élément aléatoire ? Le physicien moderne se précipitera pour nous dire qu’une telle idée est trompeuse. Nous avons éliminé l’air, oui ; nous nous sommes débarrassés des éléments fortuits perturbateurs ; nous avons clarifié notre champ d’observation comme on nettoie la vitre du véhicule devenue moins transparente à cause des grains de poussière de l’atmosphère ; mais même ainsi nous ne nous sommes pas délivrés de cette espèce de perturbation anarchique, statistique, car c’est dans la propre structure de chaque corps que se cache le constituant fondamental en état de désordre, totalisé dans un ordre apparent par l’effet d’une probabilité prédominante.
Expliquons-nous un peu mieux.
Comme chacun le sait, tout corps observé dans notre champ d’expérience est formé de particules. Laissons de côté pour l’instant l’atome et sa constitution interne, et occupons-nous des particules qui représentent déjà, dans le modèle le plus petit, la substance en question. Sous chaque corps apparemment solide, indéformable, tranquille, comme la table sur laquelle j’écris, l’encrier, les livres, etc., se cache un essaim de molécules en mouvement d’autant plus animé que la température du corps est élevée. Le corps que nous avons sous les yeux n’est stable, n’est ce qu’il paraît à notre observation macroscopique, que parce que cette forme ou cet état représente la situation la plus probable de l’effet conjoint de l’agitation moléculaire.
Prenons le presse-papiers posé sur ma table, bien installé dans sa mission de retenir sur la table les feuilles de papier qu’un vent pourrait disperser. Il est fixe, immobile, entièrement soumis à la loi de la gravitation, car le nombre de molécules est uniforme à chaque instant et dans toutes les directions. Chauffons le presse-papiers. L’agitation moléculaire sera plus grande, mais la probabilité d’une asymétrie, c’est à dire la probabilité d’un mouvement sensible de molécules dans une direction plus que dans les autres, est extrêmement faible.
En termes purement probabilistes, correspondant à ce que le physicien nous dit être sa pensée, nous dirions qu’il existe une possibilité, bien qu’extrêmement improbable, d’observer un mouvement de toutes les molécules dans la même direction vers le haut. Que se passerait-il alors dans notre vision macroscopique ? Simplement la chose suivante : le presse-papiers monterait dans l’air à grande vitesse, parce que toute l’énergie thermique de l’agitation moléculaire se convertirait en énergie mécanique ou force vive, égale à la masse multipliée par le carré de la vitesse. Et si l’on pouvait observer, par un procédé quelconque, la température interne de l’objet, on verrait que, dans cet épisode spectaculaire de l’histoire du presse-papiers, sa température atteindrait le zéro absolu [6] !
Tout cela, qui nous paraît hautement fantaisiste, serait possible si nous admettions l’affirmation de Schrödinger sur la nature probabiliste, ou statistique, du monde physique. Et dans ce cas il nous faudrait reconnaître que la régularité de la chute des corps, même sur la lune, n’est qu’une apparence, et sujette aux mêmes vicissitudes que la chute d’une plume sur la terre. Nous dirions seulement que les écarts d’avec la régularité seraient extrêmement improbables.
En d’autres termes, si nous admettions ce probabilisme comme la seule façon rigoureuse de penser ces réalités physiques et chimiques, nous serions obligés de dire que notre division en phénomènes réguliers et phénomènes aléatoires est illusoire. Les premiers se réduisent au second : il n’y a que le phénomène aléatoire. La régularité observée en macro-physique et pompeusement appelée « loi » n’est que le déguisement d’une improbabilité extrême.
Pouvons-nous penser ainsi ? Les physiciens ont déjà renoncé, non seulement en fait, mais même en droit, à la possibilité d’exprimer les mouvements de l’agitation moléculaire (et ensuite l’activité plus intime encore de la matière) en terme d’équations différentielles, comme on traduit en formules mathématiques le mouvement d’un corps dans les cadres de la physique newtonienne. L’idée de « newtoniser » l’agitation moléculaire désordonnée est inacceptable, non seulement à cause du fameux principe d’indétermination de Heisenberg [7], mais encore en raison de tout le caractère aléatoire apporté à la physique moderne par les transformations dues à Plank et à Einstein.
Mais cela ne signifie pas qu’on attribue aux particules constitutives de la matière une anarchie absolue, ou une absolue indépendance par rapport aux causes. Non. L’électron peut être conçu comme une nature avec ses implications, mais ce qu’on ne peut pas vérifier, ni concevoir comme une réalité physique, c’est l’électron détaché de son contexte. Or, ce contexte est une trame de choses qui sont ce qu’elles sont – autrement dit : de natures –, et de hasards – c’est à dire d’interactions et de collisions qui ne sont pas exigées par la nature des choses, mais se produisent comme des intersections de lignes de causalité.
Est-il donc raisonnable de suivre la tendance des physiciens modernes à réduire les aspects d’ « ordre » à de pures expressions de probabilité ? Ou mieux, est-il raisonnable de penser que l’ordre est une apparence illusoire et le désordre la véritable réalité ? Pour des motifs que nous verrons plus loin, cette opposition ne me paraît pas bonne, comme ne me paraît pas heureuse non plus la philosophie probabiliste produite par les réflexions des scientifiques modernes.
Réversibilité et irréversibilité
Dans la partie précédente, nous avons parlé de la « double face » de notre univers physique quant à la régularité et à l’irrégularité des phénomènes, et nous avons vu que la tendance moderne est de ne voir dans la régularité des phénomènes macro-physiques qu’un résultat statistique des phénomènes micro-physiques. Nous allons maintenant considérer une autre « double face », avec un critère différent, qui se relie cependant au précédent. Nous dirons que les phénomènes nous apparaissent divisés en deux groupes : d’un côté ceux qui sont facilement réversibles, et de l’autre ceux qui sont difficilement réversibles.
Comme exemple presque parfait de phénomène réversible, prenons une fois de plus la chute des corps, mais conditionnée maintenant par un système d’échanges d’énergie qui soulignent la réversibilité. Imaginons une boule de matière parfaitement élastique, lancée d’une grande hauteur sur une superficie parfaitement rigide ; la boule tomberait avec une vitesse croissante, elle se comprimerait de manière ordonnée sous le choc et, sous l’action de l’élasticité, elle se décomprimerait en revenant à son point initial.
Cette description du phénomène, faite dans le style de l’époque newtonienne, fait abstraction de plusieurs réalités physiques inévitables lorsqu’elle parle d’une élasticité parfaite et d’un retour au point de départ. N’importe quelle expérience nous montre que ce pseudo mouvement perpétuel tend à s’arrêter graduellement, parce qu’une partie de l’énergie s’est perdue dans le frottement de l’air, et l’autre dans le frottement interne de la boule. Ce pendule élastique nous donne cependant un bon exemple de phénomène réversible. Plus parfait encore est le pendule purement gravitationnel. Prenons une masse "m" attachée à une tige rigide de longueur "l", et suspendue à un axe de frottement minimum. En retirant la masse "m" de la position d’équilibre et en l’amenant à un point "A", nous l’élevons à l’intérieur du champ de gravitation de la terre et nous la dotons d’une énergie potentielle qui se mesure par le produit "m.g.h", où "g" est l’accélération du champ et "h" la hauteur du point "A". Si on lâche la masse elle tombe, mais comme elle est prisonnière de la tige de mouvement circulaire, elle tombe en décrivant un arc de cercle qui l’amène à sa position initiale ; là, ne rencontrant pas d’obstacle et étant animée d’une énergie cinétique égale à 1/2m.vt, où "v" est la vitesse, la masse continue et revient au même niveau, mais à la position "B" symétrique de "A". Et elle oscillerait ainsi perpétuellement, s’il n’y avait pas le frottement de l’air et le frottement de la suspension.
Prenons maintenant une boule de plomb lancée de cinq cents mètres d’altitude sur une plaque d’acier de grande épaisseur ; qu’arrivera-t-il quand elle atteindra la plaque ? Non seulement elle s’écrasera, mais de plus elle fondra. La première loi de la thermodynamique, ou loi de conservation de l’énergie, nous dira que l’énergie mécanique s’est entièrement transformée en énergie thermique, sans aucune perte, mais la seconde loi de la thermodynamique, ou loi de Clausius, nous dira que l’énergie mécanique s’est dégradée (il serait mieux de dire qu’elle s’est désordonnée) en énergie thermique irréversible.
Un mathématicien furieusement abstrait, comme s’exprime Emile Borel, nous dira que l’irréversibilité est statistique et non absolue, et nous démontrera qu’il y a une probabilité que la boule de plomb revienne froide à son point de départ. Le même mathématicien furieusement abstrait nous dira, devant une casserole qui bout sur le feu, qu’il y a une probabilité que nous voyions la casserole monter vers le toit avec l’eau brusquement congelée. Ces probabilités s’expriment par des nombres fantastiquement petits, 10-1000 par exemple. Pour le mathématicien, ce nombre du groupe des nombres réels a les mêmes droits que tout autre. Il reste à savoir si le physicien peut penser de la même manière, et si ces probabilités ne sont pour lui, réellement, que des probabilités.
Quoi qu’il en soit, ce qui nous semble incontestable est l’avantage que, « in the long run », le phénomène irréversible garde sur les premiers. Pour autant, est-il juste, seulement pour cette raison, de dire que tout est statistique dans la physique, ou que toutes les choses tendent vers le désordre, comme le dit Schrödinger ?
Nous verrons plus loin que le probabilisme de la science moderne, vu d’un point de vue philosophique, est unilatéral et résulte d’une erreur de perspective. La clé qui éclaire merveilleusement une quantité sans nombre de problèmes épistémologiques suscités par la science moderne est encore l’hylémorphisme aristotélicien. La formule du Stagirite : « tous les corps sont composés de matière et de forme », qui pour beaucoup n’est qu’une phrase, a la force d’intégrer les divers dualismes observés dans l’univers physique.
Avant cela cependant, il est nécessaire que nous consacrions quelques minutes au concept de probabilité et de calcul aléatoire.
Probabilités
Pour bien comprendre ce qui vient d’être dit, et ce que nous allons dire, il convient de rappeler la notion de probabilité. Dans le langage commun, le terme « probable » est employé pour désigner une vague expectative, ou une presque certitude d’un événement futur. On dit qu’il est « probable qu’untel vienne aujourd’hui nous rendre visite » ou « il est probable qu’il pleuve » pour exprimer l’incertitude et la possibilité de tels événements.
En langage scientifique, on utilise fréquemment le même terme avec la même signification imprécise quand on dit, par exemple, qu’ « il est plus probable que la vie ait commencé avec les hétérotrophes qu’avec les autotrophes » ; mais dans les sciences mathématiques le concept gagne une clarté et une précision de quantité. Il s’exprime par un nombre.
Pour une brève présentation de la probabilité mathématique, je crois que la meilleure voie est celle indiquée par l’histoire. Ce fut vers le milieu du XVIe siècle que le chevalier De Méré, joueur passionné, eut l’idée de consulter Pascal et Fermat sur la possibilité d’une certaine rationalisation des espérances de gain dans les jeux de hasard. Prenons trois jeux très connus et très anciens : la roulette, le dé et la pièce de monnaie avec pile ou face, et postulons la première condition essentielle pour la mathématisation des espérances de gain ; en chacun de ces jeux le résultat est imprévisible, et les résultats possibles, trente-sept pour la roulette, six pour le dé et deux pour la pièce de monnaie, sont absolument égaux en possibilité. On imagine une roulette dont aucun des trous où tombe la boule ne soit plus favorable que les autres, et on imagine que le procédé d’extraction est absolument dénué d’une quelconque tendance systématique. Les anglais expriment cette condition par le terme « randomness », et les théoriciens de la probabilité mathématique, quand ils veulent dire que la roulette « n’a pas de mémoire » et que chaque événement est indépendant du précédent, utilisent le terme compliqué « stochastique » ou « stochastiquement ». Nous nous en tiendrons au terme « aléatoire », simple et bien suffisant, pour décrire l’expérience dont la prévision ne peut être exprimée qu’en termes de probabilité.
Prenons le cas de la roulette pour définir le concept mathématique de probabilité : le joueur qui parie sur un numéro se trouve devant trente-sept possibilités égales, dont une lui est favorable et trente-six lui sont contraires. Nous dirions qu’il attend un sur 37 tirages possibles ; ou bien nous dirons, déjà dans les termes de la nouvelle discipline née dans la correspondance entre Pascal à Paris et Fermat à Toulouse, que la probabilité de gagner est :
P = 1/37
D’une manière générale, nous pouvons annoncer ainsi la définition classique de probabilité : dans un ensemble d’événements de même espèce, dotés d’un caractère absolument aléatoire (randomness), la probabilité est le rapport entre le nombre d’événements attendus et le nombre d’événements possibles :
P = nombre d'événements attendus/nombre d'événements possibles
Revenons à la roulette et prenons le cas d’un pari fait sur trois numéros ; la probabilité de gagner sera alors exprimée par la relation :
P = 3/37
Dans le cas du dé, la probabilité que l’un des numéros sorte est 1/6 ; et dans le cas de la pièce de monnaie, la probabilité de chaque événement est 1/2.
La première observation que nous devons faire, à partir de la définition, est que la probabilité est un numéro entre 0 et 1 :
0≤P≤1
La valeur 0 correspond à la pure impossibilité, et la valeur 1 à la certitude ; si le joueur ne parie sur aucun numéro il ne pourra absolument pas gagner : P=0 ; mais s’il parie sur tous il gagnera certainement et P=1, car le nombre d’événements attendus est égal au nombre d’événements possibles.
Certains auteurs modernes se plaignent du formalisme de cette définition qui semble inventée par les mathématiciens, et préfèrent amener l’idée de probabilité à partir d’une expérience typique des phénomènes stochastiques. Ils prétendent qu’il y a un moyen de rechercher le comportement régulier (et donc capable de rationalisation) de l’ensemble des événements absolument aléatoires. Le simple bon sens nous dit que, dans le jeu de pile ou face la probabilité de l’un des deux événements est 1/2 dans la supposition où, « in the long run », l’un et l’autre sortiront un nombre égal de fois. En d’autres termes l’expérience du joueur sagace lui enseignera deux convictions, deux certitudes :
– la certitude de l’incertitude de l’événement attendu.
– la certitude du nombre égal de sorties de "pile" ou "face" quand nous prolongeons l’expérience un très grand nombre de fois.
Il n’y a jeu que là où il y a incertitude, risque, raison de parier, c’est-à-dire, quand on a la certitude de l’incertitude ; mais de même il n’est rationnel de jouer que quand la rémunération est proportionnelle à l’espérance du gain : dans le cas de la pièce de monnaie, quand le pari est proportionnel au nombre de sorties pour un très grand nombre d’expériences.
Faisons l’expérience suivante avec un jeu binaire qui peut être celui de la pièce de monnaie ou, à la roulette, le pari sur pair ou impair (abstraction faite des zéros) : jouons dix fois, en notant les résultats. Dix tirages forment une expérience E = a + b, “a” étant le nombre de “pile” et “b” le nombre de “face”. Dans une seule expérience, les deux nombres pourront être bien différents ; mais si nous répétons l’expérience “E” deux, trois, dix, cent, mille fois, nous verrons que la « fréquence relative » du “a” (ou du “b”), c’est à dire le rapport entre les sorties du “a” et le nombre de tirages, tend vers la valeur 0,5. Or, cette valeur limite de la « fréquence relative » est exactement celle de la probabilité. Et plus le nombre de tirages sera grand, plus grande sera la régularité du phénomène initialement défini en termes de la plus pure irrégularité.
Le calcul des probabilités, ou calcul aléatoire est, pour ainsi dire, le dernier recours d’ordonnancement du désordre, et n’est praticable que si les événements erratiques gardent une obéissance minimale : ce sont des expériences de même espèce et d’égale viabilité.
Supposons maintenant le cas d’un dé qui, l’expérience ayant été faite avec un très grand nombre d’observations, comme pour l’expérience antérieure, présente une fréquence relative sensiblement plus grande que 1/6 pour le numéro 2, et sensiblement inférieure à 1/6 pour le numéro 5. Ce résultat prouverait l’existence d’une tendance favorable pour le numéro 2, et défavorable pour le numéro 5 ou mieux, il prouverait que le dé en question est sensiblement défectueux.
Le calcul des probabilités, à partir de la correspondance entre l’un des plus grands et des plus universels génies de l’histoire, et le plus ingénieux des calculateurs, a gagné une nouvelle impulsion avec les œuvres de Jacques Bernouilli [8] et Abraham de Moivre [9], au début du XVIIIe siècle, mais ce fut seulement avec Laplace [10] et surtout avec Gauss [11], qu’il devint un instrument de mathématisation de la physique.
Toute la physique, comme nous le savons, est construite sur la mesure des diverses dimensions présentées par les phénomènes. Einstein dira plus tard que « seul a de la valeur pour lui, en tant que physicien, ce qui peut être mesuré ». Malheureusement, le grand physicien continua sa phrase et ajouta : « et également en tant que non physicien », faisant ainsi profession de foi d’empirisme philosophique.
Mais la mesure en physique n’a pas l’exactitude ; celle-ci ne se rencontre que dans les êtres de raison mathématique. Dans mon esprit, le rapport entre le côté du carré et sa diagonale est , qui est un nombre qui échappe au groupe des rationnels m/n (m et n entiers) et pour cette raison ne peut être exprimé avec un nombre fini de décimales. Dans un carré physique, tracé d’une manière quelconque, le rapport mesuré entre la diagonale et le côté sera :
1,400000
1,410000
1,414000
1,414200
1,414210
1,414213 selon le degré de précision utilisé pour la mesure.
La mesure physique est toujours approchée, ou toujours entachée d’erreur, et on peut même dire que le premier soin d’un physicien, devant une expérience et un instrument de mesure quelconques, est de connaître l’ordre de grandeur de l’erreur ou le degré d’approximation qu’elle comporte, ou encore le nombre de chiffres significatifs avec lesquels on puisse travailler pour sa mesure. C’est Gauss qui vit le premier dans la mesure physique un processus aléatoire, ou une espèce de jeu.
Prenons par exemple une détermination de latitude (avec laquelle les premiers géomètres purent calculer le méridien de la Terre). L’observateur mesure dans le cercle méridien un angle de distance zénithale d’une étoile de déclinaison connue avec une précision supérieure ou égale à celle de la latitude désirée. S’il mesure la même latitude avec une autre étoile, et s’il répète les expériences, il aura sur son carnet les résultats suivants :
42° 37’ 15’’,7
42° 37’ 15’’,8
42° 37’ 15’’,4
42° 37’ 15’’,6
42° 37’ 15’’,7 […]
Ces résultats indiquent que la mesure est exacte jusqu’à l’unité de la seconde de l’arc, et inexacte pour les décimales.
La théorie des erreurs et la méthode des moindres carrés de Gauss partent du postulat que, l’expérience étant parfaitement erratique et non systématique, la moyenne des valeurs de l’expérience réitérée sera la valeur la plus probable. La méthode de Gauss permet d’avoir une idée de l’erreur probable de la moyenne.
Une autre application scientifique issue du calcul des probabilités, avec les travaux de Quetelet [12], fut la méthode du calcul statistique appliqué à la démographie et aux problèmes d’assurance-vie. Mais c’est surtout en physique, au sein même de la science qui cherche à comprendre le fonctionnement de la machine du monde, que la statistique et le calcul des probabilités vont trouver leur champ d’application le plus ample.
La physique moléculaire se montrait déjà dans la théorie cinétique des gaz, présentée par Maxwell [13], comme un jeu dont le résultat macroscopique (équilibre de température entre deux compartiments communicants) serait une donnée statistique. En transposant une telle conception dans la seconde loi de la Thermodynamique, Boltzmann et Gibbs ont donné à la notion d’entropie, comme nous le verrons plus loin, un caractère probabiliste. Et aujourd’hui, après la monumentale réforme planckienne , qui apporte à la notion d’énergie la constitution quantique ou moléculaire, il est compréhensible que Bertrand Russel dise que « la probabilité est le concept le plus important de la science moderne » et que Schrödinger dise que « toutes les lois physiques sont de nature statistique ».
Probabilisme
De telles affirmations, avalisées par des scientifiques d’un prestige immense, nous conduiraient à un curieux et déprimant scepticisme : non seulement nous nous trompons dans les mesures que nous faisons, mais encore, et surtout, nous nous illusionnons au sujet des formes que nous appréhendons à notre échelle humaine. La régularité de certains phénomènes, qui réjouissait de manière un peu exagérée les déterministes de l’ère illuministe, laquelle préparait l’intronisation de la déesse Raison sur les autels de la Révolution, n’est que la résultante statistique d’un comportement aux dérèglements extrêmement improbables.
Les déterministes ne voyaient dans le monde physique que les natures et leurs relations nécessaires. Ils admettaient l’impossibilité pratique d’une parfaite mise en équation et par conséquent de la parfaite prévision des phénomènes, mais n’admettaient pas l’idée d’un désordre intrinsèque, ou l’idée d’un hasard dans la machine de l’univers. Voici comment De Broglie décrit le paysage déterministe de la physique classique :
Les équations de la mécanique classique déterminent entièrement le mouvement d’un système quand on connaît à l’instant initial la position et l’état du mouvement des parties du système. Ainsi, le mouvement classique d’un corpuscule était entièrement prévisible si on connaissait, à l’instant initial, sa position et sa vitesse. Cette possibilité de prévoir de manière inexorable le devenir d’un système mécanique, quand on connaît un certain nombre de données sur son état présent, constituait le déterminisme de la mécanique classique. Les succès retentissants obtenus, principalement en astronomie mathématique (ou dans ce qu’on appelle mécanique céleste), avaient amené tous les physiciens à entreprendre la construction d’une physique théorique dans laquelle le déterminisme serait toujours confirmé. Les phénomènes macroscopiques que les physiciens étudiaient s’accommodaient à cette exigence, et toute la physique théorique classique reposait sur les équations différentielles ou les équations à dérivées partielles qui permettaient de calculer rigoureusement l’évolution d’un système physique quelconque à partir de certaines données sur l’état initial [14].
En d’autres termes, nous pourrions dire que la physique classique, avec ses concepts de solide indéformable, de simultanéité en des points différents, et de vitesse aussi grande que l’on voulait, se distinguait peu, dans son degré d’abstraction, d’une géométrie. L’influence du rationalisme cartésien prédominait en elle.
Aujourd’hui triomphe l’influence d’un empirisme brutal. Il ne suffit pas de dire que les mesures physiques sont sujettes à des erreurs qui diminueront à mesure que les instruments se perfectionneront. Non. Maintenant, une autre idée est devenue inhérente à l’idée de mesure, celle, pour ainsi dire, de viol. Avec le très fécond principe d’indétermination de Heisenberg [15], qui s’insère bien dans le contexte de la grande révolution planckienne, la connaissance passive d’une réalité physique quelconque, telle qu’elle est, devient impossible, puisque la réalisation de mesures suppose une agression, et un changement de situation du phénomène. Et il est facile de prévoir les conséquences épistémologiques de ce principe dans une culture dans laquelle la philosophie se soumet aux succès de la science empirique.
Il ne suffit pas non plus de dire que l’échelle fait le phénomène, c’est à dire que le cosmos apprécié à notre échelle a un comportement et une physionomie prodigieusement différents de ceux que nous présente le monde microscopique, et de ceux que nous voyons indirectement dans le monde corpusculaire. La physique moderne a sécrété une philosophie de la nature dans laquelle nous sommes invités à voir dans les formes macroscopiques – cette table, la plume avec laquelle j’écris moi-même – de purs résultats aléatoires d’un grand nombre de corpuscules, qui seraient plus vrais ou plus réels que lesdites formes.
La sentence de Schrödinger, répétée plus d’une fois, est une espèce d’anti-gestaltisme, ou de matérialisme dans un sens spécial qui s’oppose de manière frontale à l’hylémorphisme aristotélicien. Dans cette ancienne et indestructible doctrine, tous les êtres créés corporels sont composés de matière et de forme, et ne sont intelligibles que par le côté de la forme. La physique moderne a apporté dans son glorieux bagage ce monstre épistémologique, qui point ici et là dans les confessions de ses grands maîtres, et qui consiste en l’inversion de l’hylémorphisme d’Aristote. Le monde physique ne serait pas intelligible, mais seulement susceptible d’être appréhendé par le côté de la matière, et la tentative d’une telle aventure trouve son instrument principal dans le concept de probabilité, qui est le dernier effort de l’intelligence pour rationaliser l’inintelligible.
Degrés d’improbabilité.
Pour mieux comprendre l’aspect probabiliste de la science moderne, il convient de reprendre une espèce de jeu qui servira à suggérer l’irréversibilité de la thermodynamique, et plus particulièrement l’expérience, rappelée par Maxwell, d’un gaz en deux compartiments initialement étanches, et initialement asymétriques ; l’un chaud et l’autre froid. Pour cela, prenons une boîte avec deux compartiments, avec des boules blanches dans l’un et des boules noires dans l’autre. Soit N le nombre de boules de chaque couleur. Initialement, nous avons la structure :
N.b –- N.p
C’est à dire N boules blanches dans le compartiment de gauche, et N boules noires dans le compartiment de droite. Cette position initiale, différenciée, ordonnée, rangée aurait, disons, l’entropie S = 0. En termes d’hylémorphisme, nous dirions que cette position initiale a un ordre, une perfection de formes caractérisés par la systématisation du placement des boules. Nous ne dirions en aucune manière qu’un tel arrangement constitue la forme la plus riche que nous pourrions réaliser avec des boules blanches et des boules noires. Une gravure de Goeldi représente un arrangement noir-blanc infiniment plus riche que notre pauvre boîte à deux compartiments. Il y a cependant entre la boîte et la gravure une chose commune : l’arrangement des éléments en vue d’une forme.
Ouvrons maintenant une porte de communication et agitons la boîte « stochastiquement », comme nous disions il y a peu, c’est à dire agitons-la sans aucun ordre, et imaginons que les boules n’aient rien de différent qui les incline vers un compartiment ou vers l’autre. A la fin de “n” battues, nous pouvons croire que l’ordre initial est détruit, et qu’à sa place nous avons une distribution de “b” et “p” entièrement aléatoire. On applique alors ici le calcul de probabilité si nous voulons savoir quelle est la chance d’obtenir telle ou telle proportion de “b” et de “p” dans chaque compartiment. Pour une plus grande simplicité des calculs, nous admettrons qu’il y aura toujours le même nombre N dans chaque compartiment, ainsi distribué :
N = N’b + N’’p
et que l’ordre des boules de même couleur est indifférent.
Prenons N = 10 et calculons la probabilité des divers arrangements du compartiment de gauche. Celui de droite sera complémentaire : si à gauche nous avons 4b+6p, à droite nous aurons 6b+4p, dans l’hypothèse admise pour ce jeu. Le calcul fait au moyen des formules de combinaisons nous donne les résultats suivants :
10b + 0p , C² = 1
9b + 1p , C² = 100
8b + 2p , C² = 2025
7b + 3p , C² = 14400
6b + 4p , C² = 44130
5b + 5p , C² = 63504 ——— axe de symétrie des valeurs.
4b + 6p , C² = 44130
3b + 7p , C² = 14400
2b + 8p , C² = 2025
1b + 9p , C² = 100
0b +10p , C² = 1
——————
Total = 184816
où C² sont les combinaisons possibles, un à un, deux à deux, trois à trois, etc. élevées au carré parce qu’appliquées aux boules noires qui émigrent de la droite vers la gauche, et aux boules blanches qui émigrent de la gauche vers la droite. Les probabilités seraient données par les rapports entre ces nombres favorables et le nombre total, 184816, de cas possibles. Nous aurions le tableau suivant :
10b + 0p , P = 0,000005
9b + 1p , P = 0,000541
8b + 2p , P = 0,010956
7b + 3p , P = 0,077807
6b + 4p , P = 0,238880
5b + 5p , P = 0,343670 […]
Il est facile de voir que les probabilités de 4b+6p, 3b+7p, etc. sont égales à leurs symétriques 6b+4p, 7b+3p, etc., comme il est également facile de vérifier que la somme de toutes les probabilités est égale à 1 (un), à l’approximation près du calcul. Examinons maintenant les résultats exprimés par ces chiffres. Ce que l’on remarque tout de suite, c’est la faible probabilité de la situation 10b+0p qui correspond à l’ordre primitif, et ceci indique déjà qu’une fois l’ordre initial secoué, la plus grande probabilité se trouve du côté du mélange 5b+5p, et la plus faible probabilité correspond au retour à l’ordre initial 10b+0p. En d’autres termes, nous pourrions dire que notre appareil, mis en mouvement, nous donne un modèle de difficile réversibilité, de plus forte probabilité du gris sur le blanc et le noir, ou d’ « entropie croissante ». Cette petite boîte avec dix boules noires et dix boules blanches est ainsi un petit modèle de notre univers physique, vu sous l’angle de la seconde loi de la thermodynamique.
Ici déjà, malgré le modeste nombre N de boules, nous voyons que l’improbabilité du réarrangement 10b+0p est assez grande. Nous pouvons l’exprimer ainsi : si nous voulions attendre une sortie régulièrement répétée du phénomène 10b+0p, dont la probabilité est 0,000005, ou dont la fréquence relative est 1/200000, nous aurions à répéter un nombre considérable de fois le groupe de 200000 tirages.
L’autre aspect qui nous impressionne tout de suite dans les résultats obtenus est la concentration de la zone autour du résultat moyen 5b+5p. Nous voyons que les deux groupes symétriques 6b+4p et 4b+6p et le groupe du centre, 5b+5p, sont détenteurs de la quasi totalité des cas possibles : 151764 sur 184816. Et cela montre la tendance forte de l’ensemble des boules à rester dans la région moyenne autour du centre ; ou mieux, cela montre l’impossibilité de l’écart, comme nous le verrons dans la suite de manière plus détaillée.
Passons maintenant de N=10 à N=100 et nous verrons le saut impressionnant des chiffres. En calculant approximativement les combinaisons possibles “C”, nous avons le tableau suivant :
Dans ce calcul, fait avec des logarithmes pour faciliter les énormes multiplications, nous avons pris une approximation de dix pour les exposants, afin de donner au lecteur une idée seulement de l’ordre de grandeur des nombres. Dans le calcul du total, la portion 1059 écrase évidemment les précédentes si nous nous contentons de deux chiffres significatifs pour le résultat
Nous sommes devant des nombres déjà fantastiques, et dont nous pourrions difficilement nous faire une idée. Le nombre 1059 est le nombre formé du chiffre 1 (un) suivi de cinquante-neuf zéros. Nous avons dès lors le premier calcul, celui de la probabilité que le mélange revienne à l’ordre initial :
Pour tenter de visualiser une probabilité aussi infime, posons le problème en terme de fréquence relative. Combien de battues, ou combien d’expériences vérifiées devrions nous faire pour obtenir la sortie du résultat 100b+0p ? La réponse est : 1059. Concrètement, imaginons un dispositif qui permette une battue avec un comptage par seconde. Combien de temps devrions nous probablement attendre pour voir de nouveau l’ordre initial 100b+0p ? En faisant le calcul, nous trouvons : 3x1049 siècles, ce qui représente, selon les hypothèses cosmogoniques actuelles, environ
1.000.000.000.000.000.000.000.000.000.000.000.000 fois plus que l’âge de tout l’univers !
Et maintenant, plus encore que dans le cas précédent, nous voyons la quasi totalité des cas se grouper autour de la situation symétrique de maximale entropie : 50b+50p.
Reprenons haleine, et passons au cas N=1000. Et notons que ce nombre de boules est infime comparé au nombre de molécules dans un millimètre cube d’air.
Pour N=1000, le nombre de cas possible monte à 101500, et la probabilité du retour à l’ordre initial est du même ordre de grandeur (négatif) : 10-1500.
Et ce nombre échappe à toute possibilité de visualisation.
Pour mieux sentir l’irréversibilité de l’ordre détruit avec 10, 100, 1000 et plus boules, il est oiseux de calculer la très lointaine probabilité d’un événement comme 10b+0p ; 100b+0p ; 1000b+0p. Plus instructive sera la considération des écarts autour de la position mesurée de désordre maximum. Un calcul approché sera suffisant pour le but que nous avons en vue ; appelons donc écart le rapport :
Dans le cas de 10 boules, l’écart de 0,1 ou 10% sera atteint avec 6b+4p ou 4b+6p ; dans le cas de 100 boules, le même écart sera atteint avec 60b+40p ou 40b+60p ; dans le cas de 1000 boules l’écart de 10% sera réalisé avec 600b+400p ou 400b+600p.
Prenons maintenant comme point de départ la situation de parfait mélange : 5b+5p ; 50b+50p ; 500b+500p, et calculons la probabilité de l’écart de 10% dans chaque cas, en supposant un procédé d’agitation sans aucune discrimination raciale des boules, et supposons, pour la commodité du calcul, que la battue se fasse de telle manière qu’une seule boule passe en même temps dans un sens ou dans l’autre, de manière à ce que le nombre de boules contenu dans chaque boîte reste constant. Si par exemple une blanche passe à droite et une autre blanche à gauche, la forme initiale reste la même. Si une blanche passe à droite et une noire à gauche, on enregistre un écart qui dans le cas où N = 10 sera de d = 10% ; dans le cas de N = 100 d = 1% et dans le cas de N = 1000, d = 0,1%. Calculons maintenant la probabilité d’un écart de 10% dans chaque cas.
Il est facile de vérifier que la probabilité d’un seul échange avec déséquilibre, blanche vers un côté et noire vers l’autre est : P = 1/2.
La probabilité que le même échange b pour p se produise deux fois, appelée « probabilité composée » est égale (cela se démontre) au produit des probabilités simples. Dans ce cas :
Et la probabilité que le même échange se produise « n » fois sera :
Ces formules sont approchées, parce qu’à mesure que se fait l’échange, le nombre de boules qui émigrent diminue, et par conséquent la probabilité diminuera. Pour les valeurs grandes de N et petites de d, la différence est négligeable quand il s’agit seulement de montrer les ordres de grandeur.
En calculant pour dix, cent, mille boules, les valeurs de la probabilité de l’écart de 10% sont :
Et ainsi, on voit qu’avec 1000 boules, la probabilité d’un écart de 10% est environ 10-30, qui est déjà un nombre extrêmement petit.
Des grains à la place des boules
Imaginons maintenant nos deux boîtes remplies non de boules, mais de poussière blanche et noire mélangées parfaitement. Partons de la situation du gris parfait, formé d’un nombre égal de grains noirs et blancs de chaque côté. Pour rappeler une expérience triviale, imaginons un mélange de teinte blanche et noire formée par émulsion où les grains mesurent 0,001mm. Disons que dans un millimètre cube, il en tient 106. Dans un dm3 (ou litre), il en tiendra 1012.
Calculons maintenant la probabilité de divers écarts. L’écart d=10%, dans ce cas de 10 grains, serait :
Plus loin, nous verrons ce que ce nombre représente, ou mieux, nous verrons ce qu’il ne représente pas. Il est tellement excessif qu’il échappe à toute visualisation et à toute comparaison. En termes de sens commun, il est plus simple de dire que ce gris, pour autant que nous l’agitions, ne nous fournira jamais l’écart de 10%. Cherchons à quel écart correspond la probabilité 1/21000 ou 1/10300 que nous considérions, il y a peu, comme prodigieusement petite. Nous trouverons l’écart suivant :
d=0,00000010
P=1/2100
On voit par là que la probabilité d’un écart par rapport à la moyenne, dans la mesure extrêmement faible de 0,000000010%, est elle-même infime. En d’autres termes, nous dirions que les grains noirs et blancs, en admettant la parfaite « randomness », et livrés à eux-mêmes, sans aucune intervention de l’extérieur, sont inexorablement enfermés dans un gris irréversible. La probabilité que survienne une différenciation perceptible relève plus de la plaisanterie que du nombre. On note au passage que dans les mélanges de teintes on observe parfois, après que le mélange a été fait, quelques points de concentration d’une des couleurs ; mais cela arrive à cause d’une certaine affinité, inclination, loi, découlant de différences profondes entre les grains, et non par la force de la multiplication d’expériences fortuites avec des grains égaux.
Des molécules à la place des grains
Passons maintenant aux molécules, et rappelons qu’un gaz à 0° centigrades, avec une pression égale à celle de l’atmosphère, a 1022 molécules par dm3 , ou litre. Nous passons de 1012 à 1022. En d’autres termes, nous avons 10.000.000.000 fois plus de molécules que nous n’avions de grains. Imaginons maintenant pour simplifier les calculs, qu’il existe deux types de molécules : les rapides et les lentes. Distribuées uniformément dans les deux compartiments, elles donnent des températures moyennes et égales ; distribuées de manière asymétrique, elles donneraient un côté chaud et l’autre froid. Partons de l’état initial de mélange parfaitement symétrique, chose qui s’obtient, comme nous l’avons vu, au prix de successives « battues ». Dans le cas du gaz, il suffit de laisser un petit passage entre les deux compartiments pour que la différence de température tende rapidement vers zéro.
Imaginons la moyenne atteinte, le compte le plus probable, et cherchons maintenant à calculer, ou même seulement à imaginer les probabilités infinitésimales. Pour que l’écart soit perceptible avec les instruments les plus précis, le nombre, qui était déjà fantastique dans le cas des grains de couleur, devient maintenant dépourvu de toute signification.
Maxwell, sur ce problème, s’est amusé à imaginer un petit démon placé à la porte de communication, et chargé de ne laisser passer vers la droite que les molécules rapides, et de ne laisser à gauche que les lentes. Ainsi, avec cet agent spirituel (bien que malin) nous pouvons récupérer l’ordre perdu, nous pouvons atteindre les clairs-obscurs désirés, nous pouvons en somme vaincre la tendance propre de la matière livrée à ses propres indéterminations. La plaisanterie de Maxwell est plus profonde qu’elle ne paraît à première vue, parce qu’elle met en évidence la nécessité d’un agent supra matériel pour obtenir le très modeste résultat d’une différence d’un sur un trillion degré centigrade entre les deux couches de gaz.
Emile Borel, qui s’est rendu célèbre dans la spécialité de la probabilité mathématique, devant le simple jeu de deux compartiments avec 3x1022 molécules, eut une idée extravagante, qui est devenue classique. Pour exprimer la probabilité d’un écart perceptible par les balomètres les plus perfectionnés, Borel nous propose la situation suivante : prenons mille ou dix mille singes dans un édifice, avec un nombre égal ou supérieur de machines à écrire et des rames de papiers proportionnées au jeu. Prisonniers dans l’édifice avec de l’eau et de la nourriture, les singes feront diverses choses ; si minime soit-elle, il existe une probabilité que nous trouvions, une semaine après, dactylographiée et rangée, toute l’œuvre de Shakespeare, dans toutes les traductions.
Nous pourrions nous permettre un divertissement analogue. Rappelons-nous de la teinte noire et blanche mélangée en un gris parfait, et imaginons la probabilité de l’événement suivant : un peintre qui peindrait en gris un mur et plongerait le pinceau dans le mélange pour l’appliquer ensuite sur le mur, verrait avec stupéfaction, non un mur gris, mais un mur blanc avec des caractères noirs reproduisant les Lusiades.
Emile Borel, un peu ennuyé, préfère dire que ces choses sont impossibles, mais il ne cherche pas à tirer parti de cette attitude du point de vue philosophique. Il transmet au lecteur l’idée que ce dernier possède déjà au niveau du sens commun, ou il se contente du pragmatisme [16].
Probabilités excessivement petites
Avant d’aborder avec le matériel scientifique présenté jusqu’ici, l’interprétation philosophique et théologique, qui est l’objectif principal de ce travail, attardons-nous un peu à écarter un obstacle que nous rencontrons fréquemment sur notre chemin : l’idée que l’improbable, aussi improbable qu’il soit, se produira à condition que l’on donne du temps au temps. En règle générale, les personnes qui s’inclinent avec enthousiasme devant les formes les plus comiques de l’évolutionnisme comptent sur le temps, un peu comme les réformateurs pressés comptent sur le trésor national, les deux choses leur paraissant infinies. Or, aussi bien dans l’espace que dans le temps, l’univers est beaucoup moins grand qu’il ne paraît à ceux qui comptent sur son amplitude pour obtenir des probabilités de l’ordre de P=10-500 ou P=10-1000.
Il est utile de rappeler que cette manière exponentielle d’écrire les nombres cache beaucoup de leur grandeur. Qu’est-ce que 10500 ou 101000 ? Voyons comment s’écrirait le nombre de centimètres cubes de l’univers connu jusqu’aux galaxies distantes de 10 billions d’années-lumière. Une année-lumière est une distance respectable, qui fait de tout notre système planétaire une petite choses microscopique. Elle mesure approximativement dix trillions de kilomètres. Dix billions d’années-lumière sera une distance beaucoup plus respectable. D’autre part, un centimètre cube est un dédale ; dans la pièce où nous écrivons il y a 160.000.000 de centimètres cubes. Et maintenant je demande de nouveau : combien de millions de centimètres cubes contient notre prodigieux univers de dix billions d’années-lumière de diamètre ? Voici la réponse laconique du nombre exponentiel :
V de l’univers = 1085 cm3
Comparez ce nombre avec ceux que nous avons trouvés pour exprimer la probabilité de 10% d’écart de 1000 boules :
P = 10-100
Comparez-le à la fantastique probabilité du même écart dans le cas des grains : P=10-30000000000
Nous avons mesuré le volume de l’univers connu, calculons maintenant, de manière approximative, le nombre d’atomes. Dans le livre cité, Borel fait le calcul sur la base d’une densité moyenne de 10 atomes par centimètre cube, et arrive à ce modeste total :
Nombre d’atomes de U = 10110
Et maintenant, si le lecteur apprécie les complications et est capable de suivre une représentation amusante d’un de ces nombres de super improbabilité, je lui offre cette page vertigineuse de Borel :
Imaginons donc, avec Boltzmann, un univers U2 qui contienne autant d’univers U1, semblables au nôtre, que le nôtre contient d’atomes ; imaginons ensuite un univers U3 qui contienne le même nombre d’univers U2 ; et ensuite un univers U4 qui contienne également le même nombre (10110) d’univers U3 ; et ainsi de suite, répétons un million de fois cette même opération jusqu’à ce que nous arrivions à U1.000.000. Cet univers, ou super-univers, contiendrait un nombre d’atomes égal à 10110000000. Imaginons, d’autre part, une durée T2 qui contienne autant de durées T1 que cette durée T1 de milliards d’années contient de secondes, et ensuite une durée T3 qui contienne le même nombre de durées T2 ; et ainsi de suite jusqu’à ce que nous arrivions à la durée T1.000.000. Et maintenant supposons une expérience, ou un jeu répété autant de fois qu’il y a d’atomes dans l’univers U1.000.000, et se renouvelant autant de fois qu’il y a de secondes dans la durée T1.000.000 (…). Si la probabilité de succès d’une expérience isolée est négligeable à l’échelle super-cosmique (comme celle que nous avons suggérée) un calcul facile montre que la probabilité d’un seul succès est tellement faible qu’elle peut être négligée. [17].
Et l’auteur donne l’exemple du mélange des gaz, dont la réversibilité nécessiterait les chances d’un univers U1.000.000, de durée T1.000.000 , où l’expérience pourrait être répétée un grand nombre de fois.
Émile Borel, dans l’œuvre citée, donne trois échelles de « probabilités négligeables » : la probabilité négligeable à l’échelle terrestre, de l’ordre de 10-10 ou 10-15 ; la probabilité négligeable à l’échelle cosmique, de l’ordre de 10-50 ; et la probabilité négligeable à l’échelle super-cosmique 10-n , « n » étant un nombre de dix chiffres ou plus. Mais le grand mathématicien de la probabilité semble également fuir toute recherche philosophique. Quand il dit « probabilité négligeable », il semble énoncer un critère pragmatique sans conséquences plus importantes. La probabilité en question sera pratiquement négligeable.
Dans l’introduction de l’opuscule, l’auteur nous dit :
Un mathématicien furieusement abstrait pourrait prétendre qu’il suffirait de recommencer l’expérience un nombre suffisant de fois, un nombre représenté par vingt millions de chiffres par exemple, pour avoir, au contraire, la certitude que le miracle se produirait de nombreuses fois au cours de ces expériences innombrables [l’auteur se réfère au « miracle » des singes dactylographes]. Mais il est humainement impossible d’imaginer que l’expérience soit renouvelée autant de fois [18].
Et il répète les considérations sur la taille de notre univers, en concluant sur l’ « impossibilité pratique » de l’impressionnant résultat dactylographique : toutes les œuvres de Shakespeare dans toutes les traductions tapées au hasard, stochastiquement, par mille singes.
Nous pouvons exiger des scientifiques une conclusion plus catégorique : est-ce seulement une impossibilité pratique, relative, ou est-ce réellement une impossibilité ?
Sont-ils physiciens ou mathématiciens ?
Je crois qu’il ne suffit pas de raisonner sur la « petitesse négligeable » de notre univers U1 pour des événement dont la probabilité est dite d’échelle super-cosmique. Il y a dans l’affirmation que toutes les lois de la physique sont statistiques un curieux paradoxe : elle pèche justement là où péchait la philosophie des sciences de la « belle époque » newtonienne, c’est à dire par manque de discernement entre les deux types et degrés d’abstraction.
Il n’y a pas de science sinon de l’universel ; l’empirisme nominaliste qui pousserait la fureur particularisante jusqu’à projeter d’étudier une par une les pierres d’une rivière – selon la suggestion de saint Thomas, qui savait parfois se divertir des erreurs des philosophes – conduirait ces derniers directement à l’asile. Le monde moderne n’est pas loin de ce résultat, avec l’avantage de fournir aussi les asiles. Quoi qu’il en soit, il n’y a pas de science sans une certaine abstraction ; la physique abstrait la particularité, la singularité concrète, mais ne laisse pas en arrière la matérialité ; les mathématiques au contraire, bien que traitant de catégories qui ne se réalisent qu’à l’extérieur de l’esprit dans le monde corporel, abstraient la matérialité, et traitent de pures formes qui sont des êtres de raison. Et c’est de cette singulière et oblique abstraction que résulte l’équivoque qui attribue aux mathématiques une pure valeur de symboles ou de formes créées a priori par l’esprit humain.
En réalité, on peut dire que les mathématique sont composées de deux faces : dans la première se trouve la science de l’ens quantum (l’être en tant qu’il est quantifiable), née du réel par une abstraction qui abandonne la matérialité mais apporte à ses notions la catégorie qui ne se réalise que dans le monde matériel ; dans sa seconde face la mathématique est effectivement un langage. Même une entité mathématique qui ressemble beaucoup à l’entité réelle dont elle a été tirée, comme le cercle, garde en mathématique un vide, une disponibilité de signification symbolique qui la rend apte à exprimer des phénomènes qui n’ont rien de circulaire. Prenons par exemple un vibreur animé d’un mouvement périodique simple. Le physicien mathématicien établit entre les états du vibreur et le mouvement angulaire d’un rayon de cercle une correspondance qui l’autorise à écrire la loi du dit mouvement vibratoire sous cette forme :
La fonction sinusoïdale fut trouvée en géométrie en deux endroits : dans les relations entre les côtés d’un triangle rectangle, et dans le mouvement uniforme d’un rayon projeté sur le diamètre d’un cercle. Or, il n’y a rien de triangulaire ni de circulaire dans le vibreur, d’où l’on voit que les êtres mathématiques se vident de leurs significations premières et gagnent valeur de langage.
Quoi qu’il en soit, ce qu’il faut souligner est la différence de type et de degré d’abstraction en physique et en mathématiques. En accord avec la tradition thomiste, Jacques Maritain [19] décrit les degrés d’abstraction – premier degré en physique, second en mathématique –, soulignant bien la différence entre les lignes de la physique (1er degré d’abstraction) et de la métaphysique (3e degré) qui s’orientent vers le réel, et la ligne des mathématiques qui s’oriente vers les êtres de raison.
Nous avons déjà donné plus haut l’exemple simple du carré physique, où le rapport diagonale/côté ne peut pas être exprimé par un nombre rationnel du type m/n, et le carré mathématique où ce rapport est non seulement exact, exempt d’erreur, mais de plus est source d’une classe de nombres réels, l’irrationnel , , etc.
Les mathématiques empruntent leurs symboles à toutes les sciences de la nature, mais ont avec la physique un commerce spécial qui en arrive à constituer une espèce de science intermédiaire : la physique-mathématique. Le grand et permanent problème épistémologique est celui de la fidélité à l’objet formel. Chaque science a un objet formel qui lui est donné par son degré et son type d’abstraction.
L’équivoque épistémologique de la physique classique, contre lequel ont réagi les génies de Maxwell, Einstein et Planck, était de considérer l’univers physique comme l’on considère les êtres mathématiques. Les notions de solide indéformable, de simultanéité en des points différents de l’espace, et de référentiel absolu des mouvements avec la nécessité d’un éther immobile, furent secouées vigoureusement par la physique moderne. En termes d’oscillation philosophique entre les deux branches du nominalisme [20], on peut dire que la physique classique était principalement rationaliste, et que la physique moderne est principalement empiriste.
Et nous arrivons maintenant au curieux paradoxe signalé plus haut : les physiciens modernes, en appliquant la méthode statistique, se livrent à une intempérance arithmétique – devenant des mathématiciens furieusement abstraits –, quand ils ne marquent pas de limites physiques pour les grandes improbabilités. Il ne suffit pas de dire que 10-1000000 est une probabilité négligeable, et pratiquement impossible : il est nécessaire de signaler l’illégitimité de la méthode qui s’estime libre et fondée de plein droit à introduire dans le monde physique une progression de transfinis. Il ne suffit pas de dire, comme Borel, qu’une telle probabilité « ne rentre pas » dans l’univers U1 ; il est nécessaire de dire que la méthode probabiliste conduite de manière logique jusqu’à ses dernières conséquences ne rentre dans aucun univers physique.
Dire qu’une casserole qui bout sur le fourneau a une probabilité super-cosmique de se congeler brusquement et de monter à la verticale, est seulement une manière compliquée et pédante de dire que, de par la nature des choses dans la réalité macroscopique, une casserole qui bout sur le fourneau ne pourra jamais se jeter congelée au plafond, bien que l’amusante extrapolation des formules de probabilité mathématique, appliquées à la constitution moléculaire des corps, affirme l’existence d’une possibilité, même lointaine.
Le retour de la physique à son champ propre, réalisé par Einstein et ses collaborateurs, a entraîné la nécessité épistémologique (et pas seulement pratique) de limiter la vitesse de la lumière. Or l’intempérance arithmétique, dont les anciens abusaient vers le haut, est maintenant reprise, vers le bas, par les physiciens probabilistes qui n’admettent pas une probabilité physique minimale dans chaque cas.
Entropie.
Nous avons déjà plusieurs fois fait allusion au concept d’entropie comme un indice qui exprime le degré de dégradation de l’énergie ou de la désorganisation de la matière. En termes qualitatifs, entropie serait synonyme de désagrégation, ou d’uniformisation. Quand on dit de quelque chose qu’il a une entropie croissante, on veut dire que cette chose est dans un processus de décomposition, ou de passage d’une situation différentiée vers une situation moins différentiée.
Mais en physique le terme n’a pas cette ample signification qualitative, c’est plutôt un indice quantitatif. Le concept est né de la thermodynamique, et plus particulièrement de ce que l’on appelle la seconde loi de la thermodynamique, ou loi de Clausius, qui exprime la tendance générale des échanges d’énergie vers la forme irréversible de l’énergie thermique.
Prenons un corps au point de température du zéro absolu (approximativement –273°C). A ce point, il n’y a pas d’activité thermique, de mouvement désordonné des molécules : nous dirons que son entropie est S = 0.
Faisons changer de situation ce corps par petits degrés réversibles : l’entropie croît dans une proportion qui se mesure par la somme des accroissements de quantité d’énergie thermique divisés par la température absolue. En amenant jusqu’à la limite infinitésimale les degrés d’accroissement de l’énergie thermique, nous aurions la formule mathématique de l’entropie :
Ce furent Boltzmann et Gibbs qui cherchèrent à exprimer l’entropie en termes de probabilité du passage d’un état vers l’autre. La formule de l’entropie dans le nouveau lexique statistique est la suivante :
S = K log.D
où K est une constante universelle appelée constante de Boltzmann et D un terme qui se définit difficilement en dehors du langage technique, mais qui exprime la probabilité de passage d’un état vers l’autre. Il convient de rappeler que l’entropie n’est pas définissable au sens absolu, mais toujours à partir d’un état initial ; rigoureusement, on ne peut mesurer que les différences d’entropie.
Ce concept d’entropie, étroitement lié aux lois plus larges de l’univers, nous servira, en philosophie de la nature, presque toujours sur le plan des qualités, mais il ne s’est pas pour autant transformé en une diffuse image littéraire. Il y a plus que de simples métaphores dans les parallèles analogiques que nous entendons tracer, dans la tentative d’arriver à une vision plus large de la création.
Revenons au très honnête scientifique détenteur du prix Nobel de physique de 1933 pour ses admirables travaux, qui ont prolongé la physique planckienne dans la direction nouvelle de la mécanique ondulatoire. Dans le petit livre qui nous a amené à ces réflexions, Erwin Schrödinger ne cache pas son embarras devant l’être vivant qui contrarie toute sa perception du monde. C’est dans le chap. VI, page 67 que, en abordant les concepts d’ordre, désordre et entropie, sa perplexité devient plus aiguë : « La description générale de la substance héréditaire faite par Delbruck met en évidence que la matière vivante, bien que n’échappant pas aux lois physiques établies jusqu’à aujourd’hui, semble impliquer d’autres lois physiques inconnues jusqu’à maintenant, lesquelles, une fois révélées, s’intégreront dans cette science comme les anciennes. »
L’auteur sent la discontinuité des deux ordres de phénomènes mais, ne pouvant ou ne voulant pas accepter l’irréductibilité qui exige un agent pour le passage de l’inorganique au vivant, se crispe sur son monisme professionnel et se repose sur le lieu commun : dans un futur proche ou distant seront révélées les nouvelles lois qui intégreront le monde vivant dans le monde physique. Et ainsi, d’avance, le scandale est conjuré.
Avant de poursuivre, il est utile d’intercaler ici une page d’un auteur matérialiste qui a écrit un livre sur l’origine de la vie :
JOHN KEOSIAN – « Matérialisme – L’hypothèse matérialiste prend un angle d’approche différent dans l’application des lois naturelles à l’explication de l’origine de la vie. Cette théorie rejette l’idée obligatoire selon laquelle seuls les êtres vivants peuvent produire des composés organiques. Je dois noter qu’aucune théorie créationniste n’oblige à cette idée, en particulier parce que la synthèse de l’urée est déjà plus que séculière, et les conquêtes de S.L. Miller, et plus récemment les recherches de Pavlovskaya, T.E. et Pasynskii, A.G à New-York, 1959, sont du domaine public. La théorie matérialiste propose l’idée que les composés organiques ont été formés abiogéniquement, c’est à dire indépendamment des êtres vivants et avant leur origine. Au lieu de l’éventualité d’une union de tous les éléments pour former aussitôt un nouvel être complet, le matérialisme voit l’origine de la vie comme le résultat d’une série de pas probables de complexité croissante, qui ont amené inévitablement la matière à l’état d’être vivant. [Les soulignements sont de nous.]
Et plus loin :
Du point de vue matérialiste, l’origine de la vie n’est pas un lointain accident, ce fut la résultante du fait que la matière évolue vers des niveaux chaque fois plus élevés à travers l’inexorable processus qui opère à chaque niveau, avec ses potentialités inhérentes, jusqu’à arriver au niveau suivant. [The Origin of Life, Reinhold, New-York, 1965]
Et nous avons ici un exemple dramatique du divorce interne de notre culture. Alors qu’un physicien de premier plan nous présente la matière comme incapable de s’élever d’elle-même « to higher and higher levels », et même comme condamnée à une dégradation continue, un biologiste, également de premier plan, n’hésite pas à attribuer à la matière de très mystérieuses « potentialités inhérentes » que le physicien ne connaît ni ne mentionne, et qui l’amènent de manière irréversible à former les macromolécules des protéines, et ensuite à former les êtres vivants !
Schrödinger est beaucoup plus discret au sujet de ce processus irréversible qui paraît si clair au biologiste matérialiste. Au point 57, intitulé « Il s’alimente d’entropie négative », le célèbre physicien se perd, non pas en recherchant comment ont surgi les premiers êtres vivants, mais en considérant, point moins important, comment ils se maintiennent. « How does living organism avoid decay ? » Comment l’être vivant évite-t-il la dégradation ? La réponse triviale est : en mangeant, en buvant, en respirant et en assimilant. Le terme technique « métabolisme » vient du grec « metaballein » qui signifie échange. Échange de quoi ? A l’origine, l’idée sous-jacente était celle d’échange de substances matérielles. En allemand, le mot équivalent est « stoffwechsel », rappelle Schrödinger. Mais cette idée d’échange de matière est loin d’être satisfaisante pour le physicien, parce que les atomes d’oxygène, d’azote ou de soufre que nous avons dans le corps sont égaux à ceux qui existent en dehors de lui. Quel avantage y aura-t-il dans cet échange ?
SCHRÖDINGER – Pendant un certain temps dans le passé, notre curiosité fut endormie à ce sujet parce qu’on nous disait que nous nous alimentions d’énergie. Dans certains pays très avancés, nous pouvons lire sur les menus, à côté du prix, la quantité de calories de chaque mets. Il est permis de dire que cela est aussi absurde que l’idée d’échange de matière, puisque dans un organisme adulte le contenu d’énergie est stationnaire comme le contenu de matière. […] Quel est alors l’élément précieux contenu dans notre aliment qui nous délivre de la mort ? La réponse est facile. Chaque processus, chaque événement, quel que soit le nom qu’on lui donne, en un mot, chaque chose qui se produit dans la nature, signifie une augmentation d’entropie dans la partie de l’univers dans laquelle cette chose arrive. Ainsi, l’organisme vivant augmente également de manière continue son entropie, et de cette manière tend à s’approcher du dangereux état d’entropie maximale que nous appelons la mort. Il ne s’en délivrera et ne se conservera en vie que s’il parvient à absorber de son milieu une entropie négative.
Après ce suspense, le physicien explique de manière succincte le concept d’entropie et conclut ainsi :
Comment pourrais-je exprimer en termes de théorie statistique la merveilleuse faculté avec laquelle l’être vivant retarde le plus qu’il peut l’équilibre thermodynamique qu’est la mort ? Nous avons dit précédemment qu’il mange de l’entropie négative, en l’attirant à lui pour compenser l’augmentation d’entropie (…) et de cette manière en maintenant stationnaire un bas niveau d’entropie. Si D est la moyenne du désordre, son inverse 1/D sera l’indice de l’ordre. Comme le logarithme de 1/D est le négatif du logarithme de D, nous pouvons écrire ainsi l’équation de Boltmann : S (entropie) = K log 1/D : et la rébarbative expression « entropie négative » peut alors être remplacée par une autre meilleure : moyenne d’ordre. Et ainsi, le dispositif par lequel l’organisme vivant s’équilibre dans un bon niveau élevé d’ordre (bon niveau bas d’entropie), consiste réellement à restaurer continuellement cet ordre au moyen d’un supplément extérieur [21].
Cette conclusion du grand physicien ne manque pas de sel : l’être vivant s’alimente d’ordre ! Et surtout, sa lucidité philosophique est touchante, quand il pressent, bien que vaguement matérialiste ou nominaliste, la merveille qui se cache derrière sa conclusion. Le titre de son livre est : « What is Life ? », et la conclusion de ce thème apporte une des meilleures réponses, que même les spécialistes n’ont pas trouvée : la vie est ordre.
L’être vivant, par sa simple existence, et indépendamment de l’énorme variété d’espèces et de la richesse de comportement, est un démenti vivant de l’impérialisme du second principe de la Thermodynamique. Alors que le monde de la matière non vivante tend vers le désordre, vers l’uniformité, vers le moins différencié, vers le gris le plus probable ou vers l’entropie croissante, l’être vivant au contraire surgit comme une très élaborée et très complexe différenciation.
Ce qui saute aux yeux, c’est qu’il n’est pas commode, dans l’état actuel de la science, d’être évolutionniste avec la candeur que se permettent les disciples de Teilhard de Chardin, parce que l’évolution de la matière, régie par le second principe de la thermodynamique, a un sens contraire à la supposée évolution des êtres vivants. Alors que la vie semble être un essor produit, poussé à contre-courant dans la direction d’un mystérieux tropisme positif, la matière non vivante au contraire semble abandonnée à la désagrégation, ou entraînée dans la direction d’un tropisme négatif. En termes de physique probabiliste, la vie d’une rose ou d’un ver est une improbabilité infinie qui existe de manière scandaleuse.
La vie est donc quelque chose qui se constitue au rebours des tendances propres de la matière. Quelqu’un cherchera-t-il à s’appuyer sur l’étrier offert par Schrödinger pour dire que la vie est anti-matière ?
Il nous semble meilleur de chercher dans l’hylémorphisme aristotélicien la meilleure présentation du concept : la vie est forme, spécialement ordonnée et dotée d’un degré d’immanence ou d’autonomie supérieur à celui des corps sans vie.
Et d’où vient cette ordination spéciale ? Des potentialités inhérentes de la matière, comme nous disait il y a peu John Keosian ? J’ai l’impression qu’Erwin Schrödinger, s’il connaissait les scolastiques, hocherait la tête en souriant et dirait : « Videtur quod non ! »
*
La parabole d’un prix NobelAlfred Kastler (1902-1984), prix Nobel de physique, qui se disait éloigné de la religion, fut cependant assez proche de ceux qui croient en un Dieu. Dans un entretien avec Christian Chabanis [22], il utilisa la parabole suivante : « Sur la face inconnue de la lune, des astronautes tombent sur une usine automatique produisant de l'aluminium (comme il en existe aujourd'hui sur la terre). D'un côté, des pelles grattent la terre et ramassent l'aluminium. De l'autre, sortent des barres d'aluminium. Dans l'usine, les astronautes trouvent des appareils de physique, des machines utilisant le processus d'électrolyse. Ils constatent donc qu' il ne se passe que des phénomènes physiques normaux et qui s'expliquent parfaitement par les lois de la causalité. Concluraient-ils que le hasard a créé cette usine ou que des êtres intelligents ont un jour atterri sur la lune avant eux et l'ont montée ? Ces deux possibilités d'explication existent ; mais je pose la question : serait-il logique de penser que le hasard a rassemblé les molécules de façon à créer une telle usine automatique ? Aucun esprit n'accepterait l'interprétation. Or, dans un être vivant nous trouvons un système infiniment plus complexe qu'une usine automatique. Vouloir admettre que le hasard a créé cet être me paraît absurde. S'il y a un programme, je ne conçois pas de programme sans programmeur… – Donc, lui demanda Christian Chabanis, l'idée d'un Créateur ne vous serait pas étrangère et ne vous paraît même pas étrangère à la réflexion scientifique ? – Elle ne m'est pas étrangère parce que je ne peux pas, et personne ne peut, comprendre l'univers sans une finalité… La science ne récuse en rien l'idée de Dieu. » |
***
[1] — Voir le dossier sur Gustave Corção dans Le Sel de la terre 27. On y trouvera, outre divers textes de Corção et une liste commentée de ses œuvres, le témoignage de son disciple Dom Lourenço O.S.B. — Gustave Corção a publié un certain nombre d’articles en français dans la revue Itinéraires (liste de ces articles dans Le Sel de la terre 27, p. 135).
[2] — A Descoberta do Outro, Agir, 1944, 9e éd. Traduction française : La Découverte de l’autre, Le Barroux, Éditions Sainte Madeleine, 1987.
[3] — O Século do Nada [Le siècle du néant], Record, 1973, 2e éd. Traduction française : Le Siècle de l’enfer, Le Barroux, Éditions Sainte Madeleine, 1994.
[4] –– Erwin Rudolf Josef Alexander Schrödinger (1887-1961), physicien autrichien. (Note du traducteur.)
[5] — Texte écrit en 1969, avant que l’homme marche sur la lune. (Note du traducteur.)
[6] — Zéro absolu : approximativement –273°C. (Note du traducteur.)
[7] –– Werner Karl Heisenberg (1901-1976), physicien allemand, fondateur de la mécanique quantique, prix Nobel 1932. (Note du traducteur.)
[8] –– Jacques Bernouilli (1654-1705), mathématicien et physicien suisse. (Note du traducteur.)
[9] –– Abraham de Moivre (1667-1754), mathématicien français. (Note du traducteur.)
[10] –– Pierre-Simon Laplace (1749-1827), mathématicien, astronome et physicien français. (Note du traducteur.)
[11] –– Johann Carl Friedrich Gauss (1777-1855), mathématicien, astronome et physicien allemand. (Note du traducteur.)
[12] –– Lambert Adolphe Jacques Quételet (1796-1874), mathématicien, astronome, statisticien et sociologue belge. (Note du traducteur.)
[13] –– James Clerk Maxwell (1831-1879), physicien écossais. (Note du traducteur.)
[14] — De Broglie, cité par José M. Riaza, Azar, Ley, Milagro, BAC, p. 197.
[15] –– Ce principe, découvert en 1925, affirme que la détermination de certains couples de valeurs, par exemple la position et la quantité de mouvement, ne peut se faire avec une précision infinie. (NDLR.)
[16] –– E. Borel, Les probabilités et la Vie, Paris, PUF, Que sais-je ?
[17] — Émile Borel, Les probabilités et la Vie, Paris, PUF, Que sais-je ?
[18] — Émile Borel, Les probabilités et la Vie, Paris, PUF, Que sais-je ?, p. 11, 12.
[19] — Jacques Maritain, La Philosophie de la Nature, Essai critique sur ses frontières et son objet, Paris, Téqui, 1935.
[20] — G. Corção, Dois Amores Duas Cidades, Agir 1967, vol. II, 1e partie.
[21] — Erwin Schrödinger, What is Life ?, New York, Anchor Book, 1956. p. 72-73.
[22] –– Christian Chabanis, Dieu existe-t-il ? Non, Paris, Fayard, 1973, p. 21. — Cité par le bulletin 1PR3.15, numéro du 10 juin 2007, publié par le Groupe d’Étude sur les Origines (GÉO), 12, rue Charrel, 38000 Grenoble, geostego@free.fr.











