« la plus parfaite de toutes les oeuvres d’art est l’édification d’une vraie liberté politique » Friedrich Schiller

Accueil > Notre action > Interventions

Limites de la modélisation mathématique en science

21 janvier 2021

Cette intervention a eu lieu dans le cadre du Festival international de Géographie de Saint-Dié (FIG) qui se tenait du 2 au 4 octobre 2020. Le thème portait cette année sur le/les « Climat(s) ».
Pierre Bonnefoy a abordé ce thème en du point de vue de la modélisation, l’un des instruments essentiels puisqu’il est à la base de toutes les projections justifiant la mobilisation ou les nombreuses législations prises pour lutter contre le « dérèglement climatique ».

Retrouvez la vidéo de la présentation sur le compte Facebook de l’Institut Schiller : https://www.facebook.com/100016414210329/videos/742396669650800

.

PowerPoint - 2.2 Mo
Cliquer sur l’image pour accéder à l’ensemble des figures et animations

Je voudrais vous parler d’une question qui touche la science du climat, mais qui en réalité concerne également toutes les sciences en général. Il s’agit de la modélisation mathématique, et de la relation entre la science et les mathématiques. En réalité, cette question concerne toutes les sciences aux différentes époques de l’histoire.

Malheureusement, il y a aujourd’hui une séparation entre les sciences et l’histoire des sciences. C’est dommage, parce que les scientifiques ont certaines manières de penser qui se reproduisent d’une époque à l’autre, d’une discipline à l’autre, sans qu’ils en soient conscients la plupart du temps.

C’est d’ailleurs cette question qui m’a conduit à écrire ce livre, Principes non mathématiques de la science, qui présente différents moments de l’histoire de la science de ces 400 dernières années.
Pour rendre cette problématique accessible au plus grand nombre, je pars d’un exemple très simple et très profond : la révolution opérée par Kepler en astronomie au début du XVIIe siècle.

A cette époque, la science était encore dominée par la pensée aristotélicienne qui considérait que la Terre et le Ciel ne sont pas régis par les mêmes lois. Le Ciel était vu comme le domaine de la divinité, de la perfection et du non-changement ; la Terre était le domaine de l’humanité, de l’imperfection et du changement. Partant de là, il fallait considérer que le mouvement des planètes observé par les astronomes devait changer le moins possible. D’où le mouvement circulaire uniforme : vitesse constante et courbure de la trajectoire partout la même.

Il en découle plusieurs modèles astronomiques différents. Ptolémée place la Terre au centre et fait tourner les planètes ainsi que le Soleil autour ; Copernic place le Soleil au centre et les planètes autour ; Tycho Brahe place la Terre au centre, le Soleil tournant autour de la Terre et les planètes tournant autour du Soleil.

En fait, aucun des trois modèles ne pouvait réellement rendre compte des irrégularités observées comme le mouvement de rétrocession de Mars qui a l’air de temps en temps de faire demi tour, de repartir en arrière, puis de repartir en avant. Ceci ne « colle pas » avec l’idée du mouvement circulaire uniforme. Pour résoudre ce problème, les astronomes inventèrent certains artifices géométriques.

PNG - 422.6 ko
Figure 1

Voici un modèle de Ptolémée qui représente la Terre au centre et Mars qui tourne sur un épicycle (Figure 1). Vous voyez un premier grand cercle, le déférent qui est parcouru par un point fictif. La planète Mars tourne autour de ce point fictif selon un petit cercle, l’épicycle. La trajectoire de Mars est représentée ici et fait des boucles. Ce mouvement irrégulier est donc la résultante de deux mouvement circulaires uniformes.

PNG - 16.9 ko
Figure 2

Cependant, cet artifice ne permettait pas de rendre compte de toutes les irrégularités du mouvement des planètes Elles ont l’air d’aller plus vite à certains moments, moins vite à d’autres. Pour cela, on inventa les excentriques (Figure 2). Vous voyez ici que la Terre n’est plus au centre du cercle. L’excentrique, c’est la distance entre le centre du cercle et la Terre. Mais comme cela ne suffisait pas non plus, Ptolémée imagina également un point fictif différent du centre, l’équant, tel que si un observateur se trouvait à cet endroit, il aurait l’impression de voir un mouvement circulaire uniforme, alors que le mouvement serait circulaire non uniforme.

Aujourd’hui on appellerait ça du bidouillage, mais tous les astronomes faisaient cela, y compris Copernic (Figure 3). Ici vous voyez un modèle de Copernic avec des épicycles et des excentriques.

JPEG - 58.1 ko
Figure 3

Kepler commence par se demander comment départager ces trois modèles et il se rend compte qu’ils sont équivalents (Figure 4). Sur cette animation vous voyez les trois modèles. Dans chaque cas, la Terre est en bleu ; c’est le lieu d’où on observe le Soleil qui est en jaune et Mars en rouge. Vous constatez que si l’on choisit bien ses paramètres, les lignes de visée pointent rigoureusement dans les mêmes directions – ce qui signifie que les différents modèles peuvent tous rendre compte des mêmes observations. Ptolémée « marche » aussi bien (ou aussi mal) que Copernic si l’on considère que l’astronomie se limite à inventer des modèles pour faire des prévisions astronomiques sur les positions futures des planètes. Il n’existe aucun moyen sur la base seulement de modèles mathématiques de connaître la réalité physique !

Vous me direz que si un modèle fait certaines prévisions futures par le calcul mais que l’expérience met en évidence un écart entre la mesure et le calcul, on pourra dire que ce modèle est faux. Tout à fait ! Mais à ce compte-là, il faut admettre que tous les modèles sont faux. Alors sur quelle base peut-on considérer qu’un modèle est acceptable ?

On peut au moins dire qu’un modèle est acceptable tant que les écarts entre les mesures et les calculs sont plus petits que la précision permise par les instruments de mesure dont on dispose. Kepler disposait des mesures les plus précises possibles à son époque et après de très longs calculs, il conclut que tous les modèles existants devaient être rejetés, alors que tous les astronomes considéraient qu’ils étaient acceptables.

Kepler compris alors que c’est la manière de penser des astronomes qu’il fallait changer. Il ne faut pas partir d’un a priori mathématique ou géométrique, mais plutôt commencer par chercher les causes physiques de ce qu’on observe, la description mathématique arrivant dans un second temps.

JPEG - 13.7 ko
Figure 5

Kepler fait donc une hypothèse physique. Il suppose que la cause physique, le moteur du mouvement se trouve dans le Soleil. Si cette hypothèse est vraie, alors il espère pouvoir vérifier dans l’héliocentrisme que le mouvement de la Terre est plus rapide quand elle est proche du Soleil et plus lent quand elle est plus loin. Sans le dire, il est donc en train de faire la première hypothèse de la gravitation de l’histoire et il essaie de la caractériser. Et cela donne ce qu’on appelle aujourd’hui la « loi des surfaces » (Figure 5). Sur la figure vous voyez différentes positions de la planète sur sa trajectoire. Les intervalles de temps sont les mêmes pour aller de A vers B, de C vers D ou de E vers F. Vous voyez donc que la planète est plus rapide en A que en F. Par contre, si vous considérez la surface balayée dans chaque intervalle par le segment qui relie la Terre et le Soleil, vous obtenez trois secteur hachurés. Les variations de vitesses sont telles que les trois secteurs ont la même surface.

Kepler met donc cette hypothèse à l’épreuve des mesures expérimentales, et il constate que les écarts entre les calculs et les mesures sont encore trop grands. Il ne suffit pas de rejeter la vitesse constante, il rejette également la trajectoire circulaire (c’est-à-dire à courbure constante). Et il finit par trouver que la trajectoire des planètes n’est pas un cercle mais une ellipse et que le Soleil occupe l’un de ses foyers.

Entre Aristote et Kepler, 19 siècles se sont écoulés pendant lesquels l’astronomie occidentale a relativement stagné. A partir de Kepler, on assiste à une véritable révolution, pas seulement en astronomie, mais dans tous les domaines de la science en général. Ceci parce que Kepler a littéralement changé la manière de penser des scientifiques en introduisant la recherche des causes physiques – chose inconcevable à cause d’Aristote.

JPEG - 49 ko
Figure 7

Résumons nous (Figure 6).

- Les mêmes lois physiques dans le Ciel et sur Terre

Ceci a pour conséquence que l’être humain – créature terrestre – est capable de découvrir et connaître les causes physiques des phénomènes célestes. C’est très important, parce que prétendre connaître les lois des dieux était alors considéré comme un péché d’orgueil : les astronomes devaient faire des prévisions mais sans prétendre connaître les causes. C’est d’ailleurs la raison pour laquelle Galilée a été persécuté : il n’était pas interdit de faire des modèles héliocentriques si cela facilitait les calculs, mais il ne fallait pas prétendre que c’était la réalité.

- Il n’est de constant que le changement

Tout change en permanence dans l’Univers, y compris la vitesse des planètes et la courbure de leur trajectoire. La nature est évolutive ; elle n’est jamais dans un équilibre statique.

- L’hypothèse physique précède le modèle mathématique

Bien entendu, c’est l’expérience qui permet de juger de la validité d’une hypothèse et du modèle qui en découle. Si une expérience contredit une hypothèse, alors l’hypothèse doit être rejetée et il faut en trouver une meilleure. Si 999 expériences sur 1000 sont en accord avec une hypothèse, mais pas la dernière, alors l’hypothèse doit être rejetée. Si toutes les expériences sont en accord avec l’hypothèse, alors il faut faire de nouvelles expériences jusqu’à ce que la théorie soit mise en défaut. Et c’est uniquement comme ça que la science peut progresser. Il en découle que :

- De bonnes prévisions ne suffisent pas pour valider un modèle

C’est peut-être embêtant, mais l’expérience ne peut jamais prouver qu’une hypothèse est vraie ; on peut seulement prouver qu’elle est fausse. Toute hypothèse est déclarée acceptable par le tribunal de la science jusqu’à preuve du contraire.

Alors maintenant, faisons un saut de trois siècles dans le futur de Kepler. Nous atterrissons au début du XXe siècle ; passons de l’infiniment grand de l’astronomie, à l’infiniment petit des atomes. On vient de découvrir que la matière est discontinue avec la théorie des quanta, et Niels Bohr donne un premier modèle de l’atome (Figure 7). Vous avez tous vu une telle représentation dans vos livres scolaires. A centre vous avez un noyau avec une charge électrique positive et autour gravitent des électrons qui portent des charges négatives sur différentes orbites.

Pourquoi un tel modèle ? Dans certaines circonstances, un atome peut émettre certaines quantités d’énergie sous forme de lumière. Mais ces quantités d’énergie ne peuvent avoir que certaines valeurs très précises et pas d’autres. Il n’y a pas un champ continu de valeurs possibles. Jusque là, les physiciens pensaient que les lois de la physique étaient essentiellement continues et là on trouve une discontinuité incontournable.

Pour rendre compte de cela, Bohr considère que dans les atomes, les électrons ont des niveaux d’énergie différents mais bien spécifiques, et un atome émet un paquet d’énergie lumineuse quand un électron passe d’un niveau d’énergie à un autre niveau inférieur. C’est la différence d’énergie entre les deux niveaux qui donne l’énergie émise au moment de la transition. En dehors de ce moment, l’atome n’émet aucune énergie, mais on peut lui communiquer de l’énergie de l’extérieur pour qu’un électron retourne d’un niveau inférieur à un niveau supérieur.

Pour calculer ces niveaux d’énergie, Bohr imagine le modèle que vous connaissez tous, qui est bâti sur l’ancienne physique continue. Donc, c’est très important, il utilise un modèle qu’il sait être faux. Pourquoi ? Parce que si un satellite gravite autour d’un astre, on est capable de calculer son énergie avec l’ancienne physique. Où est le problème ? Avec l’ancienne physique, on sait également que si une charge électrique tourne sur une orbite circulaire, elle rayonne de l’énergie électromagnétique. Et si elle rayonne elle perd de l’énergie. Et donc elle devrait passer de manière continue à des niveaux d’énergie inférieur jusqu’à tomber sur le noyau. Or ce n’est pas ce qui se passe : dans le modèle de Bohr, les électrons sont sensés tourner sur des orbites éternellement stables sans rayonner en dehors des brusques transitions d’un niveau à un autre.

Donc Bohr ne s’en cache pas : son modèle est faux, mais il lui permet de faire ses calculs, et ces calculs lui donnent les valeurs mesurées par l’expérience. Donc ça marche ! Où est le problème ?

Bohr est revenu à la manière de penser d’Aristote et Ptolémée. Puisque le modèle marche, il faut être pragmatique et s’en contenter. Sauf que la science a fait du sur place pendant des siècles, et on ne s’en est rendu compte qu’après la révolution de Kepler.

Avec Bohr et la physique quantique, on a eu des avancées scientifiques me direz-vous. Comment pourrait-on dire que les progrès de la science ont été ralentis depuis un siècle ? Malgré ces avancées Einstein et Planck le pensaient, mais ils sont morts depuis plus de 60 ans et depuis de nouveaux progrès ont encore été réalisés.

Le futur décidera ce qu’il en est, mais je vais finir par une mauvaise plaisanterie de physicien. Comme vous le savez, il y a plus de 60 ans que l’on a des réacteurs nucléaires à fission, mais qu’on essaie de contrôler la fusion thermonucléaire – dans des projets comme ITER. Comme diraient certains : « la fusion ça fait 60 ans qu’on dit qu’on la contrôlera dans 30 ans ». Et certains écologistes rajoutent « heureusement, ça ne marchera jamais, sinon on ne pourrait plus arrêter le progrès ».

Mon intuition me dit que la physique quantique a besoin d’une révolution keplerienne.