06/05/2025 Comment s’est éteint le dernier des singes géants.

Celui-ci mesurait en moyenne 3 mètres de haut et pesait jusqu’à 300 kilos. Il a vécu plus de 2 millions d’années. Proche des orangutans, il vivait en Chine du sud-est. L’espèce a été nommée Giganpithecus Blacki ou Giganto en raccourci. En radiographiant certains de ses ossements et des dents fossilisés, les chercheurs découvrirent qu’il avait survécu pendant quelques deux millions d’années et qu’il était herbivore.

Rappelons que les plus vieux fossiles du genre Homo remontent à 2,8 millions d’années, avec Homo habilis. De nouvelles datations situent les plus anciens Homo sapiens il y a environ 300 000 ans. Mais l’histoire évolutive de l’homme est encore loin d’être totalement établie.

A l’époque où vivait ce singe, l’environnement était une mosaïque de prairies et de forêts offrant des conditions idéales pour la vie de ce primate. Il n’y pas non plus de preuves d’une compétition acharnée avec les autres especes, y compris avec les premiers hominiens. La cause de sa disparition reste encore une énigme. pour Anne Marie Bacon, du CNRS, il faudra élargir les recherchesr dans toute la péninsule indo-chinoise

Référence

The demise of the giant ape Gigantopithecus blacki

Nature volume 625, pages 535–539 (2024)

  • Abstract

The largest ever primate and one of the largest of the southeast Asian megafauna, Gigantopithecus blacki1, persisted in China from about 2.0 million years until the late middle Pleistocene when it became extinct2,3,4. Its demise is enigmatic considering that it was one of the few Asian great apes to go extinct in the last 2.6 million years, whereas others, including orangutan, survived until the present5. The cause of the disappearance of G. blacki remains unresolved but could shed light on primate resilience and the fate of megafauna in this region6. Here we applied three multidisciplinary analyses—timing, past environments and behaviour—to 22 caves in southern China. We used 157 radiometric ages from six dating techniques to establish a timeline for the demise of G. blacki. We show that from 2.3 million years ago the environment was a mosaic of forests and grasses, providing ideal conditions for thriving G. blacki populations. However, just before and during the extinction window between 295,000 and 215,000  years ago there was enhanced environmental variability from increased seasonality, which caused changes in plant communities and an increase in open forest environments. Although its close relative Pongo weidenreichi managed to adapt its dietary preferences and behaviour to this variability, G. blacki showed signs of chronic stress and dwindling populations. Ultimately its struggle to adapt led to the extinction of the greatest primate to ever inhabit the Earth.

07/06/2025 Elon Musk prototype du posthumain

Les théoriciens du posthumanisme sont convaincus du fait qu’avec les progrès exponentiels des sciences du numérique, certains humains d’aujourd’hui qui auront compris et maîtrisé le phénomène seraient en train de passer du statut d’humain à celui de superhumain puis de posthumain.

Le posthumain se sera affranchi de l’essentiel des contraintes qui paralysent actuellement l’humain . Il pourra ainsi s’établir sur la planète Mars et en faire un espace analogue à celui de la Terre malgré le fait que Mars soit aujourd’hui dépourvue d’eau et des biomolécules nécessaires à la vie telle que les Terriens la connaissent.

Mais pour atteindre ce niveau supérieur de connaissances les humains d’aujourd’hui devront accepter certains sacrifices. Ils devront ainsi absorber quotidiennement certaines drogues qui « libèreront la créativité »  de leurs cerveaux, telles que de la kétamine, des champignons et de l’ecstasy, accepter de se faire implanter dans le cerveau des puces cognitives permettant de mettre en relation certaines de leurs aires cérébrales encore isolées. Ils devront aussi accepter de vivre étroitement avec certains de leurs jeunes enfants lesquels auront conservé avant de devenir des adultes des ouvertures sur le posthumanisme.

N’est-ce pas tout ce que Musk tente aujourd’hui de faire?

06/06/2025 L’affaire du cadmium. S’agit-il d’une bombe sanitaire ?

Nous avons rassemblé ici quelques informations concernant cette affaire qui vient d’éclater. Nous y reviendrons

Quelques sources

Le Monde https://www.lemonde.fr/planete/article/2025/06/05/la-france-malade-du-cadmium-une-bombe-sanitaire-alertent-les-medecins-liberaux_6610597_3244.html

Les Français, en particulier les enfants, sont massivement contaminés par ce cancérogène présent dans les engrais phosphatés, à travers la consommation de céréales, de pain ou de pâtes. Santé publique France fait le lien avec l’explosion des cancers du pancréas.

20minutes https://www.20minutes.fr/sante/4157143-20250605-alimentation-cereales-petit-dej-pommes-terre-medecins-alerten
Alimentation : Céréales du petit dej’, pommes de terre… Les médecins alertent sur les « taux astronomiques » de cadmium

Le Dauphiné libéré https://www.ledauphine.com/sante/2025/06/05/une-bombe-sanitaire-qu-est-ce-que-le-cadmium-metal-cancerigene-present-dans-des-aliments

« Une bombe sanitaire » : qu’est-ce que le cadmium, métal cancérigène présent dans nos aliments de tous les jours ?

RMC https://rmc.bfmtv.com/actualites/societe/sante/une-bombe-sanitaire-le-cadmium-present-dans-de-nombreux-aliments-inquiete-les-medecins_AV-20506060398.html

  • Santé« Une bombe sanitaire »: le cadmium, présent dans de nombreux aliments, inquiète les médecins

    Les faits

    La Conférence nationale des unions régionales des professionnels de santé-médecins libéraux (URPS-ML) a adressé, lundi 2 juin un courrier au
    Premier ministre et à plusieurs ministres, pour leur faire part de leur grande inquiétude concernant le cadmium.
    Ce métal lourd est toxique et sa concentration dans les sols a augmenté du fait du développement industriel et de part sa présence dans les engrais phosphatés utilisés en agriculture.


    L’Etat doit agir.» Dans une lettre adressée au gouvernement lundi 2 juin, les unions régionales de professionnels de santé-médecins libéraux (URPS) veulent mettre les pouvoirs publics devant leurs responsabilités. Depuis des années, les études scientifiques se succèdent, pointant les dangers de l’exposition de la population à un métal appelé le cadmium, principalement via l’alimentation et les engrais. Entre atteintes rénales, effets sur la reproduction ou encore risques cancérogènes, les méfaits potentiels sont nombreux. «L’Etat ne peut plus ignorer ce problème», peut-on lire dans ce courrier, consulté par Libération.

    Afin de limiter les risques, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) recommandait dès 2019 de réduire la concentration autorisé en cadmium à 20 milligrammes par kilogramme maximum dans les engrais, contre 60 milligrammes actuellement. Une proposition qui n’a jamais abouti du côté des pouvoirs publics, regrettent les médecins, qui attendent aujourd’hui que des mesures soient prises :
    «Plusieurs pays européens ont déjà adopté cette valeur.»
    «Une explosion de la contamination des jeunes enfants existe bel et bien, en rapport avec leur alimentation – en particulier les céréales, pains et dérivés et les pommes de terre et apparentés, qui sont des aliments de la vie courante», alertent encore les professionnels de santé. Origines du cadmium, risques pour la santé, aliments concernés…

    Libération fait le point.
    https://www.liberation.fr/societe/sante/il-faut-sensibiliser-lensemble-de-la-population-les-dangers-du-cadmium-metal-contre-lequel-les-medecins-tirent-la-sonnette-dalarme-

    Qu’est ce que le cadmium et qui y est exposé ?
    Le cadmium est un métal naturellement retrouvé dans les sols. Sa présence peut être accentuée par des procédés de métallurgie, l’incinération des déchets ou encore l’utilisation d’engrais.

    L’ensemble de la population y est exposée, principalement par l’alimentation et le tabac. Puisqu’il est présent dans les sols, ce métal pénètre dans les végétaux par leurs racines et finit donc sur certaines denrées. Les aliments qui en contiennent le plus sont les abats, comme le foie et les rognons, les algues, crustacés et mollusques et, à un plus faible degré, le chocolat.

    Dans l’Hexagone, la majorité de l’apport en cadmium est provoquée par l’ingestion de céréales tels que le riz et le blé, de pains, de biscuits et de pommes de terre, produits très consommés par les Français. Les fumeurs et leur entourage y sont également particulièrement exposés, via l’inhalation de la fumée des cigarettes.

    Avant toute chose, les professionnels de santé attendent du gouvernement qu’il abaisse la limite de concentration autorisée en cadmium dans les engrais. Si cette mesure passait, la stabilisation de la contamination prendrait ensuite plusieurs dizaines d’années, estime l’Anses.
  • Face à ce délai, les unions régionales de professionnels de santé-médecins libéraux appellent au développement de formations pour l’ensemble des médecins libéraux sur le sujet, mais aussi à la création de fiches d’information pour informer les patients. «Il faut sensibiliser l’ensemble de la population»,
  • Autres pistes mentionnées : l’adaptation des menus dans les cantines, la facilitation de l’accès au dosage du cadmium, mais aussi le soutien à l’agriculture biologique, dont les niveaux de contamination sont 48 % inférieurs à l’agriculture traditionnelle d’après l’étude Baranski parue en 2014. A leur échelle, les consommateurs peuvent adapter leur comportement alimentaire. Les URPS recommandent ainsi de réduire la consommation de certains aliments riches en cadmium, sans pour autant totalement les supprimer.P


.

06/06/2025 Programme international DESI

Le modèle fondamental de l’univers que s’est donné la cosmologie actuelle laisse sans réponses deux questions dont l’on mesure chaque jour l’importance. Il s’agit de la matière dont est fait l’univers et de l’énergie qu’il utilise pour assurer son expansion.

La matière ordinaire ne représente qu’environ 5 % de sa masse et de son énergie totales. 27 % sont de la matière dite noire qui ne peut être observée que par ses effets gravitationnels. Quant à l’énergie responsable de son expansion accélérée, 68 % n’en sont pas observables directement, d’où ce nom d’énergie sombre.

C’est pour tenter d’apporter des réponses plus précises à ces questions que le projet international DESI a été conçu. DESI signifie en sanscrit Qui est aux origines . Il rappelle que le projet associe un certain nombre de pays asiatiques. En mesurant avec précision l’évolution de l’expansion de l’univers au cours de ces derniers milliards d’années, l’objectif scientifique de DESI est de tester les différents modèles possibles d’énergie sombre.

Afin d’atteindre cet objectif, DESI mesurera la position et la vitesse de récession d’environ 40 millions de galaxies. Ces galaxies auront été présélectionnées en étudiant les images profondes de la zone d’étude du relevé DESI, prises lors des campagnes d’observations photométriques avant le démarrage de DESI.

Le programme utilise des spectrographes spécialisés dits DESI. Le Dark Energy Spectroscopic Instrument (DESI) est un instrument scientifique permettant de réaliser des relevés astronomiques spectrographiques de galaxies lointaines. Les principaux composants sont un plan focal contenant 5 000 robots positionneurs de fibres optiques et un banc de spectrographes alimentés par des fibres optiques. DESI a pour but de sonder le déroulement de l’expansion de l’Univers et de mieux connaître la physique de l’énergie noire.

Plusieurs grands projets au sol et dans l’espace d’observation de l’Univers à grande échelle ont été développés ces dernières années et vont commencer à accumuler des observations dans les mois et années à venir. Parmi ces grands projets internationaux figurent la mission spatiale Euclid de l’Agence Spatiale Européenne qui sera lancée entre fin 2022 et mi-2023, le Large Synoptic Survey Telescope (LSST – Vera C. Rubin Observatory) qui deviendra pleinement opérationnel en 2022, et le projet Dark Energy Spectroscopic Instrument (DESI), mené par le département de l’énergie (DOE) aux Etats-Unis.

Les laboratoires français de l’Institut de Physique de l’Univers (IPhU) contribuent activement à ces trois projets majeurs de la cosmologie observationnelle de la décennie.

Grâce à un soutien initial d’AMIDEX sur un appel d’offres dans la catégorie ‘Transfert’, puis un soutien du LABEX OCEVU et maintenant de l’IPhU, l’Observatoire de Haute Provence (OHP), le Centre de Physique des Particules de Marseille (CPPM) et le Laboratoire d’Astrophysique de Marseille (LAM), en partenariat avec la société Winlight System basée en région à Pertuis, ont contribué au développement des 10 spectrographes de l’instrument DESI.

DESI https://fr.wikipedia.org/wiki/Dark_Energy_Spectroscopic_Instrument

05/06/2025 Vladimir Poutine et Volodomir Zelinsky

On peut s’étonner des erreurs accumulées depuis 3 ans par Vladimir Poutine dans la conduite de son opération militaire spéciale en Ukraine. Celle-ci avait commencé par l’envoi d’une interminable colonne de chars datant pour la plupart des années 1990 sinon de la seconde guerre mondiale et vite arrêtée à la moindre panne. S’en était suivi l’emploi par des officiers sans imagination et sans courage de la technique dite de la chair à canon permettant de localiser les batteries ennemies par une première vague de jeunes soldats envoyés sans protection et vite tués par ces batteries .

Plus incompréhensible est le fait que Poutine et ses généraux aient totalement sous-estimée la « guerre des drones » qu’allait mener contre eux une Ukraine qui avait déjà montré sa compétence alors qu’elle appartenait encore à la Fédération de Russie. L’armée ukrainienne utilise désormais des essaims de dizaines de drones faiblement armés mais qu’il est impossible d’ arrêter. Par ailleurs elle fait aussi appel à des drones lourds capables d’opérations navales et de bombardement aériens. Ceux-ci sont insérés dans des mailles de commandement faisant largement appel à l’Intelligence Artificielle.

Ajoutons ce qui n’est pas qu’un simple détail. Q’attend Poutine pour faire démonter rapidement ce qui reste du pont de Kertch, vu qu’il se révèle incapable de le protéger ?

Pour la suite, Poutine a fait allusion à son intention d’utiliser des armes nucléaires tactiques pour tenir en respect l’Occident. L’idée sera appréciée en Russie. Aussi tactiques que soient ces armes, les retombés nucléaires résultant de leur de leur emploi seront avec les vents d’ouest dominants en été plus vite ressenties à Moscou qu’ Berlin

Voir auss

i https://www.sciencespo.fr/ceri/fr/content/la-guerre-en-ukraine-revele-les-faiblesses-de-l-armee-russe-entretien-avec-isabelle-facon

04/06/2022 Les dinosaures n’avaient pas commencé à décliner avant la chute de l’astéroid il y a 66 millions d’années

VLa question de savoir si les dinosauridés avaient déjà commencé à décliner avant l’impact sur la Terre de l’asteroîd Chicxulub est régulièrement posée. Aujourd’hui l’accord semble se faire

sUne équipe dirigée par Christopher Dean, University College, London, a rassemblé une banque de données de 800 spécimens d’ossements fossiles provenant de quatre espèces de dinosaures vivant en Amérique du Nord entre 84 et 66 millions d’années, incluant le Tyrannosaurus Rex et le Tricerartops. Or leur nombre était resté stable durant cette période.

Autrement dit, sans cet astéroïde, les dinosaures auraient continué à occuper la Terre. Ils seraient probablement devenus de plus en plus intelligents et dominateurs. Certains d’entre eux envisageraient peut-être aujourd’hui des missions sur la Lune ou sur Mars.

Source

Current Biology.doi.org/pgkmArticleVolume 35, Issue 9p1973-1988.e6May 05, 2025 Open access

The structure of the end-Cretaceous dinosaur fossil record in North America

Christopher D. Dean1,9 christopher.dean@ucl.ac.ukAlfio Alessandro Chiarenza1 ∙ Jeffrey W. Doser2 ∙ … ∙ Paul J. Valdes3,4 ∙ Richard J. Butler8 ∙ Philip D. Mannion1 … Show more

Highlights•

.The probability of detecting dinosaurs decreases toward the end-Cretaceous•

.Sampling intensity does not impact the probability of dinosaur detection

•Detection probability is driven by geologic outcrop and present-day land cover•

.Geological sampling biases cloud our view of end-Cretaceous dinosaur diversity

Summary

Whether non-avian dinosaurs were in decline prior to their extinction 66 million years ago remains a contentious topic. This uncertainty arises from spatiotemporal sampling inconsistency and data absence, which cause challenges in distinguishing between genuine biological trends and sampling artifacts. Consequently, there is an inherent interest in better quantifying the quality of the data and concomitant biases of the dinosaur fossil record. To elucidate the structure of this record and the nature of the biases impacting it, we integrate paleoclimatic, geographic, and fossil data within a Bayesian occupancy modeling framework to simultaneously estimate the probability of dinosaurs occupying and being detected in sites across North America throughout the latest Cretaceous for the first time. We find that apparent declines in occupancy generated from the raw fossil record do not match modeled occupancy probability, which generally remained stable throughout the latest Cretaceous. Instead, they coincide with decreased probability of detecting dinosaur occurrences, despite high overall sampling during this interval. By incorporating model covariates, we additionally reveal that detection probability is directly and significantly influenced by the available area of geological outcrop and modern land cover. Our findings offer evidence that traditional comparisons of diversity estimates between time intervals are likely inaccurate due to underlying structural issues in the geological record operating at both local and regional scales. This study underscores the utility of occupancy modeling as a novel approach in paleobiology for quantifying the impact of heterogeneous sampling on the available fossil record.

03/05/2025 Une nouvelle théorie réunit la gravité d’Einstein et la mécanique quantique

Une théorie radicale qui unifie de manière cohérente la gravité et la mécanique quantique tout en préservant le concept classique d’espace-temps d’Einstein a été annoncée dans deux articles publiés simultanément par des physiciens de l’UCL (University College London).

La contradiction entre la théorie quantique et la relativité générale

La physique moderne repose sur deux piliers : la théorie quantique d’une part, qui régit les plus petites particules de l’univers, et la théorie de la relativité générale d’Einstein d’autre part, qui explique la gravité par la courbure de l’espace-temps. Ces deux théories sont en contradiction l’une avec l’autre et une réconciliation est restée impossible pendant plus d’un siècle.

L’hypothèse dominante aujourd’hui est que la théorie de la gravité d’Einstein doit être modifiée, ou « quantisée », pour s’insérer dans la théorie quantique. C’est l’approche de deux principaux candidats pour une théorie quantique de la gravité, la théorie des cordes et la gravité quantique en boucle.

Une nouvelle approche de la gravité

Mais une nouvelle théorie, développée par le professeur Jonathan Oppenheim (UCL Physics & Astronomy) et exposée dans un nouvel article dans Physical Review X (PRX), remet en question ce consensus et propose une approche alternative en suggérant que l’espace-temps peut être classique – c’est-à-dire, non régi par la théorie quantique du tout.

Au lieu de modifier l’espace-temps, la théorie – surnommée une « théorie postquantique de la gravité classique » – modifie la théorie quantique et prédit une rupture intrinsèque de la prévisibilité qui est une conséquence de l’espace-temps lui-même. Cela entraîne des fluctuations aléatoires et violentes de l’espace-temps qui sont plus grandes que celles envisagées sous la théorie quantique, rendant le poids apparent des objets imprévisible si on le mesure avec suffisamment de précision.

Tester la théorie

Un deuxième article, publié simultanément dans Nature Communications et dirigé par d’anciens doctorants du professeur Oppenheim, examine certaines des conséquences de la théorie et propose une expérience pour la tester : mesurer une masse très précisément pour voir si son poids semble fluctuer avec le temps.

Par exemple, le Bureau international des poids et mesures en France pèse régulièrement une masse de 1kg qui était autrefois la norme de 1kg. Si les fluctuations dans les mesures de cette masse de 1kg sont plus petites que celles requises pour la cohérence mathématique, la théorie peut être écartée.

En conclussion

Le résultat de l’expérience, ou d’autres preuves émergentes qui confirmeraient la nature quantique vs classique de l’espace-temps, fait l’objet d’un pari à 5000:1 entre le professeur Oppenheim et le professeur Carlo Rovelli et le Dr Geoff Penington – principaux défenseurs de la gravité quantique en boucle et de la théorie des cordes respectivement.

Depuis cinq ans, le groupe de recherche de l’UCL met à l’épreuve la théorie et explore ses conséquences. Le professeur Oppenheim a précisé : « La théorie quantique et la théorie de la relativité générale d’Einstein sont mathématiquement incompatibles l’une avec l’autre, il est donc important de comprendre comment cette contradiction est résolue. L’espace-temps doit-il être quantisé, ou devons-nous modifier la théorie quantique, ou est-ce autre chose ? Maintenant que nous avons une théorie fondamentale cohérente dans laquelle l’espace-temps n’est pas quantisé, tout est possible. »

Pour une meilleure compréhension de l’article ci-dessus

1. Qu’est-ce que la théorie postquantique de la gravité classique ?

La théorie postquantique de la gravité classique est une nouvelle approche qui suggère que l’espace-temps peut être classique, c’est-à-dire non régi par la théorie quantique. Elle modifie la théorie quantique et prédit une rupture intrinsèque de la prévisibilité médiée par l’espace-temps lui-même.

2. Comment cette théorie diffère des théories de la gravité quantique existantes ?

Contrairement aux théories de la gravité quantique telles que la théorie des cordes et la gravité quantique en boucle, qui cherchent à quantifier la gravité d’Einstein, la théorie postquantique de la gravité classique modifie la théorie quantique tout en conservant l’espace-temps classique.

3. Comment peut-on tester cette nouvelle théorie ?

Une expérience proposée consiste à mesurer très précisément la masse d’un objet pour voir si son poids semble fluctuer avec le temps. Si les fluctuations sont plus petites que celles requises pour la cohérence mathématique, la théorie peut être écartée.

4. Quelles sont les implications de cette théorie pour la physique moderne ?

La théorie postquantique de la gravité classique remet en question notre compréhension de la nature fondamentale de la gravité et offre des pistes pour sonder sa nature quantique potentielle. Elle a également des implications pour le problème de l’information des trous noirs.

5. Quand pourrions-nous obtenir des résultats expérimentaux ?

Les expériences pour tester la nature de l’espace-temps nécessiteront un effort à grande échelle et pourraient prendre du temps. Il est difficile de prédire quand nous aurons des résultats, mais il est possible que nous connaissions la réponse d’ici 20 ans.

Principaux enseignements

Contexte de la mécanique quantique

Toute la matière de l’univers obéit aux lois de la théorie quantique, mais nous n’observons réellement le comportement quantique qu’à l’échelle des atomes et des molécules. La théorie quantique nous apprend que les particules obéissent au principe d’incertitude d’Heisenberg et que nous ne pouvons jamais connaître simultanément leur position et leur vitesse. En fait, elles n’ont même pas de position ou de vitesse définie jusqu’à ce que nous les mesurions. Les particules telles que les électrons peuvent se comporter davantage comme des ondes et agir presque comme si elles pouvaient se trouver à plusieurs endroits à la fois (plus précisément, les physiciens décrivent les particules comme étant dans une « superposition » de différents endroits).

La théorie quantique régit tout, des semi-conducteurs omniprésents dans les puces électroniques aux lasers, en passant par la supraconductivité et la désintégration radioactive. En revanche, on dit qu’un système se comporte de manière classique s’il possède des propriétés sous-jacentes définies. Un chat semble se comporter de manière classique : il est soit mort, soit vivant, mais pas les deux à la fois, ni dans une superposition de mort et de vie. Pourquoi les chats se comportent-ils de manière classique et les petites particules de manière quantique ? Nous ne le savons pas, mais la théorie postquantique ne nécessite pas le postulat de la mesure, parce que le caractère classique de l’espace-temps envahit les systèmes quantiques et les amène à se localiser.

La gravité en toile de fond

La théorie de la gravité de Newton a cédé la place à la théorie de la relativité générale (RG) d’Einstein, selon laquelle la gravité n’est pas une force au sens habituel du terme. Au lieu de cela, des objets lourds tels que le soleil déforment le tissu de l’espace-temps de telle sorte que la terre tourne autour de lui. L’espace-temps est un objet mathématique composé des trois dimensions de l’espace, le temps étant considéré comme une quatrième dimension. La relativité générale a prédit la formation des trous noirs et le big bang. Elle soutient que le temps s’écoule à des rythmes différents selon les points de l’espace, et le GPS de votre smartphone doit en tenir compte pour déterminer correctement votre position.

Contexte historique

Le cadre présenté par Oppenheim dans PRX, et dans un article complémentaire avec Sparaciari, Šoda et Weller-Davies, dérive la forme cohérente la plus générale de la dynamique dans laquelle un système quantique interagit avec un système classique. Il applique ensuite ce cadre au cas de la relativité générale couplée à la théorie des champs quantiques. Il s’appuie sur des travaux antérieurs et sur une communauté de physiciens. Une expérience visant à tester la nature quantique de la gravité via l’intrication gravitationnelle a été proposée par Bose et al. ainsi que par C. Marletto et V. Vadral.

Notes

Deux exemples de dynamique classique-quantique cohérente ont été découverts dans les années 90 par Ph. Blanchard et A. Jadzyk, et par Lajos Diosi, et à nouveau par David Poulin vers 2017. D’un point de vue différent, en 2014, un modèle de gravité newtonienne couplé à des systèmes quantiques via une approche « mesure et rétroaction » a été présenté par Diosi et Antoinne Tilloy en 2016, et par D. Kafri, J. Taylor, et G. Milburn, en 2014.

L’idée que la gravité pourrait être liée d’une manière ou d’une autre à l’effondrement de la fonction d’onde remonte à F. Karolyhazy (1966), L. Diosi (1987) et R. Penrose (1996).

L’idée que les couplages classique-quantique pourraient expliquer la localisation de la fonction d’onde a été suggérée par d’autres, notamment M. Hall et M. Reginatto, Diosi et Tilloy, et David Poulin.

L’idée que l’espace-temps pourrait être classique remonte à I. Sato (1950) et à C. Moller (1962), mais aucune théorie cohérente n’a été trouvée jusqu’à présent.



02/04/2025 La Gravite quantique

a gravité quantique est une branche de la physique théorique tentant d’unifier la mécanique quantique et la relativité générale.

Une telle théorie permettrait notamment de comprendre les phénomènes impliquant de grandes quantités de matière ou d’énergie sur de petites dimensions spatiales, tels que les trous noirs ou l’origine de l’Univers.

L’approche générale utilisée pour obtenir une théorie de la gravité quantique est d ‘examiner les symétries et indices permettant de combiner la mécanique quantique et la relativité générale en une théorie globale unifiée.

Problématique

La plupart des difficultés de cette unification proviennent des suppositions radicalement différentes de ces théories sur la structure et le fonctionnement de l’univers :

La mécanique quantique postule en effet que des particules (quanta) de médiation correspondent à chacune des forces utilisées dans l’espace-temps dit « plat » (c’est-à dire euclidien ou pseudo-euclidien) de la mécanique newtonienne ou de la relativité restreinte, tandis que la théorie de la relativité générale modélise la gravité comme une courbure d’un espace-temps pseudo-riemannien dont le rayon est proportionnel à la densité d’énergie (masse ou autre).

Dans la manière même de poser le cadre d’espace-temps, la relativité générale a d’autres postulats ou conclusions non partagés par la mécanique quantique. Par exemple, en relativité générale, la gravité entraîne une dilatation du temps, alors que la mécanique quantique se fonde sur un temps uniforme. En outre, la relativité prédit que le volume propre est également affecté par la gravité, alors que la mécanique quantique ne reconnaît pas un effet gravitationnel sur le volume[1].

Une difficulté supplémentaire vient du succès de la mécanique quantique comme de la théorie de la relativité générale : toutes deux sont couronnées de succès, leurs hypothèses se vérifient (découverte du boson de Higgs en 2012 pour la mécanique quantique et son modèle standard, ondes gravitationnelles en 2015 pour la relativité générale) et aucun phénomène ne les contredit. On considère donc que ces deux théories doivent être deux approximations d’une même théorie unifiée, au même titre que la mécanique newtonienne est une bonne approximation de la mécanique relativiste.

Cependant les énergies et conditions auxquelles la gravité quantique pourrait être vérifiée sont celles de l’échelle de Planck, et sont donc inaccessibles à notre technologie. Aussi aucune observation expérimentale n’est disponible pour donner des indices sur la façon de les combiner.

Or les voies les plus triviales pour combiner ces deux théories (telles que traiter la gravité comme un champ possédant une particule de médiation : le graviton) se heurtent au problème de renormalisation. En effet la gravité est sensible à la masse, donc d’après le principe d’équivalence de la masse et de l’énergie en relativité restreinte, elle est aussi sensible à l’énergie. Un graviton doit donc interagir avec lui-même, ce qui crée de nouveaux gravitons qui à leur tour interagissent à nouveau. Il apparaît donc des valeurs d’énergie infinies qui ne peuvent être éliminées.

Approches candidates

Un certain nombre de propositions ont été avancées pour résoudre le problème :

  • La première tentative de rectifier la non-renormalisabilité de la gravitation a été de rajouter l’ingrédient de la supersymétrie afin de relier le comportement du graviton à celui des autres particules de spin plus petit et adoucir ainsi les divergences de la théorie. Le résultat porte le nom de théorie de supergravité. Malgré un comportement meilleur aux énergies élevées, une analyse dimensionnelle de la constante de couplage de la théorie (c’est-à-dire la constante de Newton) suggère fortement que les divergences subsistent et ainsi que ces théories doivent être remplacées par une théorie plus complète à l’approche de l’échelle de Planck.
  • La question de l’apparition de divergences ultra-violettes dans le traitement perturbatif de la théorie est cependant toujours une question ouverte En effet, les calculs explicites récents, réalisés avec des techniques contemporaines court-circuitant l’utilisation fastidieuse des diagrammes de Feynman pour les calculs perturbatifs d’ordre élevé, ont révélé l’existence de propriétés jusqu’alors invisibles dans une formulation lagrangienne de la théorie. De fait, sous l’effet d’annulations inattendues, les divergences se trouvent repoussées aux ordres plus élevés, légèrement hors de portée calculatoire en 2018[2].
  • La théorie M souvent dénommée théorie des cordes pour des raisons historiques, ou encore, plus précisément la théorie des supercordes est une tentative non seulement de description quantique de la gravité mais également des autres interactions fondamentales présentes dans le modèle standard de la physique des particules. Les différents modèles de la théorie des cordes sont parfaitement définis d’un point de vue quantique et de façon remarquable admettent les théories de supergravité comme théories effectives à basse énergie. En ce sens les théories des cordes fournissent une description microscopique, on parle aussi de complétion ultraviolette, aux théories de supergravité. C’était en 2021 la branche de ce domaine la plus active par le nombre de chercheurs et de publications.
  • La gravitation quantique à boucles introduite par Lee Smolin et Carlo Rovelli sur la base du formalisme d’Ashtekar s’attache à présenter une formulation quantique de la gravité explicitement indépendante d’une éventuelle métrique de fond (contrairement à la description actuelle de la théorie des cordes, même si elle inclut également la symétrie de reparamétrisation comme sous-ensemble de ses symétries), ce qui est un effort naturel conforme à l’esprit de la relativité générale. Contrairement à la théorie des cordes, la gravitation quantique à boucle ne se donne pas comme but de décrire également les autres interactions fondamentales. Elle ne se veut donc pas une théorie du tout.
  • La géométrie non commutative a été proposée par Alain Connes notamment, pour reconstruire le modèle standard par réduction dimensionnelle de la relativité générale sur une variété non-commutative dans l’esprit de la théorie de Kaluza-Klein cherchant à reproduire l’électromagnétisme par réduction dimensionnelle de la relativité générale sur un cercle. Cependant son analyse se fonde sur une description classique du modèle standard et la quantification de son modèle n’est pas encore développée : ce n’est donc pas encore une description quantique de la gravité.
  • Avec des notions en commun avec ce dernier, le dilaton fait sa première apparition dans la théorie de Kaluza-Klein. En 2007, il apparaît dans le problème de plusieurs corps à dimensions réduites[3] basé sur la théorie des champs de Roman Jackiw. La motivation vient de vouloir obtenir les solutions analytiques complètes pour la métrique du problème covariant de N corps, un but difficile et presque illusoire en relativité générale. Pour simplifier le problème, le nombre de dimensions a été réduit à (1+1), c’est-à-dire une dimension spatiale et une dimension temporelle. Le modèle obtenu est appelé R=T (par rapport à G=T de la relativité générale). Non seulement on peut obtenir des solutions exactes en termes d’une généralisation de la fonction W de Lambert, le dilaton est gouverné par l’équation de Schrödinger et par conséquent, la quantification s’applique. On obtient donc une théorie qui combine (et joint de façon naturelle) la gravité (d’origine géométrique), l’électromagnétisme et la mécanique quantique. Auparavant, la généralisation de cette théorie pour des dimensions plus hautes n’était pas claire. En revanche, une dérivation en (3+1) dimensions, proposée en 2016, pour un choix particulier de conditions de coordonnées, fournit un résultat similaire, c’est-à-dire que le champ du dilaton est gouverné par une équation de Schrödinger avec non-linéarité logarithmique[4] qui apparait dans la physique de la matière condensée et les superfluides. De plus, ces résultats sont intéressants compte tenu de la ressemblance entre le dilaton et le boson de Higgs[5]. Néanmoins, seule l’expérimentation pourra résoudre la relation entre ces deux particules. Certains scientifiques ayant étudié la dimension « 4+1 » ont démontré qu’elle pouvait être prise en compte
  • La théorie des twisteurs de Roger Penrose proposée dans les années 1970 a introduit un nouveau formalisme permettant l’étude des solutions des équations de la relativité générale et à ce titre aurait pu offrir un meilleur point de départ pour la quantification de celle-ci. Mais les efforts dans ce sens n’ont pas abouti et le projet de quantification par cette voie est abandonné en 2019. Par contre le formalisme de twisteur reste utile dans le cadre de la relativité et a même connu un regain d’intérêt en 2007 dans le cadre de l’étude de la théorie de Yang-Mills via la théorie des cordes (travaux de Witten sur ce dernier point)[6].
Essais expérimentaux

Les effets de la gravité quantique sont extrêmement difficiles à tester. C’est pour cette raison que la possibilité de tester expérimentalement la gravité quantique n’a pas reçu beaucoup d’attention avant la fin des années 1990. Cependant, au cours des années 2000, les physiciens ont réalisé qu’établir la preuve des effets gravitationnels quantiques pourrait les guider dans le développement de la théorie. Le domaine obtient depuis une attention accrue[7],[8].

Objet quantique dans un champ gravitationnel non quantique

Bien qu’il n’existe pas de description quantique de la gravité (et donc de son origine), il est possible de déterminer le comportement d’un objet quantique en présence de gravité ‘classique’. Prédire le mouvement d’une particule dans un champ de gravité (on utilise l’expression newtonienne de la gravité, suffisamment précise à cette échelle) est même un exercice classique pour les étudiant9]. Les niveaux d’énergie potentielle de pesanteur sont bien quantifiés, même si la gravité ne l’est pas.

L’expérience a depuis été réalisée par Valery Nesvizhevsky à l’Institut Laue-Langevin de Grenoble, montrant que les neutrons se trouvent bien sur les trajectoires prédites par la mécanique quantique[10].

Détection de gravitation quantique

Les théories les plus activement développées en 2021 sont, outre l’invariance de Lorentz, les effets des empreintes de gravitation quantique dans le fond diffus cosmologique (en particulier sa polarisation) et la décohérence induite par les fluctuations de la mousse quantique.

Les détections initialement faites lors de l’expérience BICEP ont d’abord été interprétées comme étant primordiales (modes-B|polarisation mode-B) et causées par des ondes gravitationnelles dans l’Univers primordial. Si elles sont primordiales, ces ondes sont nées en tant que fluctuation quantique à l’intérieur du champ gravitationnel. Le cosmologiste Ken Olum a écrit : « Je crois que c’est la seule preuve observable que nous ayons qui nous montre la gravité quantifiée. Il s’agit d’ailleurs probablement de la seule preuve que nous aurons jamais[11]. »

02/06/2024 Dans quelle mesure la théorie de la relativité générale est-elle validée par les expériences et les observations ?

La théorie d’Einstein est très bien validée. Elle a expliqué l’avance du périhélie de Mercure (rotation du grand axe de la trajectoire elliptique de cette planète), a prédit la déviation des rayons lumineux par le Soleil (dont la mise en évidence en 1919 a fait la célébrité d’Einstein), a prédit les ondes gravitationnelles, dont l’existence a été spectaculairement confirmée par la découverte faite par le détecteur ligo en septembre 2015.

En particulier, le principe d’équivalence, sur lequel repose la théorie, a été vérifié avec une très grande précision : l’écart entre théorie et expérience est inférieur à 10–13 en valeur relative (voir Le principe d’équivalence en question, par D. Giulini, page 88). Ce principe stipule que la masse inertielle (facteur de proportionnalité entre force et accélération) est équivalente à la masse gravitationnelle (grandeur à laquelle la force de gravité est proportionnelle).

Il a notamment pour conséquence le fait bien connu que, soumis à un même champ de gravité, tous les corps chutent avec la même accélération. Plus globalement, il implique une équivalence entre champ de gravité et champ d’accélération.

Il existe cependant des domaines où la relativité générale n’a pas été testée…

En effet, jusqu’à récemment la théorie n’avait été testée que dans des situations où l’intensité de la gravitation était faible, ce qui est le cas dans le Système Solaire ou dans un contexte cosmologique. Mais tout a changé avec la découverte directe des ondes gravitationnelles : l’événement observé, la fusion de deux trous noirs, doit être calculé en régime de champ gravitationnel fort ; notamment parce que les deux trous noirs atteignent des vitesses proches de la vitesse de la lumière. Le fait que le signal observé coïncide exactement avec le signal prédit est la première confirmation que la gravité en champ fort est bien décrite par la théorie d’Einstein. Un vrai tour de force : cette théorie a été conçue il y a plus de 100 ans, quand on n’imaginait même pas l’existence d’objets comme les trous noirs !

La relativité générale n’a pas non plus été testée dans le domaine microscopique : les mesures de forces gravitationnelles à cette échelle sont très difficiles, car d’autres forces ou effets, notamment l’effet Casimir, dû aux fluctuations quantiques du vide, viennent brouiller les effets gravitationnels dès que l’on rapproche trop deux corps. C’est pourquoi la gravitation n’a été mesurée jusqu’à aujourd’hui qu’à des échelles supérieures au micromètre.

La cohérence interne, mathématique, de la relativité générale est-elle établie ?

Oui, c’est une théorie très cohérente. Qui plus est, à chaque fois qu’on essaie de modifier ne serait-ce que légèrement la relativité générale, des incohérences apparaissent, des instabilités intrinsèques par exemple. De ce point de vue, on a l’impression que la relativité générale est une théorie un peu particulière, une sorte d’îlot solitaire dans une mer de théories incohérentes.

D’un autre côté, certaines solutions des équations d’Einstein (équations qui relient la répartition de matière et d’énergie à la géométrie de l’espace-temps) présentent des singularités, c’est-à-dire des points de l’espace-temps où certaines grandeurs physiques sont infinies. De telles singularités ne pouvant pas correspondre à une réalité physique, on peut les interpréter comme une incohérence de la théorie. Mais l’apparition de singularités est probablement liée au fait que la relativité générale y atteint sa limite de validité, et que les aspects quantiques doivent, au moins dans ces régions de l’espace-temps, être pris en compte.

Existe-t-il aujourd’hui des théories classiques, c’est-à-dire non quantiques, pouvant être des alternatives à la relativité générale ?

Il n’en existe pas de vraiment satisfaisantes. On a tenté d’en construire pour expliquer certains aspects gravitationnels encore énigmatiques, notamment la question de la « matière noire », invoquée pour expliquer la dynamique des galaxies. L’existence de la matière noire pourrait être une hypothèse inutile si la force de gravitation était différente de celle indiquée par la relativité générale aux grandes échelles cosmiques. Mais il est très difficile de modifier la force de gravitation, ou d’ajouter l’intervention d’une cinquième force fondamentale, de façon cohérente aux différentes échelles : galaxies, amas de galaxies, etc. Aucune théorie alternative ne semble rendre compte de toutes les échelles à la fois, en raison de fortes contraintes à respecter, notamment le principe d’équivalence. Et c’est la même chose avec la question de l’« énergie sombre », qui serait responsable de l’accélération de l’expansion de l’Univers.

C’est pourquoi le schéma privilégié actuellement est de s’appuyer sur la relativité générale (avec une constante cosmologique dans les équations d’Einstein pour rendre compte de l’accélération de l’expansion) et sur l’hypothèse de l’existence de la matière noire.

Puisque, en l’état actuel des connaissances, la relativité générale semble décrire correctement la gravitation, pourquoi en cherche-t-on une théorie quantique ?

Peut-être la gravité est-elle irréductiblement de nature classique. Mais plusieurs arguments indiquent qu’une théorie quantique de la gravitation est nécessaire. Il y a d’abord les singularités, que la relativité générale fait apparaître au centre des trous noirs ou à l’origine du Big Bang. Ces singularités soulèvent des questions sur la structure de l’espace-temps à l’échelle de Planck, une échelle naturelle (de l’ordre de 10–35 mètre) construite en combinant les trois constantes fondamentales (G, c et h) de la relativité générale et de la physique quantique (voir Le principe d’équivalence en question, par D. Giulini, page 88). À cette échelle, la gravité devient aussi intense que les autres forces fondamentales qui relèvent, elles, de la théorie quantique.

Celle-ci décrit un monde où la matière est discontinue ; peut-être en est-il de même de l’espace-temps ? La relativité générale décrit un espace-temps dynamique, en interaction avec la matière et l’énergie, alors qu’en physique quantique, l’espace-temps n’est qu’un cadre passif où se déroulent les phénomènes : ces deux visions semblent contradictoires et sont à concilier. Cela pourrait d’ailleurs avoir des conséquences sur la théorie quantique elle-même.

Pourquoi les tentatives de construire une théorie quantique de la gravitation à partir de la relativité générale ont-elles échoué ?

Le procédé mathématique habituel que l’on utilise pour passer d’une théorie classique à son équivalent quantique ne fonctionne pas avec la relativité générale. On démontre que la version quantique de celle-ci est « non renormalisable », c’est-à-dire que des quantités infinies apparaissent dans les calculs des grandeurs mesurables et qu’il est impossible de les éliminer. Ce n’est par exemple pas le cas de l’électrodynamique quantique, la version quantique de l’électromagnétisme classique. Ici aussi, des infinis apparaissent dans les calculs, mais on peut les éliminer de façon systématique, par une procédure formelle consistant à redéfinir les paramètres de la théorie (en l’occurrence la masse et la charge de l’électron) de façon à retrouver leurs valeurs observées. La renormalisation est impossible dans la version quantique de la relativité générale, ce qui enlève à cet édifice toute signification physique.

Quelles sont aujourd’hui les pistes explorées pour construire une théorie quantique de la gravitation ?

Il existe deux approches. L’une consiste à « quantifier » la gravitation en oubliant les trois autres interactions fondamentales, au moins dans un premier temps. C’est ce que les spécialistes nomment des théories de la « gravité quantique ». Cette approche est représentée en particulier par la « gravitation quantique à boucles », une théorie encore largement en chantier. Elle part d’une formulation mathématique particulière de la relativité générale (la formulation dite hamiltonienne), et le passage à la version quantique exige au préalable la détermination de certains couples de variables appropriées.

Dans ce schéma, on obtient un espace-temps granulaire, discrétisé. Bien qu’inachevée, la théorie de la gravitation à boucles serait parvenue à quelques résultats intéressants, notamment l’expression de l’entropie (une grandeur thermodynamique) d’un trou noir en fonction de l’aire de son horizon des événements.

L’autre approche pour aboutir à une théorie quantique de la gravitation consiste à aborder de front l’unification des quatre interactions fondamentales. Cette approche est représentée par la théorie des cordes dans un monde à plus de quatre dimensions (trois d’espace, une de temps), où les dimensions supplémentaires seraient imperceptibles car minuscules et refermées sur elles-mêmes.

En quoi consiste la théorie des cordes ?

L’idée initiale provient de l’étude, dans les années 1970, de l’interaction forte de deux quarks. Elle est réapparue dans les années 1980 dans le contexte d’une théorie plus globale, qui considère que les objets fondamentaux de la physique ne sont pas des particules ponctuelles, mais des objets unidimensionnels, de minuscules cordes dont les différents modes de vibration correspondraient aux diverses particules observées. Cette théorie n’a qu’un seul paramètre, qui correspond en quelque sorte à la longueur minimale des cordes. Mais pour des raisons de cohérence interne, elle nécessite un nombre de dimensions spatiotemporelles supérieur à 4. On a pensé un moment que la théorie n’était cohérente qu’à 11 ou 26 dimensions, mais d’autres possibilités se sont révélées depuis.

Pourquoi la théorie des cordes a-t-elle suscité l’engouement des physiciens ?

Parce qu’elle semblait constituer un cadre permettant d’unifier les quatre interactions fondamentales. En particulier, elle présente de façon naturelle deux propriétés très séduisantes. D’une part, elle prévoit l’existence de particules de masse nulle et de spin (moment cinétique intrinsèque) égal à 2, c’est-à-dire de gravitons véhiculant la force gravitationnelle. D’autre part, elle est supersymétrique, c’est-à-dire qu’elle a une symétrie faisant correspondre aux particules de spin entier des particules de spin demi-entier, et inversement. Or la supersymétrie était un ingrédient clé des tentatives précédentes d’unification des interactions.

Où en est aujourd’hui cette théorie ?

L’espoir d’une théorie des cordes unique, avec des prédictions univoques, a fait long feu. Autre inconvénient sérieux : les théories des cordes ont du mal à expliquer l’inflation (l’expansion brutale de l’Univers à son tout début) et l’accélération actuelle de l’expansion cosmique. Il y a eu quelques succès, par exemple le calcul de l’entropie de certains trous noirs à partir de leurs degrés de liberté microscopiques. Mais la théorie des cordes constitue peut-être plus un puissant outil d’analyse qu’une théorie du tout. Elle a ainsi permis de conjecturer une dualité entre la gravité quantique et des théories semblables à celles décrivant les particules élémentaires. Cette dualité (la « correspondance AdS/CFT » qui est une conjecture reliant deux types de théories) permet d’effectuer des calculs que l’on ne savait pas faire auparavant, et semble être un principe profond qui dépasse le cadre de la théorie des cordes

Sur le plan expérimental ou observationnel, quelles sont les perspectives pour aller au-delà de la relativité générale ?

La détection d’ondes gravitationnelles par les détecteurs Advanced ligo et Advanced Virgo nous offrira des moyens inédits pour tester les processus physiques qui opèrent tout près de l’horizon des trous noirs. Stephen Hawking nous a appris que des phénomènes quantiques y jouent un rôle : c’est le fameux rayonnement de Hawking, qu’il sera difficile d’identifier, mais des surprises restent possibles. Pour obtenir des mesures de précision, il faudra probablement attendre l’observatoire spatial lisa vers 2030. La mission technique lisa Pathfinder qui le prépare a été lancée en décembre 2015 et vient de publier des premiers résultats spectaculaires. Cela est de bon augure pour la future mission. lisa devrait permettre d’étudier avec précision l’horizon de deux trous noirs superlatifs en coalescence, et de tester ainsi avec une précision inégalée la théorie de la gravitation.

01/06/2025 Le monde subatomique est-il réel ?

Les hypothèses des physiciens quantiques concernant le monde subatomique paraissent incompatibles avec ce que la science nomme la réalité. Faut-il les modifier ou se donner une définition nouvelle de la réalité. Ce dilemme a toujours été celui de la science. Mais avec la physique quantique apparue dans le premier tiers du 20e siècle, il atteint un paroxysme.

Citons notamment la dualité onde-particule. Pour celle-ci les particules peuvent exister aussi en tant qu’ondes. Autrement dit, la lumière se comporte à la fois comme une onde et comme une particule. La manifestation ondulatoire ou particulaire dépend des conditions de l’expérience . De même le temps ne s’ écoule pas du passé vers le futur et le concept de vide cosmologique n’a pas de sens.

Pour le physicien Niels Bohr, nous ne pouvons pas parler de réalité mais de la perception que nous en avons. Cependant pour une large majorité de physiciens, le monde est composé d’objets sensibles existant indépendamment de l’idée que nous nous en faisons.

L’un de ceux-ci est Robert Spekkens en poste au Perimeter Institute, Canada. Il considère que la réalité est réelle, à condition que nous modifions ce que signifie le terme de réel.

Le problème n’est pas nouveau. La mécanique quantique nous a permis de développer aussi bien des puces semi-conductrices que des calculateurs quantiques. Mais pour cela il nous a fallu accepter le concept de fonction d’onde

(voir wikipedia https://fr.wikipedia.org/wiki/Fonction_d%27onde)

La fonction d’onde est un des concepts fondamentaux de la mécanique quantique. Elle correspond à la représentation de l’état quantique | Ψ ( t ) ⟩ d’un système dans une base de dimension infinie[1], en général celle des positions | r ⟩ . Dans ce dernier cas, elle est notée Ψ ( r , t ) , qui, par définition, correspond à Ψ ( r → , t ) = ⟨ r | Ψ ( t ) ⟩ , si l’état quantique | Ψ ( t ) ⟩ est normé. La fonction d’onde correspond à une amplitude de probabilité, en général à valeurs complexes. La probabilité de trouver une particule au voisinage de la position à l’instant t est alors proportionnelle au carré du module de la fonction d’onde | Ψ ( r , t ) | 2 , densité de probabilité (volumique) de présence, et à la mesure du volume du voisinage considéré de ce phénomène . Cette interprétation probabiliste de la notion de fonction d’onde a été développée dans les années 1925-1927 par Max Born, Werner Heisenberg et d’autres. Elle constitue l’interprétation de Copenhague de la mécanique quantique, laquelle considère ce caractère probabiliste dans l’interaction entre le système de mesure (macroscopique, donc classique) et le système quantique, conduisant à la réduction du paquet d’onde.

Si elle est la plus couramment admise en pratique, cette interprétation soulève divers problèmes épistémologiques tel que le problème de la mesure quantique. Il faut accepter de considérer les objets étudiés non comme des objets proprement dits mais comme des «  nuages de possibilités » On appelle ceci le « measurement problem » ;

Le problème est encore plus évident si l’on considère un couple de particules et leur intrication, même si elles sont séparées par la moitié du monde. Albert Einstein, qui n’y croyait pas, avait qualifié ce phénomène de “spooky action at a distance”.

En fait, il ne faut pas penser que la réalité consiste en l’idée que nous nous en faisons. La question concerne d’ailleurs toutes les sciences et pas seulement la physique. Si un phénomène nous paraît bizarre, c’est parce qu’il nous manque un élément du puzzle.

Pour Sabine Hossenfelder de la Ludwig Maximilian University de Munich, il s’agit d’une position philosophique et non scientifique.

Beaucoup de physiciens évoquent la question du réalisme sous le terme de « réalisme local ». Celui-ci peut être testé expérimentalement sous ce nom, une combinaison de localisme et le réalisme.

Concernant la mécanique quantique, il y a eu de nombreux efforts pour en développer une version conforme au réalisme local. Mais aucune n’a encore abouti du fait du manque de consensus sur le contenu de ce concept. Dans les années soixante, le physicien John Stewart Bell avait proposé un test mathématique des théories des variables cachées supposant que le monde est local, mais sans résultats.

Aujourd’hui la question est toujours en discussion, Nous y reviendrons s’il y a lieu.