02/04/2025 La Gravite quantique

a gravité quantique est une branche de la physique théorique tentant d’unifier la mécanique quantique et la relativité générale.

Une telle théorie permettrait notamment de comprendre les phénomènes impliquant de grandes quantités de matière ou d’énergie sur de petites dimensions spatiales, tels que les trous noirs ou l’origine de l’Univers.

L’approche générale utilisée pour obtenir une théorie de la gravité quantique est d ‘examiner les symétries et indices permettant de combiner la mécanique quantique et la relativité générale en une théorie globale unifiée.

Problématique

La plupart des difficultés de cette unification proviennent des suppositions radicalement différentes de ces théories sur la structure et le fonctionnement de l’univers :

La mécanique quantique postule en effet que des particules (quanta) de médiation correspondent à chacune des forces utilisées dans l’espace-temps dit « plat » (c’est-à dire euclidien ou pseudo-euclidien) de la mécanique newtonienne ou de la relativité restreinte, tandis que la théorie de la relativité générale modélise la gravité comme une courbure d’un espace-temps pseudo-riemannien dont le rayon est proportionnel à la densité d’énergie (masse ou autre).

Dans la manière même de poser le cadre d’espace-temps, la relativité générale a d’autres postulats ou conclusions non partagés par la mécanique quantique. Par exemple, en relativité générale, la gravité entraîne une dilatation du temps, alors que la mécanique quantique se fonde sur un temps uniforme. En outre, la relativité prédit que le volume propre est également affecté par la gravité, alors que la mécanique quantique ne reconnaît pas un effet gravitationnel sur le volume[1].

Une difficulté supplémentaire vient du succès de la mécanique quantique comme de la théorie de la relativité générale : toutes deux sont couronnées de succès, leurs hypothèses se vérifient (découverte du boson de Higgs en 2012 pour la mécanique quantique et son modèle standard, ondes gravitationnelles en 2015 pour la relativité générale) et aucun phénomène ne les contredit. On considère donc que ces deux théories doivent être deux approximations d’une même théorie unifiée, au même titre que la mécanique newtonienne est une bonne approximation de la mécanique relativiste.

Cependant les énergies et conditions auxquelles la gravité quantique pourrait être vérifiée sont celles de l’échelle de Planck, et sont donc inaccessibles à notre technologie. Aussi aucune observation expérimentale n’est disponible pour donner des indices sur la façon de les combiner.

Or les voies les plus triviales pour combiner ces deux théories (telles que traiter la gravité comme un champ possédant une particule de médiation : le graviton) se heurtent au problème de renormalisation. En effet la gravité est sensible à la masse, donc d’après le principe d’équivalence de la masse et de l’énergie en relativité restreinte, elle est aussi sensible à l’énergie. Un graviton doit donc interagir avec lui-même, ce qui crée de nouveaux gravitons qui à leur tour interagissent à nouveau. Il apparaît donc des valeurs d’énergie infinies qui ne peuvent être éliminées.

Approches candidates

Un certain nombre de propositions ont été avancées pour résoudre le problème :

  • La première tentative de rectifier la non-renormalisabilité de la gravitation a été de rajouter l’ingrédient de la supersymétrie afin de relier le comportement du graviton à celui des autres particules de spin plus petit et adoucir ainsi les divergences de la théorie. Le résultat porte le nom de théorie de supergravité. Malgré un comportement meilleur aux énergies élevées, une analyse dimensionnelle de la constante de couplage de la théorie (c’est-à-dire la constante de Newton) suggère fortement que les divergences subsistent et ainsi que ces théories doivent être remplacées par une théorie plus complète à l’approche de l’échelle de Planck.
  • La question de l’apparition de divergences ultra-violettes dans le traitement perturbatif de la théorie est cependant toujours une question ouverte En effet, les calculs explicites récents, réalisés avec des techniques contemporaines court-circuitant l’utilisation fastidieuse des diagrammes de Feynman pour les calculs perturbatifs d’ordre élevé, ont révélé l’existence de propriétés jusqu’alors invisibles dans une formulation lagrangienne de la théorie. De fait, sous l’effet d’annulations inattendues, les divergences se trouvent repoussées aux ordres plus élevés, légèrement hors de portée calculatoire en 2018[2].
  • La théorie M souvent dénommée théorie des cordes pour des raisons historiques, ou encore, plus précisément la théorie des supercordes est une tentative non seulement de description quantique de la gravité mais également des autres interactions fondamentales présentes dans le modèle standard de la physique des particules. Les différents modèles de la théorie des cordes sont parfaitement définis d’un point de vue quantique et de façon remarquable admettent les théories de supergravité comme théories effectives à basse énergie. En ce sens les théories des cordes fournissent une description microscopique, on parle aussi de complétion ultraviolette, aux théories de supergravité. C’était en 2021 la branche de ce domaine la plus active par le nombre de chercheurs et de publications.
  • La gravitation quantique à boucles introduite par Lee Smolin et Carlo Rovelli sur la base du formalisme d’Ashtekar s’attache à présenter une formulation quantique de la gravité explicitement indépendante d’une éventuelle métrique de fond (contrairement à la description actuelle de la théorie des cordes, même si elle inclut également la symétrie de reparamétrisation comme sous-ensemble de ses symétries), ce qui est un effort naturel conforme à l’esprit de la relativité générale. Contrairement à la théorie des cordes, la gravitation quantique à boucle ne se donne pas comme but de décrire également les autres interactions fondamentales. Elle ne se veut donc pas une théorie du tout.
  • La géométrie non commutative a été proposée par Alain Connes notamment, pour reconstruire le modèle standard par réduction dimensionnelle de la relativité générale sur une variété non-commutative dans l’esprit de la théorie de Kaluza-Klein cherchant à reproduire l’électromagnétisme par réduction dimensionnelle de la relativité générale sur un cercle. Cependant son analyse se fonde sur une description classique du modèle standard et la quantification de son modèle n’est pas encore développée : ce n’est donc pas encore une description quantique de la gravité.
  • Avec des notions en commun avec ce dernier, le dilaton fait sa première apparition dans la théorie de Kaluza-Klein. En 2007, il apparaît dans le problème de plusieurs corps à dimensions réduites[3] basé sur la théorie des champs de Roman Jackiw. La motivation vient de vouloir obtenir les solutions analytiques complètes pour la métrique du problème covariant de N corps, un but difficile et presque illusoire en relativité générale. Pour simplifier le problème, le nombre de dimensions a été réduit à (1+1), c’est-à-dire une dimension spatiale et une dimension temporelle. Le modèle obtenu est appelé R=T (par rapport à G=T de la relativité générale). Non seulement on peut obtenir des solutions exactes en termes d’une généralisation de la fonction W de Lambert, le dilaton est gouverné par l’équation de Schrödinger et par conséquent, la quantification s’applique. On obtient donc une théorie qui combine (et joint de façon naturelle) la gravité (d’origine géométrique), l’électromagnétisme et la mécanique quantique. Auparavant, la généralisation de cette théorie pour des dimensions plus hautes n’était pas claire. En revanche, une dérivation en (3+1) dimensions, proposée en 2016, pour un choix particulier de conditions de coordonnées, fournit un résultat similaire, c’est-à-dire que le champ du dilaton est gouverné par une équation de Schrödinger avec non-linéarité logarithmique[4] qui apparait dans la physique de la matière condensée et les superfluides. De plus, ces résultats sont intéressants compte tenu de la ressemblance entre le dilaton et le boson de Higgs[5]. Néanmoins, seule l’expérimentation pourra résoudre la relation entre ces deux particules. Certains scientifiques ayant étudié la dimension « 4+1 » ont démontré qu’elle pouvait être prise en compte
  • La théorie des twisteurs de Roger Penrose proposée dans les années 1970 a introduit un nouveau formalisme permettant l’étude des solutions des équations de la relativité générale et à ce titre aurait pu offrir un meilleur point de départ pour la quantification de celle-ci. Mais les efforts dans ce sens n’ont pas abouti et le projet de quantification par cette voie est abandonné en 2019. Par contre le formalisme de twisteur reste utile dans le cadre de la relativité et a même connu un regain d’intérêt en 2007 dans le cadre de l’étude de la théorie de Yang-Mills via la théorie des cordes (travaux de Witten sur ce dernier point)[6].
Essais expérimentaux

Les effets de la gravité quantique sont extrêmement difficiles à tester. C’est pour cette raison que la possibilité de tester expérimentalement la gravité quantique n’a pas reçu beaucoup d’attention avant la fin des années 1990. Cependant, au cours des années 2000, les physiciens ont réalisé qu’établir la preuve des effets gravitationnels quantiques pourrait les guider dans le développement de la théorie. Le domaine obtient depuis une attention accrue[7],[8].

Objet quantique dans un champ gravitationnel non quantique

Bien qu’il n’existe pas de description quantique de la gravité (et donc de son origine), il est possible de déterminer le comportement d’un objet quantique en présence de gravité ‘classique’. Prédire le mouvement d’une particule dans un champ de gravité (on utilise l’expression newtonienne de la gravité, suffisamment précise à cette échelle) est même un exercice classique pour les étudiant9]. Les niveaux d’énergie potentielle de pesanteur sont bien quantifiés, même si la gravité ne l’est pas.

L’expérience a depuis été réalisée par Valery Nesvizhevsky à l’Institut Laue-Langevin de Grenoble, montrant que les neutrons se trouvent bien sur les trajectoires prédites par la mécanique quantique[10].

Détection de gravitation quantique

Les théories les plus activement développées en 2021 sont, outre l’invariance de Lorentz, les effets des empreintes de gravitation quantique dans le fond diffus cosmologique (en particulier sa polarisation) et la décohérence induite par les fluctuations de la mousse quantique.

Les détections initialement faites lors de l’expérience BICEP ont d’abord été interprétées comme étant primordiales (modes-B|polarisation mode-B) et causées par des ondes gravitationnelles dans l’Univers primordial. Si elles sont primordiales, ces ondes sont nées en tant que fluctuation quantique à l’intérieur du champ gravitationnel. Le cosmologiste Ken Olum a écrit : « Je crois que c’est la seule preuve observable que nous ayons qui nous montre la gravité quantifiée. Il s’agit d’ailleurs probablement de la seule preuve que nous aurons jamais[11]. »

02/06/2024 Dans quelle mesure la théorie de la relativité générale est-elle validée par les expériences et les observations ?

La théorie d’Einstein est très bien validée. Elle a expliqué l’avance du périhélie de Mercure (rotation du grand axe de la trajectoire elliptique de cette planète), a prédit la déviation des rayons lumineux par le Soleil (dont la mise en évidence en 1919 a fait la célébrité d’Einstein), a prédit les ondes gravitationnelles, dont l’existence a été spectaculairement confirmée par la découverte faite par le détecteur ligo en septembre 2015.

En particulier, le principe d’équivalence, sur lequel repose la théorie, a été vérifié avec une très grande précision : l’écart entre théorie et expérience est inférieur à 10–13 en valeur relative (voir Le principe d’équivalence en question, par D. Giulini, page 88). Ce principe stipule que la masse inertielle (facteur de proportionnalité entre force et accélération) est équivalente à la masse gravitationnelle (grandeur à laquelle la force de gravité est proportionnelle).

Il a notamment pour conséquence le fait bien connu que, soumis à un même champ de gravité, tous les corps chutent avec la même accélération. Plus globalement, il implique une équivalence entre champ de gravité et champ d’accélération.

Il existe cependant des domaines où la relativité générale n’a pas été testée…

En effet, jusqu’à récemment la théorie n’avait été testée que dans des situations où l’intensité de la gravitation était faible, ce qui est le cas dans le Système Solaire ou dans un contexte cosmologique. Mais tout a changé avec la découverte directe des ondes gravitationnelles : l’événement observé, la fusion de deux trous noirs, doit être calculé en régime de champ gravitationnel fort ; notamment parce que les deux trous noirs atteignent des vitesses proches de la vitesse de la lumière. Le fait que le signal observé coïncide exactement avec le signal prédit est la première confirmation que la gravité en champ fort est bien décrite par la théorie d’Einstein. Un vrai tour de force : cette théorie a été conçue il y a plus de 100 ans, quand on n’imaginait même pas l’existence d’objets comme les trous noirs !

La relativité générale n’a pas non plus été testée dans le domaine microscopique : les mesures de forces gravitationnelles à cette échelle sont très difficiles, car d’autres forces ou effets, notamment l’effet Casimir, dû aux fluctuations quantiques du vide, viennent brouiller les effets gravitationnels dès que l’on rapproche trop deux corps. C’est pourquoi la gravitation n’a été mesurée jusqu’à aujourd’hui qu’à des échelles supérieures au micromètre.

La cohérence interne, mathématique, de la relativité générale est-elle établie ?

Oui, c’est une théorie très cohérente. Qui plus est, à chaque fois qu’on essaie de modifier ne serait-ce que légèrement la relativité générale, des incohérences apparaissent, des instabilités intrinsèques par exemple. De ce point de vue, on a l’impression que la relativité générale est une théorie un peu particulière, une sorte d’îlot solitaire dans une mer de théories incohérentes.

D’un autre côté, certaines solutions des équations d’Einstein (équations qui relient la répartition de matière et d’énergie à la géométrie de l’espace-temps) présentent des singularités, c’est-à-dire des points de l’espace-temps où certaines grandeurs physiques sont infinies. De telles singularités ne pouvant pas correspondre à une réalité physique, on peut les interpréter comme une incohérence de la théorie. Mais l’apparition de singularités est probablement liée au fait que la relativité générale y atteint sa limite de validité, et que les aspects quantiques doivent, au moins dans ces régions de l’espace-temps, être pris en compte.

Existe-t-il aujourd’hui des théories classiques, c’est-à-dire non quantiques, pouvant être des alternatives à la relativité générale ?

Il n’en existe pas de vraiment satisfaisantes. On a tenté d’en construire pour expliquer certains aspects gravitationnels encore énigmatiques, notamment la question de la « matière noire », invoquée pour expliquer la dynamique des galaxies. L’existence de la matière noire pourrait être une hypothèse inutile si la force de gravitation était différente de celle indiquée par la relativité générale aux grandes échelles cosmiques. Mais il est très difficile de modifier la force de gravitation, ou d’ajouter l’intervention d’une cinquième force fondamentale, de façon cohérente aux différentes échelles : galaxies, amas de galaxies, etc. Aucune théorie alternative ne semble rendre compte de toutes les échelles à la fois, en raison de fortes contraintes à respecter, notamment le principe d’équivalence. Et c’est la même chose avec la question de l’« énergie sombre », qui serait responsable de l’accélération de l’expansion de l’Univers.

C’est pourquoi le schéma privilégié actuellement est de s’appuyer sur la relativité générale (avec une constante cosmologique dans les équations d’Einstein pour rendre compte de l’accélération de l’expansion) et sur l’hypothèse de l’existence de la matière noire.

Puisque, en l’état actuel des connaissances, la relativité générale semble décrire correctement la gravitation, pourquoi en cherche-t-on une théorie quantique ?

Peut-être la gravité est-elle irréductiblement de nature classique. Mais plusieurs arguments indiquent qu’une théorie quantique de la gravitation est nécessaire. Il y a d’abord les singularités, que la relativité générale fait apparaître au centre des trous noirs ou à l’origine du Big Bang. Ces singularités soulèvent des questions sur la structure de l’espace-temps à l’échelle de Planck, une échelle naturelle (de l’ordre de 10–35 mètre) construite en combinant les trois constantes fondamentales (G, c et h) de la relativité générale et de la physique quantique (voir Le principe d’équivalence en question, par D. Giulini, page 88). À cette échelle, la gravité devient aussi intense que les autres forces fondamentales qui relèvent, elles, de la théorie quantique.

Celle-ci décrit un monde où la matière est discontinue ; peut-être en est-il de même de l’espace-temps ? La relativité générale décrit un espace-temps dynamique, en interaction avec la matière et l’énergie, alors qu’en physique quantique, l’espace-temps n’est qu’un cadre passif où se déroulent les phénomènes : ces deux visions semblent contradictoires et sont à concilier. Cela pourrait d’ailleurs avoir des conséquences sur la théorie quantique elle-même.

Pourquoi les tentatives de construire une théorie quantique de la gravitation à partir de la relativité générale ont-elles échoué ?

Le procédé mathématique habituel que l’on utilise pour passer d’une théorie classique à son équivalent quantique ne fonctionne pas avec la relativité générale. On démontre que la version quantique de celle-ci est « non renormalisable », c’est-à-dire que des quantités infinies apparaissent dans les calculs des grandeurs mesurables et qu’il est impossible de les éliminer. Ce n’est par exemple pas le cas de l’électrodynamique quantique, la version quantique de l’électromagnétisme classique. Ici aussi, des infinis apparaissent dans les calculs, mais on peut les éliminer de façon systématique, par une procédure formelle consistant à redéfinir les paramètres de la théorie (en l’occurrence la masse et la charge de l’électron) de façon à retrouver leurs valeurs observées. La renormalisation est impossible dans la version quantique de la relativité générale, ce qui enlève à cet édifice toute signification physique.

Quelles sont aujourd’hui les pistes explorées pour construire une théorie quantique de la gravitation ?

Il existe deux approches. L’une consiste à « quantifier » la gravitation en oubliant les trois autres interactions fondamentales, au moins dans un premier temps. C’est ce que les spécialistes nomment des théories de la « gravité quantique ». Cette approche est représentée en particulier par la « gravitation quantique à boucles », une théorie encore largement en chantier. Elle part d’une formulation mathématique particulière de la relativité générale (la formulation dite hamiltonienne), et le passage à la version quantique exige au préalable la détermination de certains couples de variables appropriées.

Dans ce schéma, on obtient un espace-temps granulaire, discrétisé. Bien qu’inachevée, la théorie de la gravitation à boucles serait parvenue à quelques résultats intéressants, notamment l’expression de l’entropie (une grandeur thermodynamique) d’un trou noir en fonction de l’aire de son horizon des événements.

L’autre approche pour aboutir à une théorie quantique de la gravitation consiste à aborder de front l’unification des quatre interactions fondamentales. Cette approche est représentée par la théorie des cordes dans un monde à plus de quatre dimensions (trois d’espace, une de temps), où les dimensions supplémentaires seraient imperceptibles car minuscules et refermées sur elles-mêmes.

En quoi consiste la théorie des cordes ?

L’idée initiale provient de l’étude, dans les années 1970, de l’interaction forte de deux quarks. Elle est réapparue dans les années 1980 dans le contexte d’une théorie plus globale, qui considère que les objets fondamentaux de la physique ne sont pas des particules ponctuelles, mais des objets unidimensionnels, de minuscules cordes dont les différents modes de vibration correspondraient aux diverses particules observées. Cette théorie n’a qu’un seul paramètre, qui correspond en quelque sorte à la longueur minimale des cordes. Mais pour des raisons de cohérence interne, elle nécessite un nombre de dimensions spatiotemporelles supérieur à 4. On a pensé un moment que la théorie n’était cohérente qu’à 11 ou 26 dimensions, mais d’autres possibilités se sont révélées depuis.

Pourquoi la théorie des cordes a-t-elle suscité l’engouement des physiciens ?

Parce qu’elle semblait constituer un cadre permettant d’unifier les quatre interactions fondamentales. En particulier, elle présente de façon naturelle deux propriétés très séduisantes. D’une part, elle prévoit l’existence de particules de masse nulle et de spin (moment cinétique intrinsèque) égal à 2, c’est-à-dire de gravitons véhiculant la force gravitationnelle. D’autre part, elle est supersymétrique, c’est-à-dire qu’elle a une symétrie faisant correspondre aux particules de spin entier des particules de spin demi-entier, et inversement. Or la supersymétrie était un ingrédient clé des tentatives précédentes d’unification des interactions.

Où en est aujourd’hui cette théorie ?

L’espoir d’une théorie des cordes unique, avec des prédictions univoques, a fait long feu. Autre inconvénient sérieux : les théories des cordes ont du mal à expliquer l’inflation (l’expansion brutale de l’Univers à son tout début) et l’accélération actuelle de l’expansion cosmique. Il y a eu quelques succès, par exemple le calcul de l’entropie de certains trous noirs à partir de leurs degrés de liberté microscopiques. Mais la théorie des cordes constitue peut-être plus un puissant outil d’analyse qu’une théorie du tout. Elle a ainsi permis de conjecturer une dualité entre la gravité quantique et des théories semblables à celles décrivant les particules élémentaires. Cette dualité (la « correspondance AdS/CFT » qui est une conjecture reliant deux types de théories) permet d’effectuer des calculs que l’on ne savait pas faire auparavant, et semble être un principe profond qui dépasse le cadre de la théorie des cordes

Sur le plan expérimental ou observationnel, quelles sont les perspectives pour aller au-delà de la relativité générale ?

La détection d’ondes gravitationnelles par les détecteurs Advanced ligo et Advanced Virgo nous offrira des moyens inédits pour tester les processus physiques qui opèrent tout près de l’horizon des trous noirs. Stephen Hawking nous a appris que des phénomènes quantiques y jouent un rôle : c’est le fameux rayonnement de Hawking, qu’il sera difficile d’identifier, mais des surprises restent possibles. Pour obtenir des mesures de précision, il faudra probablement attendre l’observatoire spatial lisa vers 2030. La mission technique lisa Pathfinder qui le prépare a été lancée en décembre 2015 et vient de publier des premiers résultats spectaculaires. Cela est de bon augure pour la future mission. lisa devrait permettre d’étudier avec précision l’horizon de deux trous noirs superlatifs en coalescence, et de tester ainsi avec une précision inégalée la théorie de la gravitation.

01/06/2025 Le monde subatomique est-il réel ?

Les hypothèses des physiciens quantiques concernant le monde subatomique paraissent incompatibles avec ce que la science nomme la réalité. Faut-il les modifier ou se donner une définition nouvelle de la réalité. Ce dilemme a toujours été celui de la science. Mais avec la physique quantique apparue dans le premier tiers du 20e siècle, il atteint un paroxysme.

Citons notamment la dualité onde-particule. Pour celle-ci les particules peuvent exister aussi en tant qu’ondes. Autrement dit, la lumière se comporte à la fois comme une onde et comme une particule. La manifestation ondulatoire ou particulaire dépend des conditions de l’expérience . De même le temps ne s’ écoule pas du passé vers le futur et le concept de vide cosmologique n’a pas de sens.

Pour le physicien Niels Bohr, nous ne pouvons pas parler de réalité mais de la perception que nous en avons. Cependant pour une large majorité de physiciens, le monde est composé d’objets sensibles existant indépendamment de l’idée que nous nous en faisons.

L’un de ceux-ci est Robert Spekkens en poste au Perimeter Institute, Canada. Il considère que la réalité est réelle, à condition que nous modifions ce que signifie le terme de réel.

Le problème n’est pas nouveau. La mécanique quantique nous a permis de développer aussi bien des puces semi-conductrices que des calculateurs quantiques. Mais pour cela il nous a fallu accepter le concept de fonction d’onde

(voir wikipedia https://fr.wikipedia.org/wiki/Fonction_d%27onde)

La fonction d’onde est un des concepts fondamentaux de la mécanique quantique. Elle correspond à la représentation de l’état quantique | Ψ ( t ) ⟩ d’un système dans une base de dimension infinie[1], en général celle des positions | r ⟩ . Dans ce dernier cas, elle est notée Ψ ( r , t ) , qui, par définition, correspond à Ψ ( r → , t ) = ⟨ r | Ψ ( t ) ⟩ , si l’état quantique | Ψ ( t ) ⟩ est normé. La fonction d’onde correspond à une amplitude de probabilité, en général à valeurs complexes. La probabilité de trouver une particule au voisinage de la position à l’instant t est alors proportionnelle au carré du module de la fonction d’onde | Ψ ( r , t ) | 2 , densité de probabilité (volumique) de présence, et à la mesure du volume du voisinage considéré de ce phénomène . Cette interprétation probabiliste de la notion de fonction d’onde a été développée dans les années 1925-1927 par Max Born, Werner Heisenberg et d’autres. Elle constitue l’interprétation de Copenhague de la mécanique quantique, laquelle considère ce caractère probabiliste dans l’interaction entre le système de mesure (macroscopique, donc classique) et le système quantique, conduisant à la réduction du paquet d’onde.

Si elle est la plus couramment admise en pratique, cette interprétation soulève divers problèmes épistémologiques tel que le problème de la mesure quantique. Il faut accepter de considérer les objets étudiés non comme des objets proprement dits mais comme des «  nuages de possibilités » On appelle ceci le « measurement problem » ;

Le problème est encore plus évident si l’on considère un couple de particules et leur intrication, même si elles sont séparées par la moitié du monde. Albert Einstein, qui n’y croyait pas, avait qualifié ce phénomène de “spooky action at a distance”.

En fait, il ne faut pas penser que la réalité consiste en l’idée que nous nous en faisons. La question concerne d’ailleurs toutes les sciences et pas seulement la physique. Si un phénomène nous paraît bizarre, c’est parce qu’il nous manque un élément du puzzle.

Pour Sabine Hossenfelder de la Ludwig Maximilian University de Munich, il s’agit d’une position philosophique et non scientifique.

Beaucoup de physiciens évoquent la question du réalisme sous le terme de « réalisme local ». Celui-ci peut être testé expérimentalement sous ce nom, une combinaison de localisme et le réalisme.

Concernant la mécanique quantique, il y a eu de nombreux efforts pour en développer une version conforme au réalisme local. Mais aucune n’a encore abouti du fait du manque de consensus sur le contenu de ce concept. Dans les années soixante, le physicien John Stewart Bell avait proposé un test mathématique des théories des variables cachées supposant que le monde est local, mais sans résultats.

Aujourd’hui la question est toujours en discussion, Nous y reviendrons s’il y a lieu.

31/05/2025 Quelle est la profondeur des relations entre objets quantiques?

Carlos Vieira et ses collègues de l’Université de Campinas au Brésil ont apporté une réponse mathématique à cette question, inspirée de la mathématique des graphes. Ils attribuent ceci au principe d’exclusivité (exclusity principle). Celui-ci montre qu’il n’est pas possible de mesurer simultanément les caractères quantiques dans un ensemble d’objets quantiques.

L’état quantique d’une particule est défini par des « nombres quantiques ». Le principe d’exclusion interdit à toute particule élémentaire appartenant à un système de fermions d’avoir exactement les mêmes nombres quantiques qu’un autre fermion du système.

Pour Aden Cabello, de l’université de Seville, ce résultet est très important. Il montre comment la Nature opère spontanément.

Référence

Unexpected consequences of postquantum theories in the graph-theoretical approach to correlations

José Nogueira1,*, Carlos Vieira2, and Marcelo Terra Cunha2

  • Phys. Rev. A 111, 052418 – Published 9 May, 2025

DOI: https://doi.org/10.1103/PhysRevA.111.052418

Abstract

This work explores the implications of the exclusivity principle (EP) in the context of quantum and postquantum correlations. We first establish a key technical result demonstrating that given the set of correlations for a complementary experiment, the EP restricts the maximum set of correlations for the original experiment to the antiblocking set. Based on it, we can prove our central result: if all quantum behaviors are accessible in Nature, the EP guarantees that no postquantum behaviors can be realized. This can be seen as a generalization of the result of B. Amaral et al. [Phys. Rev. A 89, 030101(R) (2014)], to a wider range of scenarios. It also provides novel insights into the structure of quantum correlations and their limitations.



























Les
relations entre deux objets quantiques sont si étroites que mesurer
les propriétés d’un de ces objets peut révéler celles de l’autre,
quelle que soit la distance qui les sépare. On appelle ceci
l’intrication quantique.

Or il
est apparu que l’intrication, aussi étroite qu’elle puisse être,
disparaît quand sa force atteint une valeur maximum.

Carlos
Vieira et ses collègues de l’Université de Campinas au Brésil ont
apporté une réponse mathématique à cette question, inspirée de
la mathématique des graphes. Ils attribuent ceci au principe
d’exclusivité (exclusity principle). Celui-ci montre qu’il n’est pas
possible de mesurer simultanément les caractères quantiques dans
un ensemble d’objets quantiques.

L’état
quantique d’une particule est défini par des « nombres quantiques
». Le principe d’exclusion interdit à toute particule élémentaire
appartenant à un système de fermions d’avoir exactement les mêmes
nombres quantiques qu’un autre fermion du système.



Pour Aden Cabello,
de l’université de Seville, ce résultet est très important. Il
montre comment la Nature opère spontanément.







Unexpected consequences of
postquantum theories in the graph-theoretical approach to
correlations

José
Nogueira
1,*,
Carlos
Vieira
2, and
Marcelo
Terra Cunha
2



PDFShare


Phys. Rev. A 111,
052418 –
Published 9 May, 2025DOI: https://doi.org/10.1103/PhysRevA.111.052418




Abstract

This work explores the
implications of the exclusivity principle (EP) in the context of
quantum and postquantum correlations. We first establish a key
technical result demonstrating that given the set of correlations for
a complementary experiment, the EP restricts the maximum set of
correlations for the original experiment to the antiblocking set.
Based on it, we can prove our central result: if all quantum
behaviors are accessible in Nature, the EP guarantees that no
postquantum behaviors can be realized. This can be seen as a
generalization of the result of B. Amaral et
al.
[Phys.
Rev. A
89,
030101(R) (2014)
], to
a wider range of scenarios. It also provides novel insights into the
structure of quantum correlations and their limitations.


Pour Aden Cabello, de l’université de Seville, ce résultet est très important. Il montre comment la Nature opère spontanément.



30/05/2025 La cryptographie post-quantique

Dans cet article simplifié par nous, le cryptologue Benjamin Wesolowski nous explique comment renforcer les méthodes cryptographiques afin de les rendre résistantes face à l’avènement éventuel de l’ordinateur quantique.

Comment renforcer les méthodes cryptographiques afin de les rendre résistantes face à l’arrivée des calculateurs quantiques.
La cryptographie a connu une avancée majeure dans les années 1970, lorsque les cryptographes ont commencé à puiser dans des théories mathématiques jusqu’alors inexploitées, comme la théorie des nombres. Cette avancée majeure, c’est la cryptographie à clé publique. La discipline est aujourd’hui confrontée à de nouveaux défis, posés notamment par les ordinateurs quantiques. Les problèmes deviennent de plus en plus complexes, et l’exploration mathématique joue un rôle de plus en plus important.

Quelle est la différence entre cryptographie à clé publique et cryptographie à clé secrète ?
La cryptographie à clé secrète est la méthode la plus ancienne. L’idée est simple : deux interlocuteurs veulent communiquer en secret sur un canal non sécurisé, où tous leurs messages peuvent être interceptés. Ils se mettent d’accord sur un procédé de chiffrement, permettant de transformer un message en un texte inintelligible, envoyé sur le canal, puis déchiffré par le destinataire.

Pour que seul le destinataire puisse déchiffrer le message, les interlocuteurs se sont au préalable mis d’accord sur une méthode secrété permettant le chiffrement et le déchiffrement : la clé secrète. Un espion, sans la clé secrète, ne peut pas lire le texte intercepté.

Mais comment les interlocuteurs peuvent-ils choisir une telle clé secrète, sans avoir, ce qui est le plus souvent le cas, à se rencontrer physiquement ? Toutes leurs communications peuvent être interceptées et ils n’ont pas encore choisi de clé secrète commune, donc comment pourraient-ils se mettre d’accord sur une clef secrète . C’est un problème que l’on a longtemps pensé insoluble, jusqu’à l’invention de la cryptographie à clé publique.

Celle-ci repose sur le protocole de Diffie-Hellman. Ce protocole, qui a été le premier en la matière et qui est encore très utilisé de nos jours, a un fonctionnement assez simple. Les interlocuteurs commencent par se mettre d’accord sur un « nombre » n, qui n’est pas secret. Le premier choisit en secret un nombre entier x, et envoie nx. Le second choisit également en secret un nombre entier y, et envoie ny. Chacun des interlocuteurs est en mesure de calculer nxy. En effet, le premier connait x (son secret) et ny (qui lui a été envoyé) et peut donc calculer (ny)x. De manière similaire, le second peut calculer (nx)y. Un espion aura pu intercepter n, nx et ny, mais le « nombre » nxy n’a jamais transité sur le canal non sécurisé : c’est un secret partagé par les interlocuteurs, qui peut désormais leur servir de clé secrète.

En réalité, voyant nx, un espion pourrait tenter de retrouver x : c’est ce qu’on appelle un logarithme. S’il y parvient, il pourra calculer (ny)x, et tout s’écroule. Calculer des logarithmes pour des nombres usuels est facile. En revanche, n peut être choisi parmi d’autres types de « nombres » où ce problème est bien plus dur. C’est ce qu’on appelle le problème du logarithme discret.

Plusieurs méthodes ont toutefois été mises au point pour le résoudre, de manière plus efficace que la simple recherche exhaustive. Cependant, elles nécessitent tout de même une énorme puissance de calcul lorsque les nombres impliqués sont très élevés. Cela signifie qu’avec des paramètres suffisamment grands, faire tourner tous les ordinateurs du monde, pendant plusieurs milliards d’années, ne suffirait pas pour résoudre le problème.

C’est pourquoi on considère le problème du logarithme discret comme difficile et le protocole de Diffie-Hellman comme le plus sûr à ce jour pour protéger nos communications.

Cependant en supposant qu’un individu ait accès à un ordinateur quantique suffisamment puissant et stable, il pourrait alors résoudre le problème du logarithme discret de façon efficace.

On peut imaginer que des agences de renseignement prennent soin d’enregistrer les échanges chiffrés actuels. Elles sont peut-être incapables de les lire aujourd’hui, mais cela leur deviendra possible le jour où ils auront accès à un ordinateur quantique. Elles pourront donc casser de nombreux protocoles de cryptographie.

Un ordinateur quantique n’est pas un super ordinateur classique. Il est beaucoup plus puissant. Il fonctionne différemment : à la place des bits classiques, il s’appuie sur des bits quantiques, qui permettent d’encoder en superposition quantique de nombreux états différents.

Une superposition quantique repose sur la constatation qu’un système quantique (comme un atome, un électron ou un photon) peut exister dans plusieurs états en même temps, tant qu’on ne l’observe pas. L’exemple le plus souvent utilisé pour expliquer ce concept est celui du chat de Schrödinger.:

Cette propriété offre un avantage aux ordinateurs quantiques pour résoudre certains problèmes – un avantage parfois considérable, mais encore une fois, seulement pour certains problèmes. Et le problème du logarithme discret figure justement parmi ceux pour lesquels l’ordinateur quantique serait bien plus efficace !

Faut-il s’inquiéter pour la sécurité de nos communications ?
S’inquiéter aujourd’hui, non. L’ordinateur quantique relève pour l’heure de la théorie. Les prototypes existants ne sont pas capables de casser les méthodes actuelles de cryptographie.

Mais qu’arrivera-t-il si on parvient à créer un ordinateur quantique suffisamment puissant et stable ?
Il vaudrait mieux ne pas attendre que la menace apparaisse pour se poser la question ! En effet, s’il faut changer tous nos standards de communication, cela prendra plusieurs années. De plus, on peut aisément imaginer que des individus ou agences de renseignement prennent soin d’enregistrer les échanges chiffrés actuels. Ils sont peut-être incapables de les lire aujourd’hui, mais cela deviendra une mine d’informations le jour où ils auront accès à un ordinateur quantique. C’est une méthode dite « récolte maintenant, déchiffre plus tard ». 

Cela a déjà eu lieu par le passé. Dans le cadre du projet Venona, les services de renseignement américains avaient intercepté des communications soviétiques chiffrées émises pendant la Seconde Guerre mondiale. Le code ayant été décryptés par eux en 1946, ils sont ensuite parvenus à déchiffrer progressivement les messages. Ils ont découvert notamment l’étendue de l’espionnage atomiquet de l’URSS durant le projet Manhattan.

Alors comment faire pour rendre la cryptographie résistante aux ordinateurs quantiques ?
En remplaçant les problèmes vulnérables, tels que le problème du logarithme discret, par des problèmes plus difficiles, résistants aux algorithmes quantiques. Pour cela, il faut identifier des problèmes candidats et tester leur difficulté.

C’est là que la cryptologie algorithmique joue un rôle fondamental : il s’agit de mettre au point les meilleurs algorithmes permettant de résoudre ces problèmes pour tester leurs limites. Et en étudiant ces techniques, nous pouvons adapter les méthodes de cryptographie, afin de les rendre plus résistantes aux potentielles attaques. Cette approche algorithmique s’applique de manière générale, pas seulement dans une perspective post-quantique.

Durant des décennies, la cryptologie algorithmique a compliqué les problèmes classiques comme le logarithme discret. Aujourd’hui, l’investissement collectif est largement redirigé vers les problèmes post-quantiques.

Il y a plusieurs candidats, en ce sens, dont certains autour des réseaux euclidiens. Un réseau euclidien est un arrangement régulier de points dans l’espace, comme les points d’intersection d’une grille. Un des problèmes étudiés est le suivant : dans un maillage donné, quels sont les deux points les plus proches possibles ? Pour une grille carrée, en 2D, la réponse est facile à trouver. Mais si la grille n’est pas si simple, et dans une dimension 100, 200 ou 500, alors la tâche est beaucoup plus difficile, même pour un ordinateur quantique.

Un autre candidat repose sur les courbes elliptiques et les isogénies. Il s’agit de concepts mathématiques assez abstraits, donc plus difficiles à expliquer en quelques mots. Pour faire simple, dans certains cas, deux courbes elliptiques peuvent être reliées par une « isogénie » – une formule permettant de passer de l’une à l’autre. Le problème, que l’on suppose difficile, est alors le suivant : pour deux courbes données, peut-on trouver l’isogénie qui les relie ?





28/05/2025 La désintégration du faux vide

Le concept d’état de vide est fondamental en physique. Il ne s’agit pas d’un vide absolu, mais d’un état dans lequel les champs fondamentaux de l’Univers (comme le champ électromagnétique ou le champ de Higgs) ont atteint leur niveau d’énergie le plus bas.

Mais qu’en serait-il si certains de ces champs n’étaient pas dans leur état d’énergie véritablement minimal ?

Parmi tous les champs quantiques, le champ de Higgs joue un rôle crucial : il est responsable de la masse des particules. Or, certaines analyses suggèrent que le champ de Higgs pourrait ne pas être dans son « véritable » vide, mais dans un faux vide — une sorte de plateau temporaire, moins stable qu’il n’y paraît.

Si cela devait arriver, la structure même de la matière changerait. Les électrons et les quarks deviendraient des milliards de fois plus massifs, les atomes complexes cesseraient d’exister, les étoiles s’éteindraient, et la chimie qui rend la vie possible disparaîtrait.

La transition d’un faux vide vers un vrai vide ne se ferait pas de manière progressive. Elle se produirait par un phénomène connu sous le nom de tunnel quantique .

Une bulle du « vrai vide » apparaîtrait soudainement quelque part dans l’Univers. Cette bulle s’étendrait à la vitesse de la lumière, engloutissant tout sur son passage. À l’intérieur de cette bulle, les lois de la physique seraient radicalement différentes. Il ne serait pas possible d’échapper à ce raz-de-marée cosmique : il se déplacerait plus vite que n’importe quel message d’alerte possible.

Cependant les calculs rassurent. Selon David Tong, physicien théoricien à l’Université de Cambridge, le temps estimé avant une désintégration du faux vide est astronomiquement long — environ un milliard de milliards de milliards de milliards de milliards d’années. À titre de comparaison, l’Univers actuel n’aurait que 13,8 milliards d’années.

https://www.popularmechanics.com/space/a64459547/universe-collapse/

David Tong https://www.damtp.cam.ac.uk/user/tong/teaching.html

29/05/2025 Homo sapiens a survécu à la dernière ère glaciaire sans fuir vers le sud

Des chercheurs ont démontré que certains de nos ancêtres avaient survécu à la dernière grande période de glaciation sans avoir à migrer vers le sud de l’Europe.

Une nouvelle étude, dont on trouvera ci-dessus les références et l’abstract, suggère que les humains (Homo sapiens) n’auraient pas eu besoin de migrer comme la plupart des autres espèces durant la dernière période glaciaire. Cette hypothèse remet en question de nombreuses hypothèdes sur le mode de vie de nos ancêtres durant cette période, révèle Phys.org dans un article publié le 14 octobre 2024.

En utilisant des données génétiques, des scientifiques ont démontré que certains humains étaient restés en Europe centrale durant la dernière grande période de glaciation. Jusqu’ici, une grande majorité de la communauté archéologique considérait que l’homme moderne s’était retiré dans le sud de l’Europe.

L’équipe d’Oxala García-Rodríguez, de l’université de Bournemouth (Royaume-Uni), a examiné l’histoire génétique de vingt-trois mammifères communs en Europe, dont l’Homo sapiens. L’étude montre que les hommes, au même titre que les ours bruns et les loups « étaient déjà largement répartis à travers l’Europe au plus fort de la dernière glaciation, soit sans refuge discernable, soit avec des refuges au nord et au sud », détaillent John Stewart et Jeremy Searle, tous deux membres de l’équipe.

Fait surprenant, étant donné que nos ancêtres étaient originaires d’Afrique et qu’ils étaient très certainement peu enclins à résister au froid du nord de l’Europe.

On ne sait pas si ces humains ont dû s’adapter à l’environnement, par exemple parce qu’ils étaient omnivores et pouvaient manger de nombreuses choses différentes, ou s’ils ont survécu grâce à la technologie, notamment celle de l’arc et des flèches.

À une période où le dérèglement climatique n’est plus à prouver, de telles observations sur les comportements humains et animaux lors des basculements météorologiques passés constituent un espoir certain. Mais cette fois-ci, c’est le réchauffement qui sera en cause mais pas le refroidissement

Référence

Quaternary Environments and Humans

2025, 100067 Volume 3, Issue 2

The great divide? Differences in environmental and hunter-gatherer responses to the 8.2 ka BP event between northwestern and northeastern Eurasia

Pavel E. Tarasov , Andrzej W. Weber, others

https://doi.org/10.1016/j.qeh.2025.100067

Abstract

In this contribution we provide an overview of the potential impacts of the 8.2 ka BP cooling event on hunter-gatherer societies in northwestern Europe and northern/eastern Eurasia. There seems to be a division between the two parts of the continent, with Atlantic Europe generally seeing a stronger climatic and environmental impact compared to continental Eurasia. This plausibly relates to the greater effects on oceanic weather patterns, particularly those of the North Atlantic. The palaeoenvironmental record is more limited for the Pacific coast of northeast Asia, but the evidence to date does not suggest as strong an impact there. We then focus on a case study of the hunter-gatherers of Cis-Baikal in southern Siberia. While the archaeological record for the period pre-8200 cal BP is patchy, we find no clear evidence for any impact on the region’s hunter-gatherer communities. Major visible changes occur only with the appearance of the Kitoi culture from ca. 7600 cal BP, which sees the introduction of pottery, the bow and arrow, and large cemeteries. This appears to be an internal sociotechnological development unrelated to any abrupt changes in the regional climate and environment at this time.

29/05/2025 Des extraterrestres ont-ils utilisé des sphères de Dyson pour s’installer discrètement sur la Terre ?

Une sphère de Dyson est une mégastructure hypothétique décrite en 1960 par le physicien et mathématicien américano-britannique Freeman Dyson, dans un court article publié dans la revue Science et intitulé Search for Artificial Stellar Sources of Infrared Radiation (« Recherche de sources stellaires artificielles de rayonnements infrarouges ») Cette structure d’astro-ingénierie consiste en une sphère de matière, artificielle et creuse, située autour d’une étoile et conçue pour en capturer presque toute l’énergie émise pour une utilisation industrielle. Dyson nomme également cette structure « biosphère artificielle ».

Bien que Dyson ait été le premier à formaliser et populariser ce concept, auquel son nom reste attaché , l’idée lui en est venue en 1945 après la lecture du roman Star Maker d’Olaf Stapledon paru huit ans plus tôt. Dyson a également été influencé par la sphere imaginée par le Britannique John Desmond Bernal en 1929.

Dans son article, Dyson explique qu’une telle sphère est un moyen idéal pour une civilisation très avancée de faire face à un accroissement démographique exponentiel. Il la décrit comme une coquille enserrant son étoile parente, captant la quasi-intégralité de sa radiation stellaire. Dyson explique que de telles sphères pourraient aussi abriter des structures d’habitations. Enfin, il recommande d’observer la Galaxie dans l’infrarouge afin de détecter de possibles sphères dans notre galaxie.

Dyson, mais aussi d’autres auteurs après lui, ont décrit les propriétés de cette sphère, aussi bien concernant sa composition, sa température, sa localisation au sein de son système solaire, que sa capacité de déplacement. L’idée qu’une civilisation extraterrestre avancée puisse pallier ses problèmes énergétiques au moyen d’une biosphère artificielle est une solution possible au paradoxe de Fermi, problème auquel Dyson a tenté de répondre en précisant les conditions d’observation. Plusieurs variétés de sphères de Dyson sont conceptualisées : en coquille, essaim ou encore bulle. Le modèle élaboré par Dyson a influencé nombre de mégastructures hypothétiques.

Plusieurs programmes de recherche de possibles sphères de Dyson ont été menés depuis 1985. Si des étoiles ont pu afficher des caractéristiques proches de celles attendues concernant ces mégastructures spatiales, aucune conclusion n’a pu être tirée concernant l’existence probante de tels objets artificiels. En revanche, la science-fiction a beaucoup utilisé l’idée de Dyson, que ce soit en littérature, au cinéma, dans les jeux vidéo, ainsi qu’à la télévision.

Wikipedia https://fr.wikipedia.org/wiki/Sph%C3%A8re_de_Dyson

Stapledon et Kardachev

Freeman J. Dyson a eu l’idée des « biosphères artificielles » en lisant le roman de science-fiction Star Maker (Créateur d’étoiles, 1937) d’Olaf Stapledon, qui décrit des « pièges à lumière » (light traps) : des mégastructures produites par une civilisation très avancée technologiquement. Dans Créateur d’étoiles, des centaines de milliers de mondes ont construit des structures habitables concentriques enserrant leurs étoiles, captant ainsi la majeure partie de leurs radiations solaires, pour leurs besoins énergétiques.

Les anneaux extérieurs, plus éloignés du soleil, se composent quant à eux de globes abritant la vie John Desmond Bernal a cependant été le premier, dès 1929, dans son ouvrage The World, the Flesh, and the Devil, à penser un habitat spatial consistant en une coquille abritant I000 personnes et remplie d’air. Les autres modèles qui ont suivi (le Sunflower, le tore de Stanford et le cylindre O’Neill) ont, à l’image de l’idée initiale de Bernal, imaginé une mégastructure produisant elle-même son énergie solaire. L’écrivain de science-fiction Raymond Z. Gallun imagine quant à lui, dans Iszt–Earthman (1938) puis dans The Raiders of Saturn’s Ring (1941), comment l’humanité pourrait démanteler des planètes entières pour fabriquer des anneaux dans lesquels les terriens vivraient, en orbite autour du Soleil. Revenant sur ces écrits, Gallun se considère comme l’un des précurseurs de la théorie de Dyson.

Dyson a également eu connaissance des travaux de l’asttronome russe Nikolaï Kardachev, qui a établi une classification des civilisations extraterrestres, selon l’usage qu’elles font de l’énergie disponible dans leurs environnements. Une civilisation de type I est capable d’utiliser toute l’énergie disponible sur sa planète d’origine (approximativement une puissance de 1,74 × 1017 watts, soit l’équivalent de cent millions de réacteurs nucléaires comme l’EPR). Une civilisation de type II doit être capable de collecter toute l’énergie de son étoile centrale, soit une puissance valant à peu près 1026 W. Une sphère de Dyson appartient donc au type II. Enfin, une civilisation de type III a à sa disposition toute l’énergie émise par la galaxie dans laquelle elle est située, soit près de 1036 W.

S’appuyant sur cette échelle, Dyson a calculé qu’une société avec 1 % de croissance économique annuelle peut atteindre le type II en 2 500 ans, c’est-à-dire qu’elle est susceptible de puiser directement, et intégralement, son énergie de son étoile.

Freeman Dyson, mathématicien et physicien travaillant à l’Institute for Advanced Study de Princeton, avait proposé l’hypothèse des mégastructures sphériques dans un court article, publié dans Science, et intitulé Search for Artificial Stellar Sources of Infrared Radiation (« Recherche de sources stellaires artificielles de rayonnements infrarouges »), le 3 juin 1960.

Autodestruction des sphères.

Aujourd’hui, Brian Lacky, astrophysicien à Oxford, a calculé que si les Sphères de Dyson avaient existé, chacune d’entre elles se serait emplie de satellites cherchant à y puiser l’énergie nécessaire à leur civilisation d’origine. Elles se seraient détruites en quelques millions d’années du fait des collisions en chaîne s’en étant suivies, impossibles à éviter.

28/053025. Amniotes en Australie

Des empreintes de griffes fossilisées trouvées en Australie suggèrent que des amniotes – les ancêtres des reptiles, des oiseaux et des mammifères, y vivaient. Ces empreintes sont âgées de 354 à 358 millions d’années, soit 40 millions d’années plus tôt que précédemment estimés.

Les traces d’amniotes montrent que ces espèces étaient apparues dans l’ancien continent du Gondwana, soit quelques dizaines de millions d’années avant celles découvertes dans l’hémisphère nord en Europe et en Amérique.

Pour le Pr John Long principal auteur de l’article publié dans Nature .“Ces fossiles permettent de redécouvrir l’histoire des amniotes, apparues beaucoup plus tôt que l’on croyait.”

Les experts des premiers tétrapodes enseignant à Uppsala University en Suède, ont confirmé l’importance de la découverte. Celle-ci a fait remonter l’apparition des amniotes au début du carbonifère. Une période ainsi nommée parce que s’y formèrent les riches gisements de charbon qui ont fait la richesse de l’hémisphère nord au 19e siècle.

Cette période fut un point pivot dans l’histoire de la Terre. Les niveaux d’oxygène y étaient élevés et de grandes forêts recouvraient les terre émergés Les marécages étaient pleins d’amphibiens, certains longs de plus de 5 mètres. et de grands requins avaient envahi les rivières. Une grande diversité d’animaux et de plantes commençait à apparaître, notamment des poissons à arrête et des arbres se reproduisant par semence

23/05/2025 Cancer, le double jeu du fer

Auteur
Mehdi Harmi

https://lejournal.cnrs.fr/articles/cancer-le-double-jeu-du-fer?utm_source=firefox-newtab-fr-fr

Les approches telles que la chimiothérapie ont tendance à n’être efficaces que contre les cellules cancéreuses qui prolifèrent le plus. À l’Institut Curie, Raphaël Rodriguez et son équipe ont opté pour une démarche unique. Ils ciblent les cellules à fort potentiel métastatique grâce à une molécule capable d’induire une mort cellulaire particulière, médiée par le fer : la ferroptose.

Le cancer, le mal du siècle, continue de résister à l’arsenal thérapeutique développé au fil des ans par les scientifiques du monde entier. Le fait est que le cancer est retors. Aujourd’hui, la plupart des thérapies ciblent préférentiellement les cellules cancéreuses en prolifération. Ces divisions rapides, en plus de permettre à la tumeur de croître, induisent une pression de sélection sur leur propre communauté. Ainsi, au sein de la tumeur, certaines cellules s’adaptent et arrêtent de se diviser pour entrer dans une sorte de dormance leur permettant d’échapper aux traitements.

Plus encore, cet état non prolifératif est associé dans certains cas à d’autres propriétés, à savoir la capacité à migrer, à envahir d’autres tissus – bref, à métastaser. Ces cellules métastatiques ont, de surcroît, une plus forte résistance aux chimiothérapies actuelles et un fort potentiel de colonisation. Elles sont l’objet des travaux de scientifiques du CNRS, de l’Institut Curie et de l’Inserm dirigés par le chimiste Raphaël Rodriguez. « La thématique majeure de mon laboratoire est de comprendre qu’elle est la nature de cette adaptation et quelles en sont les bases chimiques et moléculaires sous-jacentes, précise le chercheur. Sachant que si on comprend comment ces cellules s’adaptent, on peut identifier de nouvelles cibles et, par conséquent, inventer de nouveaux médicaments qui cibleront et entraveront ces adaptations. »

Pour la suite, lire

Référence
nature
Published: 07 May 2025

Activation of lysosomal iron triggers ferroptosis in cancer

Nature (2025

Abstract

Iron catalyses the oxidation of lipids in biological membranes and promotes a form of cell death called ferroptosis1. Defining where this chemistry occurs in the cell can inform the design of drugs capable of inducing or inhibiting ferroptosis in various disease-relevant settings. Genetic approaches have revealed suppressors of ferroptosis2,3,4; by contrast, small molecules can provide spatiotemporal control of the chemistry at work5. Here we show that the ferroptosis inhibitor liproxstatin-1 exerts cytoprotective effects by inactivating iron in lysosomes. We also show that the ferroptosis inducer RSL3 initiates membrane lipid oxidation in lysosomes. We designed a small-molecule activator of lysosomal iron—fentomycin-1—to induce the oxidative degradation of phospholipids and ultimately ferroptosis. Fentomycin-1 is able to kill iron-rich CD44high primary sarcoma and pancreatic ductal adenocarcinoma cells, which can promote metastasis and fuel drug tolerance. In such cells, iron regulates cell adaptation6,7 while conferring vulnerability to ferroptosis8,9. Sarcoma cells exposed to sublethal doses of fentomycin-1 acquire a ferroptosis-resistant cell state characterized by the downregulation of mesenchymal markers and the activation of a membrane-damage response. This phospholipid degrader can eradicate drug-tolerant persister cancer cells in vitro and reduces intranodal tumour growth in a mouse model of breast cancer metastasis. Together, these results show that control of iron reactivity confers therapeutic benefits, establish lysosomal iron as a druggable target and highlight the value of targeting cell states10.