19/06/2024 Fiche de lecture Antimatière et gravité. Vers un nouveau modèle cosmologique

par Gabriel Chardin( CNRS Editions)

Présentation par l’éditeur:

Et si l’antimatière renversait le modèle standard de l’Univers?

Depuis plus de vingt ans, le cosmologiste français Gabriel Chardin, médaille d’argent du Centre national de la recherche scientifique (CNRS), poursuit une idée renversante, celle d’un modèle alternatif basé sur l’antimatière pour expliquer notre Univers. Il dresse la liste des arguments scientifiques pour le défendre dans son dernier ouvrage paru en avril 2024.

Gabriel Chardin propose une alternative au modèle standard jugé insatisfaisant. Dans son univers, sans matière ni énergie noires, l’antimatière, de masse négative, est aux commandes. Des expériences en cours au CERN pourraient valider (ou non) cette hypothèse iconoclaste.

La cosmologie est l’étude de l’Univers dans son ensemble, sa structure, ses propriétés, son origine et son évolution. Elle s’intéresse à ses composants les plus infimes comme à ses plus colossales structures, de sa naissance, il y a environ 14 milliards d’années, à son futur le plus lointain.

Pour parvenir à penser un objet aussi considérable, le physicien construit des modèles. Or, le modèle standard actuel est en crise : il ne rend compte du mouvement des galaxies ou de la vitesse d’expansion de l’Univers qu’en supposant l’existence d’une matière noire et d’une énergie noire mystérieuses, toujours non identifiées.

Et si aux premiers instants du Big Bang, l’univers contenait nécessairement autant de matière que d’antimatière, on ignore où est passée cette dernière, que l’on n’observe aujourd’hui que très brièvement et en minuscules quantités dans le rayonnement cosmique ou nos accélérateurs de particules.

Grâce à une seule hypothèse aussi simple qu’iconoclaste, Gabriel Chardin propose un nouveau modèle, l’univers de Dirac-Milne : et si l’antimatière avait une masse négative, et repoussait tout, matière comme antimatière ? Cette hypothèse posée, il n’est plus besoin d’imaginer l’existence de matière ou d’énergie noires et l’antimatière n’aurait pas disparu mais se trouverait, extrêmement diluée, sous la forme de grands nuages entourant les galaxies. Ce modèle est actuellement testé au Cern (organisation européenne pour la recherche nucléaire) dans plusieurs expériences, où l’on tente de « peser » des atomes d’antihydrogène.

Un voyage dans la fabrique d’une théorie en gestation.

Pour en savoir plus sur le modèle de Dirac Milne
https://theses.hal.science/tel-00442948

Étude de la concordance d’un univers de Dirac-Milne symétrique matière-antimatière
Aurélien Benoit-Lévy 
2009

Cette thèse s’intéresse à divers aspects de l’univers de Dirac-Milne, un modèle cosmologique dans lequel matière et antimatière sont présentes en quantités égales et où l’on suppose, comme pourrait le suggérer la relativité générale à travers les propriétés des solutions de Kerr-Newman, que l’antimatière possède une masse gravitationnelle active négative.

Ces hypothèses permettent de s’affranchir de la nécessité d’introduire Inflation, Énergie Noire et Matière Noire, dont les mises en évidences expérimentales et les motivations théoriques font parfois défaut. La présence en quantités égales de matière de masse positive et d’antimatière de masse négative impose une évolution du facteur d’expansion linéaire par rapport au temps.

Après avoir rappelé les concepts basiques de la cosmologie, certaines implications de cette évolution linéaire sont étudiées. L’étude complète de la nucléosynthèse primordiale dans le cadre de ce modèle alternatif permet de montrer qu’une production primordiale de deutérium est rendue possible par la présence d’annihilations résiduelles entre matière et antimatière à des époques précédant la recombinaison. Toutefois, ce mécanisme de production secondaire conduit à une surproduction d’hélium-3, potentiellement incompatible avec les observations.

Bien que l’univers de Dirac-Milne ne présente pas d’accélération de l’expansion aux époques récentes, il est montré que ce modèle satisfait raisonnablement bien au test cosmologique des supernovae de type Ia. De même, l’échelle angulaire du premier pic acoustique des fluctuations de température du fond diffus cosmologique apparaît naturellement à l’échelle du degré. Même si l’étude complète du spectre de ces fluctuations et de la cohérence de la notion de masse négative reste encore à approfondir, ce travail pose les bases d’un modèle cosmologique original et potentiellement capable de donner une autre description de notre Univers.

Le modèle cosmologique ΛCDM a toujours de la concurrence, et heureusement… Les plus fidèles d’entre vous se souviendront peut-être d’un billet que je vous avais proposé en février 2012 et que j’avais intitulé : « Symétrie Matière/Anti-Matière et masse négative, une clé pour l’élégance ? » : il s’agissait d’un article des physiciens français Aurélien Benoit-Lévy et Gabriel Chardin qui présentait un nouveau modèle d’Univers hyper élégant, où coexistent matière et antimatière à quantité égale et dans lequel les particules d’antimatière antigravitent et se repoussent également entre elles, créant des effets étonnants à même d’expliquer des choses incomprises comme l’énergie noire (entre autre). Ce modèle dit de Dirac-Milne a continué à être développé par Chardin et d’autres collaborateurs avec plusieurs articles parus en 2018 et 2020, et cet été, ils ont publié dans Astronomy&Astrophysics une nouvelle étude assez bluffante, dans laquelle Chardin et ses collaborateurs démontrent que leur modèle d’Univers produit naturellement des courbes de rotation galactiques plates, ce qui avait mené initialement au concept de matière noire… Et ils retrouvent un comportement de type MOND dans les galaxies.

Le modèle cosmologique de Dirac-Milne repose seulement sur deux hypothèses qui peuvent paraitre à la fois très simples et très élégantes : 

1) matière et antimatière sont symétriques : il en existe autant l’une que l’autre dans l’Univers,

2) l’antimatière possède une masse gravitationnelle active négative : il y a répulsion entre matière et antimatière et aussi entre antimatière et antimatière, comme il y a attraction gravitationnelle entre matière et matière.

La deuxième hypothèse viole complètement le principe d’équivalence faible qui fonde la Relativité Générale, mais il faut bien un peu d’audace parfois.

Le modèle porte le nom d’Edward Milne, car c’est ce cosmologiste britannique qui avait introduit l’idée d’un univers vide de masse en 1933 comme une alternative à la vision de la Relativité Générale einsteinienne (l’Univers d’Einstein-de Sitter). Mettre autant de masse positive que de masse négative revient en effet à grande échelle à avoir un univers vide. Mais cet univers de Dirac-Milne reste régit par une métrique de type Friedman-Lemaître-Robertson-Walker comme le modèle standard actuel, mais avec des paramètres différents. Le fait important de cette cosmologie est que le facteur d’échelle (que l’on note a(t)) est linéaire et cette linéarité reste identique tout au long de l’évolution de l’expansion,  mais cette expansion est du coup constante : elle n’est ni accélérée, ni ralentie.

Dans leur article de 2012, les chercheurs montraient que leur modèle était compatible avec les observations de luminosité des supernovas Ia de 1998 qui avaient conduit au concept d’expansion accélérée, et donc d’énergie noire. L’Univers de Dirac-Milne n’a pas besoin d’énergie noire.

Une autre implication très importante de ce facteur d’échelle linéaire a(t) ~t apparaissant dans l’univers de Dirac-Milne est qu’il n’y a plus de problème d’horizon : chaque point de l’espace a pu être en relation causale avec un autre point de l’espace dans les temps anciens, il n’y a donc plus aucun besoin de recourir à l’Inflation!. L’inflation, introduite au début des années 1980 permettait de résoudre de manière ad hoc l’apparente impossibilité que des directions opposées de l’espace aient pu être en contact causal dans le passé, ce qui est observé.

Outre le fait d’évacuer le problème de l’énergie noire et de l’inflation, l’élégance du modèle de Dirac-Milne vient surtout du fait qu’il est fondé sur une totale symétrie entre matière et antimatière, et il faut rappeler qu’actuellement, on cherche toujours des pistes dans tous les sens pour expliquer pourquoi l’Univers (dans la vision du modèle standard), ne contient que de la matière alors que l’on sait que le Big Bang a dû produire quasi autant d’antimatière…  

On doit alors se demander où se trouve cette antimatière dans un Univers de Dirac-Milne ? Et la réponse est directement liée aux propriétés de l’antimatière qui fondent le modèle. On l’a dit, les particules d’antimatière ayant une masse gravitationnelle active négative pour Chardin et ses collaborateurs, les particules de matière et d’antimatière se repoussent. Mais à l’opposé des particules de matière qui s’attirent entre elles, les particules d’antimatière se repoussent également entre elles. Un antiproton et un antiélectron se repousseront par la gravitation mais s’attireront par la force électromagnétique. La force électromagnétique étant énormément plus intense que la gravitation, des anti-atomes vont pouvoir se former, typiquement de l’antihydrogène et de l’antihélium. Mais ces anti-atomes électriquement neutres seront donc repoussés par les atomes de matière et par les autres anti-atomes.

Les physiciens ont montré ce qui se passe lors de la formation des structures dans l’Univers primordial, dont la chronologie se retrouve modifiée dans le modèle de D-M par rapport à ΛCDM. La transition du plasma quarks-gluons dure 1 jour dans D-M contre 10 µs dans le modèle standard, la nucléosynthèse primordiale dure 35 ans au lieu des 3 minutes de ΛCDM, et la recombinaison entre rayonnement et matière (l’émission du fond diffus cosmologique) a lieu au bout de 14 millions d’années, contre 380 000 ans pour le modèle standard. Mais il faut noter que l’âge de l’Univers de Dirac-Milne reste heureusement très proche de celui déduit de ΛCDM : à peine 100 millions d’années de plus, à 13,9 milliards d’années avec une constante de Hubble-Lemaître valant 70 km/s/Mpc, une paille. 

Mais revenons aux effets des caractéristiques de l’antimatière sur la formation des structures galactiques, car c’est là l’origine de ce que révèle la nouvelle étude de cet été sur la rotation des galaxies. Comme les atomes d’antihydrogène sont repoussés par les atomes d’hydrogène, mais aussi par les autres atomes d’antihydrogène, non seulement ils ne se retrouvent jamais en contact avec la matière, mais de plus, contrairement à la matière « ordinaire » qui s’agglomère et se condense sous l’effet de la gravitation pour former des nuages puis des étoiles puis des galaxies et des amas de galaxies, l’antihydrogène et l’antihélium, eux, ne se condensent jamais en nuages denses et ces atomes sont en perpétuel mouvement, comme un fluide qui circule autour des régions de matière.

Un effet très important qu’ont montré Chardin et ses collaborateurs grâce à des calculs et des simulations, c’est que les régions où se trouverait de l’antimatière et les galaxies faites de matière ne peuvent jamais entrer en contact. Et heureusement. La raison à ça est qu’il se formerait naturellement, depuis très tôt dans l’histoire cosmique, des zones de déplétion autour des galaxies et des amas de galaxies : des no man’s land où il n’y a ni matière ni antimatière, qui apparaissent du fait de la répulsion engendrée entre ces deux composantes de l’Univers de Dirac-Milne. Et ces zones de déplétion sont très grandes ! Puisque matière et antimatière dans ce modèle sont en quantité égale, mais que l’antimatière ne peut pas se concentrer comme le fait la matière dans les galaxies, l’antimatière occupe en moyenne la moitié du volume de l’Univers, mais la matière, elle, est très concentrée dans les galaxies, elle occupe donc un volume beaucoup plus petit. La différence entre les deux correspond à ces zones de déplétion où il n’y aurait que du rayonnement en transit.

L’article qui est paru le 17 août dernier développe les effets dynamiques qui sont induits par la présence autour d’une galaxie de cette grande zone de déplétion qui est elle-même entourée d’une présence diffuse d’antimatière répulsive, dont la masse totale est égale et opposée à celle de la galaxie en rotation. Grâce à un logiciel de simulation, Chardin et ses collaborateurs regardent à quelle vitesse tourne la galaxie en fonction de la distance du centre de la galaxie. Ils simulent pour cela des cubes d’Univers comportant en leur centre une galaxie, entourée d’une zone de déplétion sphérique entourée par l’antimatière diffuse. 

Le résultat est surprenant. Au delà de 0,5 fois le rayon de la zone de déplétion, la courbe s’aplatit, la dérivée de la courbe s’annule exactement à r= 0,79 fois le rayon de la zone de déplétion, ce qui correspond à 2,6 fois le rayon du viriel de la galaxie, la vitesse de rotation reste donc constante au-delà. Exactement ce qui est observé dans les galaxies réelles, cette fameuse anomalie détectée au milieu des années 60 par Vera Rubin puis d’autres et qui a affermi l’idée d’une matière invisible en forme de halo dans les galaxies. (Précision : ce qu’on appelle le « rayon du viriel » d’une galaxie, c’est le rayon maximum d’équilibre dynamique, issu du théorème du viriel).

Chardin et ses collaborateurs montrent ainsi que la masse dérivée des courbes de rotation, si on suppose une gravité strictement newtonienne sans antimatière ni déplétion, est systématiquement surestimée par rapport à la masse réellement présente, comme si il y avait un gros halo de matière noire… Le modèle D-M présente aussi un comportement similaire au modèle phénoménologique MOND (MOdified Newtonia Dynamics), caractérisé par une apparente gravité de surface qui s’ajouterait par rapport au cas newtonien classique, mais qui serait ici dûe à la présence des nuages d’antimatière répulsive, faisant apparaître une polarisation gravitationnelle. En comparaison, MOND reste une approche phénoménologique plus qu’un modèle physique car elle ne donne pas d’explication physique à l’ajout d’un terme dans la formule.

Chardin et ses collègues n’en restent pas là : il font bien sûr le calcul de la valeur de cette accélération additionnelle telle qu’elle apparait : ils trouvent une valeur comprise entre 4 10-11 m.s-2 et 2 10-10 m.s-2 en considérant l’incertitude sur la taille des domaines matière-antimatière initiaux. Or les équations de MOND donnent une valeur de l’accélération caractéristique a0 qui vaut 2 10-10 m s-2… Les valeurs sont donc très très très proches.

Puisque l’Univers de Dirac-Milne avec ses régions de matière et d’antimatière évolue dans le temps, tout comme l’Univers ΛCDM du reste, Chardin et son équipe ont aussi regardé comment se comporterait l’accélération additionnelle induite dans leur modèle en fonction du redshift. Ils ont utilisé pour cela ce qu’ils avaient déterminé en 2020 sur l’évolution de la formation des grandes structures dans le cadre de leur modèle et ont refait tourner des simulations pour différents redshifts

Alors que pour la phénoménologie MOND, l’accélération a0 serait une constante universelle, ce que voient les physiciens français, italien et américain dans le cadre de Dirac-Milne, c’est que l’accélération additionnelle varie en fonction du redshift. Elle décroît de manière continue. Pour les chercheurs, cela reflèterait le fait que la formation hiérarchique des structures à grande échelle a désormais pris fin dans l’Univers de Dirac-Milne, mais l’expansion adiabatique, elle, se poursuit. C’est en tous cas une différence majeure du modèle de D-M avec MOND. 

Chardin et ses collaborateurs obtiennent un autre résultat tout aussi bluffant : ils tracent comment se répartit la vitesse de rotation maximale des galaxies en fonction de la masse qu’ils leur donnent dans leurs simulation, vitesse en abscisse et masse en ordonnée (la relation de Tully-Fisher). Vous devinez sans doute la suite : comme ce qui est observé aujourd’hui dans les galaxies (et quasi impossible à expliquer avec une matière noire non baryonique froide), et comme ce que prédit MOND, le modèle Dirac-Milne produit lui aussi une belle relation de Tully-Fisher en loi de puissance entre la masse et la vitesse de rotation maximale des galaxies : m = Vα . Le modèle D-M donne une valeur proche de 3 pour le paramètre α, alors que MOND prédit une valeur égale à 4, et que la valeur moyenne qui est observée vaut 3.85±0.09 (valeur publiée en 2019)…

Cette étude a été faite sur des cas assez simplistes représentant des volumes d’univers restreints. Chardin et son équipe planifient déjà de réaliser un traitement plus réaliste de la formation des structures en incluant l’hydrodynamique et la rétroaction dans leurs simulations, ce qui devrait leur permettre d’étudier plus finement le relation de Tully-Fisher. Ils annoncent en conclusion qu’ils veulent aussi étudier de plus grands volumes, s’étendant au-delà de l’échelle d’homogénéité (200 Mpc) prédite par le modèle Dirac-Milne, et observée dans notre Univers. De telles simulations à grande échelle constituent un défi car les « domaines » de matière et d’antimatière, qui initient la formation de structures plus grandes au moment du découplage, sont d’une extension géométrique limitée (de l’ordre de 100 parsec à z = 1080).  Cela nécessitera une très haute résolution par rapport aux simulations cosmologiques habituelles. Les chercheurs pensent qu’au delà de tester la robustesse du modèle de Dirac-Milne, ces simulations à des échelles supérieures à quelques centaines de Mpc pourraient aussi permettre de tester les déviations entre mesures locales et à grande échelle de la constante de Hubble-Lemaître  H0, une question d’un intérêt presqu’autant primordial que de changer de modèle cosmologique pour abandonner énergie noire, matière noire, inflation, et retrouver l’antimatière…

Il faut mentionner pour finir que l’idée d’une masse négative et d’une antigravitation est prise très au sérieux par les physiciens depuis de nombreuses décennies. Plusieurs expériences sont toujours financées au CERN pour mesurer pour la première fois comment se comportent des atomes d’antihydrogène dans le champ gravitationnel terrestre : GBAR, AeGIS et ALPHA. Ces trois expériences sont horriblement compliquées à mettre en œuvre. Elles utilisent chacune des techniques différentes et ont récemment été raccordées au nouveau synchrotron ELENA du CERN , qui permet de produire des antiprotons de très basse énergie. On peut garder espoir d’apprendre dans quelques temps un résultat révolutionnaire, ce qui donnerait au modèle cosmologique de Dirac-Milne une aura inimaginable.

Source

MOND-like behavior in the Dirac–Milne universe

Gabriel Chardin, Yohan Dubois, Giovanni Manfredi, Bruce Miller and Clément Stahl

Astronomy&Astrophysics Volume 652, (17 August 2021)

https://doi.org/10.1051/0004-6361/202140575

19/06/2024 Le Wingman, drone furtif d’Airbus

Alors que de plus en plus d’armées de l’air dans le monde font appel à des drones de toutes tailles, souvent fabriqués avec des matériels bon marché, il était inquiétant de ne pas entendre parler de projets européens dans ce domaine.

Ce vide est désormais comblé. L’avionneur franco-européens Airbus vient de dévoiler le concept du futur drone furtif Wingman au salon aérospatial ILA à Berlin

https://www.berlin.de/fr/evenements/2303382-3000868-ila-berlin-salon-de-laeronautique-de-ber.fr.html.

Le chancelier allemand a pu inspecter un modèle à taille réelle du drone qui équipera peut-être dès la fin de la décennie la Luftwaffe, l’armée de l’air allemande.. Le Wingman mesure 11,88 mètres de large et 15,54 mètres de long et il dispose de deux baies d’armement internes (emplacement pour mitrailleuses ou canons).

Ce drone sera propulsé par le turboréacteur Eurojet EJ200, un turboréacteur déjà en service sur l’Eurofighter. Cependant, le modèle présenté au salon dispose d’une ouverture d’échappement en forme de diamant permettant de masquer une partie du réacteur et d’améliorer la discrétion de l’appareil,

En fait, Airbus s’apprête à révolutionner le domaine de l’aviation militaire avec cette présentation de son concept de Wingman. Ce système innovant propose une approche inédite en intégrant des drones de combat aux flottes aériennes existantes, offrant ainsi des capacités accrues tout en minimisant les risques pour les pilotes.

Le concept de Wingman chez Airbus n’est pas un simple drone ; il s’agit d’une plateforme avancée qui étend les capacités des avions de combat pilotés, tels que l’Eurofighter. Ce drone de type combattant sera commandé par un pilote depuis un avion de combat, prenant en charge des missions à haut risque qui seraient autrement dangereuses pour les équipages humains.

Le Wingman d’Airbus est conçu pour être furtif, intégrant une gamme complète d’armements, de capteurs avancés, et des solutions de connectivité et de coopération. Ce modèle exposé n’incorpore pas seulement les dernières avancées technologiques, mais établit également les exigences de conception pour les futures générations du Wingman.

19/06/2024 L’ éventuelle masse des photons

La littérature scientifique décrit les photons comme des particules sans masse. Cette donnée joue un rôle déterminant dans la compréhension des mécanismes de l’Univers. En effet, tout indique que les photons traversent le vide de l’espace à une vitesse constante, sans jamais accélérer ni ralentir tant qu’un obstacle ne se dresse pas sur leur route.

En fait la science actuelle est incapable de déterminer la masse d’un photon.

Une grande partie des théories les plus fondamentales de la physique sont directement basées sur l’absence de masse des photons. Si cette dernière était écartée, les relativités générales et spéciales d’Einstein ou encore les équations de Maxwell, risqueraient de nécessiter de larges révisions.

Cette perspective motive de nombreux physiciens à imaginer des méthodes indirectes pour déterminer l’éventuelle masse d’un photon — ou plutôt la fourchette dans laquelle elle pourrait éventuellement se situer.

C’est ce qu’une équipe de chercheurs chinois a récemment tenté de faire dans une étude dont on trouvera ci-dessous les références et l’abstract. Observons en passant que sur de nombreux points la science fondamentale chinoise dépasse dorénavant en performance la science occidentale.

Pour avancer, les scientifiques chinois se sont basés sur deux sources de rayonnements électromagnétiques intenses.

Les premiers sont des pulsars, des étoiles à neutrons qui tournent sur elles-mêmes à grande vitesse tout en émettant un puissant flux de particules accélérées par leur champ magnétique très intense. Vu de la Terre, ces rayonnements nous parviennent sous forme de pulsations périodiques et intermittentes, d’où le terme de pulsar.

Les seconds sont des sursauts radio rapides (ou FRB, pour Fast Radio Burst). Ce sont des décharges d’onde radio à la fois très brèves et exceptionnellement intenses qui voyagent à travers le cosmos depuis des sources encore inconnues à ce jour.

Il s’agit de deux types de rayonnements très différents, mais ils ont tout de même des points communs, dont un particulièrement important dans le cadre de ces travaux. Lors de leur voyage, les photons qui les composent peuvent croiser différentes sources de plasma. Ce terme désigne un état de la matière où les électrons, des particules chargées négativement, sont arrachés aux atomes et errent en désordre.

Or ces charges libres peuvent affecter la propagation des ondes électromagnétiques émises par les pulsars et les FRB. Plus spécifiquement, elles ont tendance à les diffuser. En pratique, cela se manifeste par une dispersion des photons qui les composent. Selon les chercheurs, ces anomalies dans la propagation des ondes seraient aussi affectées par une éventuelle masse des photons. Si celle-ci était positive, supérieure à zéro, ils arriveraient avec un léger retard.

Ce délai serait infinitésimal et impossible à mesurer directement et précisément. Mais en exploitant de nombreuses sources, les chercheurs ont pu construire un modèle statistique décrivant l’influence de la masse des photons dans cette dynamique. À partir de là, ils ont pu calculer la limite supérieure théorique de la masse des photons, à savoir 9,52 x 10^-46 kg — environ 10 milliards de milliards de milliards de milliards de milliards de fois plus léger qu’une particule de poussière.

Cependant. il ne s’agit pas encore d’une preuve que les photons disposent effectivement d’une masse ou qu’ils en sont dépourvus. Il faudra vraisemblablement quelques années supplémentaires pour que la technologie disponible permette de le vérifier rigoureusement.

https://www.journaldugeek.com/2024/06/18/physique-letau-se-resserre-autour-de-la-masse-de-la-lumiere/

Référence

Bounding the Photon Mass with Ultrawide Bandwidth Pulsar Timing Data and Dedispersed Pulses of Fast Radio Bursts

Yu-Bin Wang aud others

Published 2024 April 3 

Published by the American Astronomical Society.
The Astrophysical JournalVolume 965Number 1

Abstract

Exploring the concept of a massive photon has been an important area in astronomy and physics. If photons have mass, their propagation in nonvacuum space would be affected by both the nonzero mass mγ and the presence of a plasma medium. This would lead to a delay time proportional to ??2?−4, which deviates from the classical dispersion relation (proportional to ν−2). For the first time, we have derived the dispersion relation of a photon with a nonzero mass propagating in plasma. To reduce the impact of variations in the dispersion measure (DM), we employed the high-precision timing data to constrain the upper bound of the photon mass. Specifically, the DM/time of arrival (TOA) uncertainties derived from ultrawide bandwidth (UWB) observations conducted by the Parkes Pulsar Timing Array (PPTA) are used. The dedispersed pulses from fast radio bursts (FRBs) with minimal scattering effects are also used to constrain the upper bound of photon mass. The stringent limit on the photon mass is determined by uncertainties of the TOA of pulsars, with an optimum value of 9.52 × 10−46 kg (5.34 × 10−10 eV c−2). In the future, it is essential to investigate the photon mass, as pulsar timing data are collected by PPTA and UWB receivers, or FRBs with wideband spectra are detected by UWB receivers.

18/06/2024 La conscience selon Koch

Pour le neuroscientifique Christof Koch, la conscience apparaît dans tous les systèmes d’information atteignant une certaine complexité. Tous les animaux, y compris le simple ver de terre, sont conscients. Même des articles publiés sur un support réactif tel que Internet peuvent l’être. Cette conviction, partagée par de nombreux philosophes et par un nombre croissant de scientifiques, est nommée le panpsychisme.

D’ou vient la conscience ?. Nous sommes convaincus qu’elle existe, au moins en ce qui nous concerne. Mais comment peut-elle apparaître dans nos cerveaux, à partir de simples processus chimiques et électrique ? Le mystère demeure entier.

Christof Koch, directeur de recherche au Allen Institute for Brain Science, est convaincu du fait qu’il connait la réponse. Depuis trente ans, il a étudié les bases neurologiques de la conscience. Ses responsabilités au Allen Institute lui ont permis d’être le promoteur d’un projet international dit the BRAIN Initiative dont le travail devrait débuter en 2024. Il a écrit de nombreux ouvrages sur cette question, dont en 2023  Consciousness: Confessions of a Romantic Reductionist.

Plus récemment, voir NewScientist Are you conscious 8 june 2024 p 28

_______________________________________

Nous reprenons ici, sans le traduire faute de temps un entretien sur ce sujet publié par Wired en 2013

WIRED: How did you come to believe in panpsychism?

Christof Koch: I grew up Roman Catholic, and also grew up with a dog. And what bothered me was the idea that, while humans had souls and could go to heaven, dogs were not suppose to have souls. Intuitively I felt that either humans and animals alike had souls, or none did. Then I encountered Buddhism, with its emphasis on the universal nature of the conscious mind. You find this idea in philosophy, too, espoused by Plato and Spinoza and Schopenhauer, that psyche — consciousness — is everywhere. I find that to be the most satisfying explanation for the universe, for three reasons: biological, metaphysical and computational.

WIRED: What do you mean?

Koch: My consciousness is an undeniable fact. One can only infer facts about the universe, such as physics, indirectly, but the one thing I’m utterly certain of is that I’m conscious. I might be confused about the state of my consciousness, but I’m not confused about having it. Then, looking at the biology, all animals have complex physiology, not just humans. And at the level of a grain of brain matter, there’s nothing exceptional about human brains.

Only experts can tell, under a microscope, whether a chunk of brain matter is mouse or monkey or human — and animals have very complicated behaviors. Even honeybees recognize individual faces, communicate the quality and location of food sources via waggle dances, and navigate complex mazes with the aid of cues stored in their short-term memory. If you blow a scent into their hive, they return to where they’ve previously encountered the odor. That’s associative memory. What is the simplest explanation for it? That consciousness extends to all these creatures, that it’s an immanent property of highly organized pieces of matter, such as brains.

WIRED: What do you mean?

Koch: My consciousness is an undeniable fact. One can only infer facts about the universe, such as physics, indirectly, but the one thing I’m utterly certain of is that I’m conscious. I might be confused about the state of my consciousness, but I’m not confused about having it. Then, looking at the biology, all animals have complex physiology, not just humans. And at the level of a grain of brain matter, there’s nothing exceptional about human brains.

Only experts can tell, under a microscope, whether a chunk of brain matter is mouse or monkey or human — and animals have very complicated behaviors. Even honeybees recognize individual faces, communicate the quality and location of food sources via waggle dances, and navigate complex mazes with the aid of cues stored in their short-term memory. If you blow a scent into their hive, they return to where they’ve previously encountered the odor. That’s associative memory. What is the simplest explanation for it? That consciousness extends to all these creatures, that it’s an immanent property of highly organized pieces of matter, such as brains.

WIRED: That’s pretty fuzzy. How does consciousness arise? How can you quantify it?

Koch: There’s a theory, called Integrated Information Theory, developed by Giulio Tononi at the University of Wisconsin, that assigns to any one brain, or any complex system, a number — denoted by the Greek symbol of Φ — that tells you how integrated a system is, how much more the system is than the union of its parts. Φ gives you an information-theoretical measure of consciousness. Any system with integrated information different from zero has consciousness. Any integration feels like somethingto that system. When it’s dissolved, it does not feel that anymore. It’s not that any physical system has consciousness. A black hole, a heap of sand, a bunch of isolated neurons in a dish, they’re not integrated. They have no consciousness. But complex systems do. And how much consciousness they have depends on how many connections they have and how they’re wired up. WIRED: Ecosystems are interconnected. Can a forest be conscious?

Koch: In the case of the brain, it’s the whole system that’s conscious, not the individual nerve cells. For any one ecosystem, it’s a question of how richly the individual components, such as the trees in a forest, are integrated within themselves as compared to causal interactions between trees.

The philosopher John Searle, in his review of Consciousness, asked, « Why isn’t America conscious? » After all, there are 300 million Americans, interacting in very complicated ways. Why doesn’t consciousness extend to all of America? It’s because integrated information theory postulates that consciousness is a local maximum. You and me, for example: We’re interacting right now, but vastly less than the cells in my brain interact with each other. While you and I are conscious as individuals, there’s no conscious Übermind that unites us in a single entity. You and I are not collectively conscious. It’s the same thing with ecosystems. In each case, it’s a question of the degree and extent of causal interactions among all components making up the system.

WIRED: The internet is integrated. Could it be conscious?

Koch: It’s difficult to say right now. But consider this. The internet contains about 10 billion computers, with each computer itself having a couple of billion transistors in its CPU. So the internet has at least 10^19 transistors, compared to the roughly 1000 trillion (or quadrillion) synapses in the human brain. That’s about 10,000 times more transistors than synapses. But is the internet more complex than the human brain? It depends on the degree of integration of the internet.

For instance, our brains are connected all the time. On the internet, computers are packet-switching. They’re not connected permanently, but rapidly switch from one to another. But according to my version of panpsychism, it feels like something to be the internet — and if the internet were down, it wouldn’t feel like anything anymore. And that is, in principle, not different from the way I feel when I’m in a deep, dreamless sleep.

WIRED: Internet aside, what does a human consciousness share with animal consciousness? Are certain features going to be the same?

Koch: It depends on the sensorium [the scope of our sensory perception —ed.] and the interconnections. For a mouse, this is easy to say. They have a cortex similar to ours, but not a well-developed prefrontal cortex. So it probably doesn’t have self-consciousness, or understand symbols like we do, but it sees and hears things similarly.

In every case, you have to look at the underlying neural mechanisms that give rise to the sensory apparatus, and to how they’re implemented. There’s no universal answer.

WIRED: Does a lack of self-consciousness mean an animal has no sense of itself?

Koch: Many mammals don’t pass the mirror self-recognition test, including dogs. But I suspect dogs have an olfactory form of self-recognition. You notice that dogs smell other dog’s poop a lot, but they don’t smell their own so much. So they probably have some sense of their own smell, a primitive form of self-consciousness. Now, I have no evidence to suggest that a dog sits there and reflects upon itself; I don’t think dogs have that level of complexity. But I think dogs can see, and smell, and hear sounds, and be happy and excited, just like children and some adults.

Self-consciousness is something that humans have excessively, and that other animals have much less of, though apes have it to some extent. We have a hugely developed prefrontal cortex. We can ponder.

WIRED: How can a creature be happy without self-consciousness?

Koch:: When I’m climbing a mountain or a wall, my inner voice is totally silent. Instead, I’m hyperaware of the world around me. I don’t worry too much about a fight with my wife, or about a tax return. I can’t afford to get lost in my inner self. I’ll fall. Same thing if I’m traveling at high speed on a bike. It’s not like I have no sense of self in that situation, but it’s certainly reduced. And I can be very happy.

WIRED: I’ve read that you don’t kill insects if you can avoid it.

Koch: That’s true. They’re fellow travelers on the road, bookended by eternity on both sides.

WIRED: How do you square what you believe about animal consciousness with how they’re used in experiments?

Koch: There are two things to put in perspective. First, there are vastly more animals being eaten at McDonald’s every day. The number of animals used in research pales in comparison to the number used for flesh. And we need basic brain research to understand the brain’s mechanisms. My father died from Parkinson’s. One of my daughters died from Sudden Infant Death Syndrome. To prevent these brain diseases, we need to understand the brain — and that, I think, can be the only true justification for animal research. That in the long run, it leads to a reduction in suffering for all of us. But in the short term, you have to do it in a way that minimizes their pain and discomfort, with an awareness that these animals are conscious creatures.

WIRED: Getting back to the theory, is your version of panpsychism truly scientific rather than metaphysical? How can it be tested?

Koch: In principle, in all sorts of ways. One implication is that you can build two systems, each with the same input and output — but one, because of its internal structure, has integrated information. One system would be conscious, and the other not. It’s not the input-output behavior that makes a system conscious, but rather the internal wiring.

The theory also says you can have simple systems that are conscious, and complex systems that are not. The cerebellum should not give rise to consciousness because of the simplicity of its connections. Theoretically you could compute that, and see if that’s the case, though we can’t do that right now. There are millions of details we still don’t know. Human brain imaging is too crude. It doesn’t get you to the cellular level.

The more relevant question, to me as a scientist, is how can I disprove the theory today. That’s more difficult. Tononi’s group has built a device to perturb the brain and assess the extent to which severely brain-injured patients — think of Terri Schiavo — are truly unconscious, or whether they do feel pain and distress but are unable to communicate to their loved ones. And it may be possible that some other theories of consciousness would fit these facts.

WIRED: I still can’t shake the feeling that consciousness arising through integrated information is — arbitrary, somehow. Like an assertion of faith.

Koch: If you think about any explanation of anything, how far back does it go? We’re confronted with this in physics. Take quantum mechanics, which is the theory that provides the best description we have of the universe at microscopic scales. Quantum mechanics allows us to design MRI and other useful machines and instruments. But why should quantum mechanics hold in our universe? It seems arbitrary! Can we imagine a universe without it, a universe where Planck’s constant has a different value? Ultimately, there’s a point beyond which there’s no further regress. We live in a universe where, for reasons we don’t understand, quantum physics simply is the reigning explanation.

With consciousness, it’s ultimately going to be like that. We live in a universe where organized bits of matter give rise to consciousness. And with that, we can ultimately derive all sorts of interesting things: the answer to when a fetus or a baby first becomes conscious, whether a brain-injured patient is conscious, pathologies of consciousness such as schizophrenia, or consciousness in animals. And most people will say, that’s a good explanation.

If I can predict the universe, and predict things I see around me, and manipulate them with my explanation, that’s what it means to explain. Same thing with consciousness. Why we should live in such a universe is a good question, but I don’t see how that can be answered now.

https://www.wired.com/2013/11/christof-koch-panpsychism-consciousness/

18/06/2024 De la guerre en Ukraine à un conflit nucléaire mondial

Pour Ivan Timofeïev, directeur des programmes du club russe de discussion Valdaï, ce risque augmente de jour en jour. N’ayant pas accès aux sources russes, du fait de l’absurde politiques de sanctions imposée par l’Occident à la Russie, nous nous appuyons sur des informations fournies par Philippe Grasset, sur son site Dededensa. Voir notamment https://www.dedefensa.org/article/risques-nucleaires-et-election-us

«  Une fois de plus est abordée la question, ici scénarisée précisément, d’un affrontement en Ukraine aboutissant à l’utilisation d’une arme nucléaire, puis à un conflit nucléaire mondial et totalement dévastateur. Pour certains théoriciens et philosophes qui ont réfléchi au problème posé par une telle perspective, l’avenir au-delà d’un tel conflit porté au niveau stratégique global où il n’y a pas de gagnant, est tout simplement impensable.

(autrement dit, ce serait la fin de toutes les civilisations).

À proprement parler, les pays de l’OTAN sont impliqués depuis longtemps dans le conflit. Cela revêt plusieurs formes.

Premièrement, les pays occidentaux fournissent à Kiev une aide financière et militaire substantielle, notamment des systèmes d’armes de plus en plus sophistiqués et destructeurs. Comme les stocks d’armes de type soviétique dans les arsenaux des anciens alliés de l’URSS au sein de l’Organisation du pacte de Varsovie ont été épuisés, l’armée ukrainienne reçoit de plus en plus d’armements et de munitions d’origine occidentale.

Jusqu’à présent, les livraisons de masse ont été limitées par les capacités de production de l’industrie de défense occidentale et par la taille des stocks existants. Mais si les hostilités de poursuivent, la capacité industrielle pourrait augmenter. L’augmentation des approvisionnements est également inévitable en cas de trêve, ce qui permettrait à l’Ukraine de se préparer à une nouvelle phase des hostilités.

Moscou paraît se préparer au pire des scénarios, à savoir une augmentation constante de l’aide militaire occidentale à l’Ukraine. Outre la fourniture d’armes et de munitions, cette assistance comprend la formation de personnel, l’aide au développement de l’industrie et des infrastructures militaires, ainsi que le remboursement des dépenses dans d’autres domaines qui permettent à l’Ukraine de concentrer ses ressources sur le secteur de la défense.

Deuxièmement, l’Ukraine jouit d’un large soutien occidental sous forme de renseignements, y compris des données techniques provenant de satellites, de radars, d’avions de reconnaissance, etc. Les informations reçues permettent de mener un large éventail d’opérations, de la délimitation du théâtre d’opérations à l’identification de cibles spécifiques. Les fournisseurs de données peuvent être sélectifs pour en octroyer l’accès à la partie ukrainienne. Mais leur utilisation dans des opérations militaires contre la Russie ne fait aucun doute.

Troisièmement, des spécialistes militaires citoyens de pays de l’OTAN prennent part aux opérations militaires. Leur rôle n’est pas toujours officiel. Il peut s’agir de volontaires ou simplement de mercenaires sur la participation desquels les autorités de leurs pays ferment les yeux. Selon les estimations de la Russie, leur nombre était d’environ 2 000 en octobre 2023. Que cela soit exact ou non, il est clair que des étrangers se battent du côté de l’Ukraine, que leur participation est systématique et non fortuite, et qu’au moins certains d’entre eux sont des citoyens de pays occidentaux. Leur mort pourra être un prétexte à une intervention armée directe.

Un éventuel succès militaire majeur de l’armée russe.

Jusqu’à présent, la situation sur le front reste relativement stable. Mais l’armée de Moscou a déjà remporté d’importantes victoires locales, accru la pression, pris l’initiative, élargi le front offensif et peut-être accumulé des réserves pour des actions plus décisives.

Il n’y a aucun signe de reprise de la contre-offensive ukrainienne de l’année dernière. Kiev serait à court de munitions, bien qu’à l’avenir, ce déficit puisse être comblé par des fournitures extérieures. Des attaques périodiques sur le territoire russe avec des missiles de croisière, des drones et de l’artillerie causent des dégâts et des victimes, mais ne perturbent pas la stabilité du front.

De plus, de telles frappes renforcent la détermination de la Russie à créer des zones tampons, c’est-à-dire des territoires depuis lesquels Kiev ne pourra pas attaquer des cibles dans les régions russes.

Un éventuel effondrement de certains secteurs du front ukrainien et des avancées territoriales importantes des forces russes vers l’ouest deviennent un scénario de plus en plus réaliste.

Le fait qu’aucune avancée ni percée profonde n’ait eu lieu depuis un certain temps ne signifie pas que cela ne sera pas possible à l’avenir. Au contraire, cette probabilité augmente en raison de l’expérience au combat de l’armée russe, des fournitures du complexe militaro-industriel au front, des pertes du côté ukrainien, des retards dans la livraison du matériel occidental, etc.

La capacité de l’armée russe à réaliser de telles avancées et percées augmente également. Une offensive majeure réussi de l’armée russe vers Kharkov, Odessa ou une autre grande ville pourrait devenir le déclencheur d’une intervention occidentale directe.

L’intervention occidentale pourrait prendre plusieurs formes. Elle peut commencer par l’utilisation d’infrastructures, notamment des aérodromes des pays de l’OTAN. Un scénario plus radical consisterait à déployer un contingent issu de certains pays de l’OTAN à la frontière entre l’Ukraine et la Biélorussie. Enfin, une option encore plus radicale serait le déploiement de contingents militaires des pays de l’OTAN sur la ligne de front

Chacun de ces scénarios implique un affrontement direct entre les forces russes et celles de l’OTAN. Une telle situation poserait inévitablement la question d’une implication plus profonde des adversaires et, à plus long terme, d’un transfert du conflit militaire vers d’autres zones de contact avec la Russie, notamment la région baltique. À ce stade, il sera encore plus difficile d’arrêter l’escalade. Plus les pertes seront importantes pour les deux parties, plus le tourbillon des hostilités augmentera et plus elles se rapprocheront du seuil d’utilisation des armes nucléaires. Et alors il n’y aura plus de vainqueurs  » 

NB. Nous avons simplifié la forme mais, espérons le, en en conservant l’esprit 

17/06/2024 Le temps pourrait-il être une illusion quantique ?

Le temps peut ne pas être un élément fondamental de notre réalité physique. De nouveaux calculs montrent qu’il émerge de l’intrication quantique, dans laquelle deux objets sont si étroitement liés que troubler l’un peut troubler l’autre, quelle que soit leurs distances dans l’univers.

Pendant des siècles le temps a été considéré en physique comme un élément essentiel indiscutable, à tel point qu’il n’était pas nécessaire de le définir. Cette conception a changé dans les années 1900, quand la relativité et la physique quantique proposèrent des définitions du temps conflictuelles.

Pour la relativité, le temps est lié à l’apparition de l’univers. Notre réalité physique s’inscrit dans le concept d’espace-temps. Selon celui-ci, le temps de déforme ou se dilate en présence de la réalité.

A l’opposé, la théorie quantique considère le temps comme non malléable et donc qui ne se modifie pas, de même que les autres propriétés d’un objet quantique. Ainsi, observer le passage du temps nécessite un observateur qui consulte une horloge extérieure à cette procédure.

De plus les deux théories observent les objets à des échelles profondément différentes, celles des étoiles et celles des atomes. Cependant comme les uns et les autres objets composent le même univers, beaucoup de scientifiques considèrent que la définition du temps devrait être la même dans les deux cas. 

C’est le cas d’Allessandro Coppo du Centre National italien de la Recherche et de ses collègues qui recherchent une définition identique.

Pour y arriver, ils s’appuient sur l’idée que lorsque nous voyons un objet changer avec le temps, c’est seulement parce que cet objet est intriqué avec une horloge. Autrement dit, un observateur tout à fait extérieur ne constaterait aucune modification de l’objet.

Dans la version mathématique qu’il se donne de ce concept, Coppo représente l’horloge sous la forme d’un système de petites barres magnétiques intriquées avec un oscillateur harmonique quantique ( https://en.wikipedia.org/wiki/Quantum_harmonic_oscillator) . I

l a constaté que ce système pouvait être considéré comme une version de l’équation de Schrödinger (https://www.quantamagazine.org/real-life-schrodingers-cats-probe-the-boundary-of-the-quantum-world) aujourd’hui utilisée pour prévoir le comportement des particules quantiques .

Cependant les deux approches présentent une différence essentielle. Alors que l’équation de Schrödinger utilise une variable que nous appelons le temps, la nouvelle équation proposée contient une variable qui énumère les états quantiques des barres magnétiques . Voir Magnetic clock for a harmonic oscillator https://journals.aps.org/pra/abstract/10.1103/PhysRevA.109.052212

Coppo et ses collègues constatèrent alors, différences d’échelle mises à part, que pour des objets classiques tels que des ballons de foot-ball, le temps pouvait être une conséquence de l’intrication quantique de ces objets. Cela voudrait-il dire que la nature serait profondément quantique? Dans ce cas, aux origines de l’univers, après le Big Bang, si le phénomène de l’intrication n’était pas apparu, aucune évolution ne se serait produite.

Pour Allessandro Coppo, Vlatko Védral de l’université de Leeds et Basil Mohammed Altaie de l’université de Yarmouk, Jordanie, qui ont collaboré aux études résumées ci-dessus, le plus urgent maintenant serait de préparer des expériences qui les mettraient à l’épreuve. Ceci serait déterminant pour l’élaboration d’une future théorie de la gravité quantique.

Merci à Karmela Padavic-Callahan du NewScientist (Time may be a quantum illusion)

15/06/2024 La rétrocausalité dans le monde quantique

La théorie de la relativité générale d’Einstein prévoit la possibilité de déformer le temps à un degré tel qu’il se replie sur lui-même, créant ainsi une boucle temporelle. Voyager dans cette boucle signifie qu’à un moment donné, le voyageur se retrouve dans le passé et peut recommencer à revivre les jours déjà vécus, le cas échéant indéfiniment.

Ces constructions sont souvent appelées « courbes fermées de genre temps » (CTC), et communément baptisées « machines temporelles ». Les machines à remonter le temps sont un sous-produit de voyages à des vitesses plus grandes que celles de la lumière et leur compréhension peut améliorer notre connaissance du fonctionnement de l’univers. Cependant, il est admis que nul humain ne peut effectuer un tel voyage. Mais qu’en est-il des particules ?

Comme on pouvait le supposer, des physiciens ont imaginé des particules se déplaçant plus vite que la lumière. Il s’agit des tachyons. Ce terme désigne des particules hypothétiques constituant essentiellement une expérience de pensée sur la possibilité d’existence de particules atteignant des vitesses supraluminiques sans contredire la relativité. En effet, dans son article de 1967 décrivant ces particules,  le physicien Gérald Feinberg posait son « principe de réinterprétation » qui empêche d’employer les tachyons pour communiquer de l’énergie ou de l’information à vitesse supraluminique.

Au contraire des particules ordinaires, dont la vitesse est obligatoirement inférieure à celle de la lumière, les tachyons ont une vitesse obligatoirement supérieure à celle-ci. Suivant les équations de relation entre la masse et l’énergie, cela implique également que la masse au repos d’un tachyon est un nombre imaginaire.

Un tachyon ne correspondrait pas à une particule ayant une réalité matérielle mais serait une indication que la théorie dans laquelle il apparaît possède une forme d’instabilité. Dans ce cas c’est un signe que la théorie a été formulée en faisant un mauvais choix de variables. Lorsque l’on formule la théorie en prenant de bonnes variables les tachyons disparaissent.

Ceci dit, ces réflexions portent sur des particules de la physique classique. Qu’en serait-il de la physique quantique. Aujourd’hui le physicien Seth Lloyds du MIT s’efforce de montrer que ces boucles dans le passé, les CTC, seraient non seulement possibles en théorie mais réalisables en pratique.

La théorie prévoit déjà que deux particules quantiques peuvent être intriquées, quelle que soit leur distance dans l’espace et le temps. Mais il ne s’agit que de théorie. Si une expérience de ce type réussissait, elle montrerait qu’il serait pratiquement possible d’envoyer dans le passé non seulement des particules mais des messages sous la forme de signaux quantiques. Autrement dit, pourrait-on réaliser une CTC quantique ? Un succès en ce domaine obligerait à revoir en profondeur les conceptions actuelles sur l’espace et le temps

En 1991, le physicien théoricien David Deutch de l’Université d’Oxford avait proposé une CTC quantique pour résoudre le paradoxe dit de la rétrocausalité selon lequel, dans la physique classique, aucune cause actuelle ou future ne peut avoir d’effets dans le passé. Ainsi en serait-il du paradoxe dit du grand père selon lequel un voyageur dans le temps pourrait revenir dans le passé pour tuer son grand père ce qui aurait empêché celui-ci d’avoir le fils qui était devenu le père du voyageur et niant sa propre existence.

En 2010 Seth Lloyds avait repris cette hypothèse en faisant appel au principe de la « post-sélection ». Celui-ci suppose de multiplier les expériences sur une question donnée et rejeter les solutions qui n’apportent pas les résultats attendus. Ce principe est particulièrement applicable dans le monde quantique où les entités, c’est-dire en ce cas les particules, disposent d’un nombre illimité de solutions tant qu’elles n’ont pas été « observés », c-est-à-dire mesurées. Rappelons que dans le monde quantique, où l’on trouve toujours des éléments d’incertitude, les particules se trouvent dans un nuage d’états possibles lequel demeure tel jusqu’à que quelqu’un les observe.

Aussi Seth Lloyds et son équipe  proposèrent-ils une façon d’utiliser la post-sélection pour revenir en arrière et modifier des choses qui n’avaient jamais été observées dans le passé. Il apparut alors que la CTC quantique serait très utile en métrologie, qui est la science de la mesure. D’ores et déjà fait-on appel à celle-ci pour évaluer les champs magnétique, la lumière et même les ondes gravitationnelles. Mais comment préparer une particule de façon à la mesurer?

La meilleure solution serait de téléporter en arrière dans le temps les informations nécessaires.

L’idée a été retenue. En 2023, Nicole Halpern, de l’Université de Maryland, David Arvids Shukur, de l’Université de Cambridge et Aidan McConnel de l’Université de Zurich décrivirent une expérience de pensée précisant comment utiliser des particules pour créer la boucle temporelle imaginée par Lloyd. Ceci impliquait 4 qubits définis en l’espèce comme 4 électrons et nommés A,B, C et D.

Dans cette expérience, l’état passé de la particule A était déterminé par l’état futur des autres particules. Cette procédure est équivalente mathématiquement à renvoyer cet état en arrière dans le temps et observer ce qui en résulte (Voir NewScientist Quantuum Loops 1 june 2024, p. 34). Autrement dit, l’expérience de pensée aboutit a faire des mesures qui modifient par un recul dans le temps l’état présent des particules.

Ce n’est certes qu’une expérience de pensée, mais l’équipe prépare actuellement avec le physicien Aephraim Steinberg de l’Université de Toronto une expérience en vraie grandeur. Des photons individuels seront envoyésdans une boucle temporelle quantique.

Si l’expérience réussit, ceci ne signifiera pas qu’un humain composé de milliards de particules pourra être prochainement renvoyé dans le passé grâce à une boucle temporelle quantique. Néanmoins le regard des chercheurs sur des questions encore mal explorées en sera modifié. Affaire à suivre donc.

Bibliographie

Newscientist 1 june 2024 A loop in time p 33

David Deutsch https://journals.aps.org/prd/abstract/10.1103/PhysRevD.44.3197

Retrocausality in Quantum Mechanics https://plato.stanford.edu/archives/sum2019/entries/qm-retrocausality/

The quantum mechanics of time travel through post-selected teleportation https://arxiv.org/abs/1007.2615

Curved timelike curves https://arxiv.org/html/2405.18640v1

American Physical Society
https://link.aps.org › doi › PhysRevLett.131.150202

David Deutsch https://journals.aps.org/prd/abstract/10.1103/PhysRevD.44.3197

Retrocausality in Quantum Mechanics https://plato.stanford.edu/archives/sum2019/entries/qm-retrocausality/

Lloyd The quantum mechanics of time travel through post-selected teleportation
https://arxiv.org/abs/1007.2615

CTC curved timelike curves https://arxiv.org/html/2405.18640v1

David R. M. Arvidsson-Shukur, Aidan G. McConnell, and Nicole Yunger Halpern
Nonclassical Advantage in Metrology Established via Quantum Simulations of Hypothetical Closed Timelike Curves https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.131.150202

15/06/2024 La rétrocausalité dans le monde quantique

Article en cours de rédaction

Bibliographie temporaire

David Deutsch https://journals.aps.org/prd/abstract/10.1103/PhysRevD.44.3197

The quantum mechanics of time travel through post-selected teleportation https://arxiv.org/abs/1007.2615

Curved timelike curves https://arxiv.org/html/2405.18640v1

Retrocausality in Quantum Mechanics
https://plato.stanford.edu/archives/sum2019/entries/qm-retrocausality/

David R. M. Arvidsson-Shukur, Aidan G. McConnell, and Nicole Yunger Halpern Nonclassical Advantage in Metrology Established via Quantum Simulations of Hypothetical Closed Timelike Curves https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.131.150202

Lloyd The quantum mechanics of time travel through post-selected teleportation
https://arxiv.org/abs/1007.2615

14/06/2024 Du givre matinal sur Mars

Des gelées matinales viennent d’être observées durant l’aurore sur les volcans martiens, dont la hauteur équivaut à trois fois celle du mont Everest. C’est ce indique un article publié dans la revue Nature Geosciences le lundi 10 juin 2024

Ce phénomène est surprenant car Mars possède une atmosphère beaucoup moins dense que celle de la Terre plusieurs milliers de fois moins d’eau que celle-ci. Le givre est donc peu probable. Et pourtant, une couche de givre exceptionnellement fine, moins épaisse qu’un cheveu, couvre une immense surface des volcans martiens.

« C’est la première fois que nous découvrons du gel d’eau sur les sommets des volcans et la première fois que nous découvrons du gel d’eau dans les régions équatoriales de Mars a déclaré au The Guardian Adomas Valantinas, planétologue à l’Université de Berne en Suisse et à l’Université Brown aux États-Unis.

Ce givre a été découvert dans la région de Tharsis. Elle réunit les immenses volcans de plusieurs kilomètres de haut tels qu’Olympus, Arsia et Ascraeus Mons, ou encore Ceraunius Tholus. Pour réaliser cette découverte, les chercheurs ont utilisé des images couleur à haute résolution de la sonde Exomars Trace Gas Orbiter (TGO) de l’Agence spatiale européenne (ESA).

Cette découverte a été confirmée à l’aide d’observations indépendantes réalisées entre autres par la sonde Mars Express de l’ESA. Cependant sur Mars, il existe deux principaux composés volatils : l’eau (H2O) et le dioxyde de carbone (CO2). Tous deux peuvent facilement se changer en gaz et apparaissent comme blanc ou brillants à la lumière visible. Difficile donc les distinguer.

Les chercheurs ont ainsi dû réaliser un véritable travail d’enquête à l’aide de nombreux outils et d’une simulation numérique du microclimat des volcans de Mars pour arriver à la conclusion que oui, il y a bien du givre sur la planète rouge. Autre point soulevé dans cette étude, ces simulations numériques démontrent que les températures à la surface des volcans cités plus haut permettent d’imaginer qu’il y aurait de l’eau gelée.

Cette découverte vient alimenter l’hypothèse selon laquelle la planète était autrefois un monde beaucoup plus humide, et peut-être même habitable, parsemé de lacs géants et de rivières sinueuses. En effet, des vaisseaux spatiaux en orbite autour de Mars ont déjà renvoyé des preuves de la présence d’eau gelée et liquide sur Mars, avec des quantités importantes de glace observées aux pôles Nord et sud.

« Ce que nous voyons pourrait être une trace d’un climat martien passé », a ajouté à The Guardian Valantinas à propos des volcans aux pointes de gel. « Cela pourrait être lié aux processus climatiques atmosphériques qui se produisaient plus tôt dans l’histoire martienne, il y a peut-être des millions d’années. »

Actuellement, les échanges d’eau entre l’atmosphère et la surface martienne ne sont pas totalement compris. Cette découverte de givre est un élément important puisqu’il pourrait servir de traceur au cycle de l’eau sur Mars. Une nouvelle étape pour identifier des ressources clés pouvant aider à une potentielle exploration humaine.

Source

https://www.huffingtonpost.fr/science/article/du-givre-matinal-sur-mars-une-decouverte-qui-pourrait-bien-servir-aux-futurs-astronautes_235335.html

  • Published: 10 June 2024

  • Evidence for transient morning water frost deposits on the Tharsis volcanoes of Mars

https://www.nature.com/articles/s41561-024-01457-7

The present-day water cycle on Mars has implications for habitability and future human exploration. Water ice clouds and water vapour have been detected above the Tharsis volcanic province, suggesting the active exchange of water between regolith and atmosphere. Here we report observational evidence for extensive transient morning frost deposits on the calderas of the Tharsis volcanoes (Olympus, Arsia and Ascraeus Montes, and Ceraunius Tholus) using high-resolution colour images from the Colour and Stereo Surface Imaging System on board the European Space Agency’s Trace Gas Orbiter. The transient bluish deposits appear on the caldera floor and rim in the morning during the colder Martian seasons but are not present by afternoon. The presence of water frost is supported by spectral observations, as well as independent imagery from the European Space Agency’s Mars Express orbiter. Climate model simulations further suggest that early-morning surface temperatures at the high altitudes of the volcano calderas are sufficiently low to support the daily condensation of water—but not CO2—frost. Given the unlikely seasonal nature of volcanic outgassing, we suggest the observed frost is atmospheric in origin, implying the role of microclimate in local frost formation and a contribution to the broader Mars water cycle.

14/06/2024 La gravité peut-elle exister sans masse ?

Selon  Richard Lieu, astrophysicien à l’Université de l’Alabama à Huntsville et auteur de l’article dont on trouvera ci-dessous les références et l’abstract, « l’excès de gravité » indispensable pour expliquer la cohérence des galaxies qui en principe devraient se disperser compte tenu de la force centrifuge pourrait provenir de défauts topologiques dans la structure du cosmos. Ces défauts auraient une forme de « coquille », et pourraient s’emboîter comme des poupées russes pour former de vastes structures susceptibles d’influencer la matière à très grande échelle.

Il explique que ces coquilles sont composées d’une couche interne de masse positive et d’une couche externe de masse négative. La masse totale de ces deux couches serait exactement nulle, ce qui rendrait donc la gravité indépendante de la notion de masse. En revanche, un objet comme une galaxie enfermée à l’intérieur de cette coquille subirait surtout l’influence de la couche interne. Elle serait donc soumise à une force centripète très importante, la forçant ainsi à rester cohérente. Avec un tel modèle, en théorie, il n’y aurait donc « plus besoin de perpétuer cette recherche sans fin de la matière noire ».

« Ce papier n’essaie pas de résoudre le problème de la formation de ces structures », explique-t-il. En outre, il ne propose aucune manière de confirmer ou de réfuter l’existence de ces coquilles au moyen d’observations. Mais dans le contexte actuel où la recherche de la matière noire a tendance à stagner, cette hypothèse mérite tout de même d’être explorée — ne serait-ce que par curiosité scientifique.

Référence

The binding of cosmological structures by massless topological defects 

Richard Lieu

Monthly Notices of the Royal Astronomical Society, Volume 531, Issue 1, June 2024, Pages 1630–1636,

https://doi.org/10.1093/mnras/stae1258

 14 May 2024

  • ABSTRACT

Assuming spherical symmetry and weak field, it is shown that if one solves the Poisson equation or the Einstein field equations sourced by a topological defect, i.e. a singularity of a very specific form, the result is a localized gravitational field capable of driving flat rotation (i.e. Keplerian circular orbits at a constant speed for all radii) of test masses on a thin spherical shell without any underlying mass. Moreover, a large-scale structure which exploits this solution by assembling concentrically a number of such topological defects can establish a flat stellar or galactic rotation curve, and can also deflect light in the same manner as an equipotential (isothermal) sphere. Thus, the need for dark matter or modified gravity theory is mitigated, at least in part.