24/11/2024 Le système planétaire TRAPPIST-1

Le système planétaire le plus étudié en dehors du système solaire se trouve à 40 années lumière de celui-ci. Il est constitué de sept planètes rocheuses, comme la Terre, orbitant autour de l’étoile TRAPPIST-1 dans la zone habitable de celle-ci. En mars 2023, une première image réalisée par le Webb Telescope fut obtenue.

Une analyse de la planète TRAPPIST -b, la plus intérieure du système, ne permit pas d’y observer d’atmosphère. Mais il n’est pas exclu d’y découvrir plus tard des conditions favorables à la présence d’une vie semblable à celle que l’on connait sur Terre.

En février 2016, une étude plus approfondie des sept planètes du système suggéra que quelques unes- d’entre elles pouvaient disposer de beaucoup plus d’eau que n’en contiennent les océans terrestres. Cette eau se présente sous forme de vapeur sur la planète la plus proche de leur étoile, sous forme d’eau liquide et de glace sur les plus éloignées. Par la suite, une étude plus approfondie des sept planètes a permi d’obtenir leur densité, densité voisine de celle de la Terre. TRAPPIST-1 est donc le système planétaire le mieux connu en dehors du système solaire.

Enfin, une étude conduite en 2021 montra que si toutes les planètes du système contenaient comme la plupart des planètes rocheuses du fer, de l’oxygène, du magnésium et de la silice, les proportions en étaient différentes de celles connues sur la Terre, si bien que la densité globale était inférieure de 8% par rapport à celle connue sur la Terre.

Référence

  • Article
  • Published: 27 March 2023
  • Thermal emission from the Earth-sized exoplanet TRAPPIST-1 b using JWST
  • Thomas P. Greene, and others
  • Nature volume618, pages 39–42 (2023)
Abstract

The TRAPPIST-1 system is remarkable for its seven planets that are similar in size, mass, density and stellar heating to the rocky planets Venus, Earth and Mars in the Solar System1. All the TRAPPIST-1 planets have been observed with transmission spectroscopy using the Hubble or Spitzer space telescopes, but no atmospheric features have been detected or strongly constrained. TRAPPIST-1 b is the closest planet to the M-dwarf star of the system, and it receives four times as much radiation as Earth receives from the Sun. This relatively large amount of stellar heating suggests that its thermal emission may be measurable. Here we present photometric secondary eclipse observations of the Earth-sized exoplanet TRAPPIST-1 b using the F1500W filter of the mid-infrared instrument on the James Webb Space Telescope (JWST). We detect the secondary eclipses in five separate observations with 8.7σ confidence when all data are combined. These measurements are most consistent with re-radiation of the incident flux of the TRAPPIST-1 star from only the dayside hemisphere of the planet. The most straightforward interpretation is that there is little or no planetary atmosphere redistributing radiation from the host star and also no detectable atmospheric absorption of carbon dioxide (CO2) or other species.

https://www.nature.com/articles/s41586-023-05951-7

https://science.nasa.gov/exoplanets/trappist1/

23/11/2024. La Terre perd son eau douce plus vite que prévu.

Une équipe internationale de scientifiques, utilisant les observations des satellites allemands de la NASA, a trouvé des preuves que la quantité totale d’eau douce de la Terre a fortement diminué à partir de mai 2014 et qu’elle est restée faible depuis. 

Dans un rapport publié dans Surveys in Geophysics, dont on trouvera ci-dessous les références et l’abstract les chercheurs ont suggéré que ce changement pourrait indiquer que les continents de la Terre sont entrés dans une phase durablement plus sèche.

Entre 2015 et 2023, les mesures par satellite ont montré que la quantité moyenne d’eau douce stockée sur Terre (qui comprend les eaux de surface liquides telles que les lacs et les rivières, ainsi que l’eau des aquifères souterrains) était inférieure de 1 200 kilomètres cubes aux niveaux moyens enregistrés entre 2002 et 2014, a déclaré Matthew Rodell, l’un des auteurs de l’étude et hydrologue au Goddard Space Flight Center de la NASA à Greenbelt, dans le Maryland. « C’est deux fois et demie le volume perdu dans le lac Érié.

La baisse de la disponibilité mondiale en eau douce signalée dans l’étude a commencé par une grande sécheresse dans le nord et le centre du Brésil, suivie peu après par une série de grandes sécheresses en Australasie, en Amérique du Sud, en Amérique du Nord, en Europe et en Afrique. La hausse des températures océaniques dans le Pacifique tropical de la fin 2014 à 2016, qui a culminé avec l’un des événements El Niño les plus importants depuis 1950, a entraîné des changements dans les courants-jets atmosphériques qui ont modifié les conditions météorologiques et les précipitations dans le monde entier.

Cependant, même après la disparition d’El Niño, l’eau douce mondiale ne s’est pas rétablie. En fait, signalent les chercheurs, 13 des 30 sécheresses les plus intenses observées se sont produites depuis janvier 2015.

Selon le météorologue Michael Bosilovich, du centre Goddard de la NASA, le réchauffement de la planète fait que l’atmosphère retient davantage de vapeur d’eau, ce qui se traduit par des précipitations plus extrêmes. Si les précipitations annuelles et les chutes de neige ne changent pas radicalement, les périodes prolongées entre les fortes précipitations permettent au sol de s’assécher et de se compacter. Cela réduit la quantité d’eau que le sol peut absorber lorsqu’il pleut.

« Le problème des précipitations extrêmes est que l’eau finit par s’écouler au lieu d’être absorbée et de reconstituer les réserves d’eau souterraine ».

À l’échelle mondiale, les niveaux d’eau douce sont restés constamment bas depuis le phénomène El Niño de 2014-2016, tandis qu’une plus grande quantité d’eau reste piégée dans l’atmosphère sous forme de vapeur d’eau.

« La hausse des températures augmente à la fois la hausse des températures, l’évaporation des eaux de surface dans l’atmosphère et la capacité de rétention d’eau de l’atmosphère, ce qui accroît la fréquence et l’intensité des conditions de sécheresse ».

Bien qu’il y ait des raisons de penser que la chute brutale de l’eau douce est en grande partie due au réchauffement climatique, il peut être difficile d’établir un lien définitif entre les deux facteurs. Les prévisions climatiques comme les mesures et modèles les utilisant, sont toujours imparfaits.

Référence

Matthew Rodell et al, An Abrupt Decline in Global Terrestrial Water Storage and Its Relationship with Sea Level Change, Surveys in Geophysics (2024). 

https://link.springer.com/article/10.1007/s10712-024-0986

As observed by the Gravity Recovery and Climate Experiment (GRACE) and GRACE Follow On (GRACE-FO) missions, global terrestrial water storage (TWS), excluding ice sheets and glaciers, declined rapidly between May 2014 and March 2016. By 2023, it had not yet recovered, with the upper end of its range remaining 1 cm equivalent height of water below the upper end of the earlier range. Beginning with a record-setting drought in northeastern South America, a series of droughts on five continents helped to prevent global TWS from rebounding. While back-to-back El Niño events are largely responsible for the South American drought and others in the 2014–2016 timeframe, the possibility exists that global warming has contributed to a net drying of the land since then, through enhanced evapotranspiration and increasing frequency and intensity of drought. Corollary to the decline in global TWS since 2015 has been a rise in barystatic sea level (i.e., global mean ocean mass). However, we find no evidence that it is anything other than a coincidence that, also in 2015, two estimates of barystatic sea level change, one from GRACE/FO and the other from a combination of satellite altimetry and Argo float ocean temperature measurements, began to diverge. Herein, we discuss both the mechanisms that account for the abrupt decline in terrestrial water storage and the possible explanations for the divergence of the barystatic sea level change estimates.

22/11/2024 Pour un futur collisionneur circulaire au CERN

Un demi-siècle après sa présentation, le Modèle Standard de la Physique des Particules reste une bonne description mathématique de la Matière visible dans l’univers et de ses interactions https://fr.wikipedia.org/wiki/Mod%C3%A8le_standard_de_la_physique_des_particules

Il a été élaboré après un grand nombre de mesures précises réalisées au Large Electron Positron Collider (LEP), du Centre Européen de Recherche Nucléaire CERN situé près de Genève et depuis désaffecté https://home.cern/science/accelerators/large-electron-positron-collider

La découverte du Boson de Higgs au Grand Collisionneur de Hadrons du CERN https://home.cern/fr/science/accelerators/large-hadron-collider renforce le besoin de l’installation par le CERN d’un futur Collisionneur Circulaire (Future Circular Collider FCC) qui prendrait le relais du LHC après la mise en sommeil de celui-ci

Deux études dont on trouve ci-dessous les références sont désormais disponibles pour préciser ce projet :

L’étude sur un Futur collisionneur circulaire (étude FCC) a pour but la conception de collisionneurs de particules haute performance qui pourraient succéder au LHC après la fin de son exploitation à haute luminosité.

L’étude de faisabilité du FCC en cours, dont l’achèvement est prévu en 2025, vise à déterminer la viabilité technique et financière du FCC au CERN, en s’intéressant en particulier aux aspects géologiques, à l’impact environnemental, à la conception des infrastructures, au génie civil et aux détecteurs, ainsi qu’à la R&D sur les technologies devant assurer l’efficience et la durabilité des collisionneurs proposés.

Prévisions du projet

Le projet prévoit un nouveau tunnel d’une circonférence de 90,7 km, d’une profondeur moyenne de 200 m, et huit sites en surface pour réaliser au plus quatre expériences. Le tunnel abriterait initialement le FCC-ee, un collisionneur électron-positon permettant des mesures de précision dans le cadre d’un programme de recherche mené sur une période 15 ans à compter du milieu de la décennie 2040. Une deuxième machine, le FCC-hh, serait alors installée dans le même tunnel, réutilisant ainsi l’infrastructure existante, comme lorsque le LHC a remplacé le LEP. Le FCC-hh vise à atteindre des énergies de collision de 100 TeV, en faisant entrer en collision des protons et également des ions lourds ; il pourrait être en service jusqu’à la fin du XXIesiècle. 

Calendrier indicatif :

  • 2025 : achèvement de l’étude de faisabilité du FCC
  • 2027–2028 : décision des États membres du CERN et des partenaires internationaux
  • Décennie 2030 : début de la construction
  • Milieu de la décennie 2040 : le FCC-ee entre en service pour une durée d’environ 15 ans
  • Décennie 2070 : le FCC-hh entre en service pour une durée d’environ 25 ans 

Rappel historique : la proposition scientifique du LHC a été présentée en 1984 ; il a fallu 10 ans pour que le projet soit approuvé, et 25 ans pour que les aimants soient développés et installés.

21/11/2024 Du volcanisme actif sur Vénus

Il est pratiquement impossible depuis la Terre d’observer la surface de notre voisine, la planète Vénus. Ceci tient à l’épaisse couche de nuages qui la recouvre en permanence. L’atmosphère de Vénus a été découverte en 1761 par le polymathe russe Mikhaïl Lomonossov. Elle est plus dense et plus chaude que celle de la Terre. La température et la pression à la surface sont respectivement de 740 kelvins (467 °C) et 93 bar.

Des nuages opaques faits d’acide sulfurique se trouvent dans l’atmosphère, rendant l’observation optique de la surface impossible. Les informations concernant la topographie de Vénus ont été obtenues exclusivement par image radar. Les principaux gaz atmosphériques de Vénus sont le dioxyde de carbone et le diazote. Les autres composants sont présents seulement sous forme de trace. (wikipedia)

L’atmosphère de Vénus est en état de super-rotation. La totalité de l’atmosphère accomplit une circonvolution de la planète en seulement quatre jours terrestres.

Malgré les conditions difficiles existant à la surface, la pression et la température atmosphérique à environ 50 km au-dessus de la surface de la planète sont presque les mêmes que celles de la Terre, faisant de sa haute atmosphère la zone la plus comparable aux conditions terrestres existant dans le Système solaire

Le jour sidéral de Vénus est de 243 jours terrestres. Les vents soufflent à près de 100 m/s. Près de chaque pôle se trouve une structure anticyclonique  appelée vortex polaire. Chaque vortex a deux centres et présente une forme en S caractéristique (wikipedia)

Vénus, au contraire de Mars, est volcaniquement très active. Mais ceci n’a pu être observé qu’entre 1990 et 1994, dans le cadre de la mission américaine Apollo. Le satellite de la Nasa Magellan y avait utilisé son radar pour cartographier en détail la surface de Vénus. Ce travail a généré des quantités considérables d’images qui n’ont pu être analysées que récemment par de puissants calculateurs.


Ces résultats viennent d’être présentés le 15 mars 2024 à la Lunar and Planetary Conference de Houston (LPSC 2024 – Lunar and Planetary Science Conference https://www.hou.usra.edu/meetings/lpsc2023/

En examinant des zones de la surface de Vénus qu’ils estimaient pouvoir être volcaniquement les plus actives, les chercheurs trouvèrent un cratère participant du système volcanique Maat Mons où se trouve un volcan de 8.000 m, le plus élevé de la planète et toujours actif. Ils y identifièrent un cratère et ce qui leur parut être des coulées de lave résultant d’éruptions volcaniques.

Constater que Vénus est au moins localement, volcaniquement active, est particulièrement utile au moment où les satellites de l’ESA Envision et Veritas de la Nasa préparent des missions visant à mieux connaître, grâce au radar et à la spectroscopie, la surface et le sous-sol de la planète.

Référence

Share on Surface changes observed on a Venusian volcano during the Magellan mission

Science
15 Mar 2023

Vol 379, Issue 6638 pp. 1205-1208

DOI: 10.1126/science.abm7735

Signs of volcanic activity on Venus

Numerous volcanoes have been identified on the surface of Venus, but none has been observed to erupt, so it has been unclear whether volcanic activity has ceased. Herrick and Hensley examined locations on Venus that were observed two or three times by the radar instrument on the Magellan spacecraft when it was searching for changes between the images caused by ongoing volcanic activity. The authors identified a volcanic vent that enlarged and changed shape in the 8-month gap between two radar images and a possible lava flow running downhill from the vent. The results are interpreted as active volcanism on Venus. —KTS

Abstract

Venus has a geologically young surface, but it is unknown whether it has ongoing active volcanism. From 1990 to 1992, the Magellan spacecraft imaged the planet’s surface, using synthetic aperture radar. We examined volcanic areas on Venus that were imaged two or three times by Magellan and identified an ~2.2-square-kilometer volcanic vent that changed shape in the 8-month interval between two radar images. Additional volcanic flows downhill from the vent are visible in the second-epoch images, although we cannot rule out that they were present but invisible in the first epoch because of differences in imaging geometry. We interpret these results as evidence of ongoing volcanic activity on Venus.

21/11/2024 L’équation de Drake

L’équation de Drake ou formule de Drake, est une proposition mathématique qui estime le nombre potentiel de civilisations extraterrestre dans notre galaxien avec lesquelles nous pourrions entrer en contact. Le principal objet de cette équations est de déterminer ces facteurs, afin de connaître le nombre probable de ces civilisations. (source Wikipedia)

Cette formule a été suggérée par l’astronome américain Frank Drake en 1961 et concerne les sciences telles que l’exobiologie, la futurobiologie, l’astrosociologie, ainsi que le projet SETI.

Dans l’état actuel de nos connaissances, l’estimation de la plupart des paramètres de la formule reste très incertaine, si bien qu’en fonction des choix adoptés, le résultat peut être bien inférieur à 1 (auquel cas nous serions probablement les seuls êtres technologiquement avancés dans la Galaxie), ou au contraire atteindre plusieurs centaines ou milliers voire davantage.

Le principal intérêt de cette formule est donc, pour l’instant, de montrer qu’une question semblant relever de la science fiction peut être appréhendée de façon scientifique, et ramenée à l’estimation de paramètres astronomiques ou probabilistes définis.

Sept paramètres

L’équation de Drake dit que le nombre N probable de civilisations dans notre galaxie est égal au produit de sept paramètres :

N=R∗ × fp × ne × fl × fi × fc × L

  • R* est le nombre d’étoiles qui se forment annuellement dans notre galaxie ;
  • fp est la part des étoiles dotées de planètes ;
  • ne est l’espérance du nombre de planètes potentiellement propices à la vie par étoile ;
  • fl est la part de ces planètes où la vie apparaît effectivement ;
  • fi est la part de ces planètes où apparaît la vie intelligente ;
  • fc est la part de ces planètes capables et désireuses de communiquer ;
  • L est la durée de vie moyenne d’une civilisation, en années.

Ainsi, avec N>1 nous ne sommes probablement pas seuls. Si N est suffisamment grand, nous pourrions entrer en contact avec les civilisations extraterrestres les plus proches (une distance de x années-lumière implique un temps d’acheminement des signaux de x années).

Les scientifiques, de nos jours, ont des désaccords considérables sur les valeurs que peuvent prendre ces paramètres. Les valeurs utilisées par Drake et ses collègues en 1961 sont,

  • R* = 10 /an ;
  • fp = 0,5 ;
  • ne = 2 ;
  • fl = 1 ;
  • fi = fc = 0,01 ;
  • L = 10 000 ans.

Ce qui donne N = 10 civilisations en mesure de communiquer dans la Galaxie

Discussion

La valeur de R* est la moins discutable.

Celle de fp est plus incertaine mais plus constante que les autres valeurs.

Avant la découverte de nombreuses exoplanètes au début des années 2000, les scientifiques pensaient que ne était plus importante, mais la découverte de nombreuses géantes gazeuses aux orbites proches de leur étoile sème le doute sur les planètes qui peuvent être propices à une vie aussi rapprochée de leur étoile.

D’autres font cependant observer que l’échantillon des exoplanètes découvertes jusqu’à présent n’est absolument pas représentatif : il est normal de commencer par la détection des objets les plus gros, et les exoplanètes telluriques (rocheuses, semblables à la Terre) restent à découvrir.

De plus, la plupart des étoiles de notre galaxie sont des naines rouges, qui possèdent un faible rayonnement ultraviolet, rayonnement qui a contribué à l’évolution de la vie terrestre. Par contre, elles possèdent un violent rayonnement, principalement en rayons X, non favorable à la vie telle que nous la connaissons (des simulations suggèrent également que ce rayonnement érode l’atmosphère des planètes). La possibilité de vie sur des satellites de planètes géantes gazeuses (par exemple Europe, le satellite de Jupiter) renforce de manière incertaine ce cas de figure.

Au regard de la vie sur Terre, il est plausible que fl soit proche de un car la vie sur Terre semble avoir commencé presque immédiatement après que les conditions l’ont rendue possible, suggérant que l’abiogenèse est relativement facile une fois que les conditions sont favorables. Par ailleurs, on découvre sur Terre de plus en plus d’organismes vivants dits extrémophiles parvenant à survivre dans des conditions extrêmes (fonds marins, caldéras, environnement soufrés, etc.) Ce facteur n’en reste pas moins très discutable.

Une donnée qui aurait un impact majeur serait la présence controversée de vie (primitive) sur Mars indépendamment de la vie sur Terre, plaiderait en faveur d’une valeur élevée pour ce facteur.

fi, fc et L sont plus petits que supposés fi a été modifié depuis la découverte du fait que l’orbite du système solaire dans la Galaxie est circulaire et est restée en dehors du bras de la Galaxie pendant des centaines de millions d’années, évitant les radiations des novas. En outre, les satellites rares comme la Lune semblent contribuer à la conservation de l’hydrogène en brisant la croûte terrestre, provoquant une magnétosphère, par vagues de chaleur et de mouvements, et stabilisant l’axe de rotation de la planète.

De plus, puisqu’il semble que la vie se soit développée  juste après la formation de la Terre, l’explosion cambrienne dans laquelle une grande diversité de formes de vie multicellulaires s’est transformée en êtres pluricellulaires, apparaît un temps considérable après la formation de la Terre, ce qui suggère la possibilité que des conditions particulières sont nécessaires pour que cela arrive. Des scénarios, comme la Terre boule de neige, ou la recherche parmi les événements d’extinction ont suggéré la possibilité quevie sur Terre soit relativement fragile. Une fois encore, la controverse sur le fait que la vie soit apparue sur Mars, puis y ait disparu, affecterait les estimations de ces facteurs.

L’astronome Carl Sagan a conjecturé que les valeurs de tous les facteurs, hormis celle de la durée de vie d’une civilisation, doivent être relativement élevées, et le facteur déterminant est de savoir si une civilisation possède ou non la capacité technologique d’éviter l’auto-destruction. Dans le cas de Sagan, l’équation de Drake a été une motivation de son intérêt pour les problèmes environnementaux et son activité de communication sur les dangers des armes nucléaires.

À partir de l’année 2001, la valeur 50 peut être attribuée à R* avec le même degré de confiance dont Drake a usé en 1961 en lui donnant la valeur 10. ]La chose remarquable à propos de l’équation de Drake est que, en insérant des valeurs plausibles pour chaque paramètre, on obtient généralement une valeur N >> 1.

Ce résultat a été source de l’intérêt pour le projet SETI concernant la recherche de vies extraterrestres. Cependant, cela est en conflit avec la valeur observée de N = 1, soit une seule forme de vie intelligente dans la Voie lactée, la nôtre.

Ce conflit est aussi formulé dans le paradoxe de Fermi, celui-ci ayant été le premier à suggérer que notre compréhension de ce qu’est une valeur « conservative » (prudente) pour quelques paramètres peut être excessivement optimiste, ou que quelques autres facteurs peuvent intervenir en ce qui concerne la destruction d’une vie intelligente.

D’autres hypothèses donnent des valeurs de N inférieures à 1, mais quelques observateurs croient que c’est encore compatible avec les observations dues au principe anthropique : peu importe combien est basse la probabilité qu’une  galaxie donnée ait une vie intelligente, la galaxie dans laquelle nous nous trouvons doit avoir au moins par définition une espèce intelligente. Il pourrait y avoir des centaines de galaxies dans notre amas sans aucune vie intelligente, mais évidemment nous ne sommes pas dans ces galaxies pour observer ce fait.

Estimations actuelles des paramètres de l’équation de Drake

On tentera ici de lister les meilleures estimations à l’époque actuelle (2004) pour les paramètres de l’équation de Drake ; ils sont susceptibles de changer si de meilleurs résultats sont trouvés.

fc est la fraction de ces planètes désireuses de communiquer

R* est le taux de formation de nouvelles étoiles dans notre galaxie → estimé par Drake à dix par an : R* = 10 an−1

fp est la fraction de ces étoiles possédant des planètes → estimé par Drake à 0,5

ne est le nombre moyen de planètes par étoile potentiellement propices à la vie (avec l’indice e pour earth-like (« semblable à la Terre »)) → estimé par Drake à 2

fl est la fraction de ces planètes sur lesquelles la vie apparaît effectivement (avec l’indice l pour life (« vie »)) → estimé par Drake à 1. En 2002Charles H. Lineweaver et Tamara M. Davis (de l’université de Nouvelle-Galles du Sud et avec le Centre australien d’astrobiologie) ont estimé fl > 0,33 utilisant un argument statistique basé sur le temps qu’a mis la vie pour se développer sur Terre. Avec un temps déterminé approximativement 10 % des systèmes planétaires dans notre galaxie sont propices à la vie, ayant des éléments lourds, étant loin des supernovas et étant stables dans leur relations pendant une période suffisante.

fi est la fraction de ces planètes sur lesquelles apparaît une vie intelligente → estimé par Drake à 0,01. Cependant, les systèmes planétaires dans l’orbite galactique avec une exposition aux radiations aussi basse que le Système solaire sont plus de 100 000 fois plus rares.

fc est la fraction de ces planètes désireuses de communiquer



20/11/2024 Einstein s’est-il trompé?




La théorie de la relativité générale d’Einstein prédit que l’expansion de l’Univers ralentit avec le temps. Or, depuis 1998, on sait que l’expansion s’accélère depuis environ 5 milliards d’années. Il y a pour l’instant deux façons de résoudre ce problème : invoquer l’existence d’une énergie sombre invisible ou réviser les lois de la gravité à très grande échelle. Laquelle est la bonne ? Les deux sont-elles envisageables ? C’est ce que cherchent les cosmologistes depuis une trentaine d’années.

Dans le cadre d’une recherche récente dite Dark Energy Survey https://www.darkenergysurvey.org/ , une nouvelle étude a comparé les déformations de l’espace et du temps causées par les galaxies sur plusieurs milliards d’années. Résultat : les observations lointaines confirment Einstein, mais à des époques plus récentes, entre 3,5 et 5 milliards d’années, un écart apparaît. Ce désaccord est-il suffisant pour rejeter la relativité générale ?

Nous publions ci-dessous les références et l’abstract d’une étude qui vient de paraitre dans Nature Communications

  • Article
  • Published: 11 November 2024
Measurement of the Weyl potential evolution from the first three years of dark energy survey data

Nature Communications 

volume 15, Article number: 9295 (2024) 

  • Abstract

The Weyl potential, which is the sum of the spatial and temporal distortions of the Universe’s geometry, provides a direct way of testing the theory of gravity and the validity of the ΛCDM (Lambda Cold Dark Matter) model. Here we present measurement of the Weyl potential at four redshifts bins using data from the first three years of observations of the Dark Energy Survey. We find that the measured Weyl potential is 2 σ, respectively 2.8 σ, below the ΛCDM predictions in the two lowest redshift bins. We show that these low values of the Weyl potential are at the origin of the tension between Cosmic Microwave Background measurements and weak lensing measurements, regarding the parameter σ8 which quantifies the clustering of matter. Interestingly, we find that the tension remains if no information from the Cosmic Microwave Background is used. Dark Energy Survey data on their own prefer a high value of the primordial fluctuations, together with a slow evolution of the Weyl potential. An important feature of our method is that the measurements of the Weyl potential are model-independent and can therefore be confronted with any theory of gravity, allowing efficient tests of models beyond General Relativity.

Note

A titre exceptionnel, nous proposons ci-dessous, vu la complexité du sujet, une traduction de l’abstract

On nomme potentiel de Weyl la somme des distorsions de la géométrie de l’Univers dues à l’espace et au temps. Ces données procurent une façon directe de tester la théorie de la gravité et la validité du modèle dit Lambda Cold Dark Matter (ΛCDM). Ici nous présentons des mesures du potentiel de Weyl  dans quatre séries de données intéressant la déviation vers le rouge correspondant à trois ans d’observation réalidées par la Dark Energy Survey https://www.darkenergysurvey.org/

Nous constatons que les potentiels de Weyl mesurés sont 2 σ, respectivement 2.8 σ en dessous des prédictions de la  ΛCDM dans les deux séries les plus basses de déviation vers le rouge. Nous montrons que ces valeurs basses du potentiel de Weyl sont à l’origine des tensions entre les mesures du CMB Cosmic Microwave Background et les faibles tensions observées concernant le paramètre σ8 qui quantifie la densité de matière. . Nous avons constaté avec intérêt que la tension demeure identique si le CMB est utilisé.

Les données concernant l’observation de la matière noire (Dark Energy survey) préfèrent donner une valeur haute aux fluctuations primordiales, en même temps qu’une évolution lente du potentiel de Weyl. Un point important de notre méthode est que les mesures sont indépendantes du modèle et peuvent donc être comparées à toute théorie de la gravit, ce qui permet des tests efficaces des modèles autres que la Gravité Générale.

19/11/2024 Découverte d’un tétard géant fossilisé

Des scientifiques de l’Université Maimonides à Buenos Aires ont découvert en Argentine la plus vieux fossile connu d’un tétard géant qui vivait il y a plus de 160 millions d’années soit 20 millions d’années plus tôt que le dernier tétard identifié.

Ils ont trouvé, imprimés sur une plaque de grès, des morceaux de son crane et de sa colonne vertébrale ainsi que des impressions de ses yeux et de ses nerfs

Mais la façon dont ces tétards pouvaient évoluer pour donner des grenouilles ou anoures n’est pas connue.

Référence

Article

Published: 30 October 2024

Nature

The oldest tadpole reveals evolutionary stability of the anuran life cycle

Mariana Chuliver, and others

Abstract

Anurans (anoures) are characterized by a biphasic life cycle, with an aquatic larval (tadpole) stage followed by an adult (frog) stage, both connected through the metamorphic period in which drastic morphological and physiological changes occur1. Extant tadpoles exhibit great morphological diversity and ecological relevance2, but their absence in the pre-Cretaceous fossil record (older than 145 million years) makes their origins and early evolution enigmatic. This contrasts with the postmetamorphic anuran fossil record that dates back to the Early Jurassic and with closely related species in the Late Triassic (around 217–213 million years ago (Ma))3. Here we report a late-stage tadpole of the stem-anuran Notobatrachus degiustoi from the Middle Jurassic of Patagonia (around 168–161 Ma). This finding has dual importance because it represents the oldest-known tadpole and, to our knowledge, the first stem-anuran larva. Its exquisite preservation, including soft tissues, shows features associated with the filter-feeding mechanism characteristic of extant tadpoles4,5. Notably, both N. degiustoi tadpole and adult reached a large size, demonstrating that tadpole gigantism occurred among stem-anurans. This new discovery reveals that a biphasic life cycle, with filter-feeding tadpoles inhabiting aquatic ephemeral environments, was already present in the early evolutionary history of stem-anurans and has remained stable for at least 161 million years

18/11.2024. Nucléaire français. Le programme Aval du futur d’Orano




Le 8 octobre 2024, Orano a officialisé la signature de quatre partenariats stratégiques dans le cadre de son programme Aval du futur. Cet événement a eu lieu sur le site de la Hague, réunissant des personnalités influentes dans le domaine du nucléaire. Ces partenariats incluent des entreprises de renom telles que Capgemini, Egis, ECIA – une entité d’Equans France – et SNEF-EKIUM.

Il s’agit pour Orano de moderniser ses usines de traitement et de recyclage d’ici 2040-2050, en collaboration avec des acteurs clés du secteur nucléaire.

Pourquoi ce programme Aval du futur?

Le programme a plusieurs objectifs

Renouvellement des infrastructures nucléaires


Le programme Aval du futur vise à renouveler les infrastructures de traitement et de recyclage des combustibles usés à l’horizon 2040-2050. Comme l’avait annoncé Orano lors d’une visite ministérielle en mars 2024, cette initiative est cruciale pour l’avenir énergétique du pays. En parallèle, l’entreprise continue de garantir le bon fonctionnement de ses installations existantes grâce à un programme de pérennité et de résilience, couvrant les sites de la Hague et de Melox.

Lancement de nouvelles usines

L’un des axes majeurs de ce programme est le lancement d’études pour une nouvelle usine de fabrication de combustibles MOX (Mixed Oxide Fuel) sur le site de la Hague. Cette usine devrait commencer sa production au début des années 2040. De plus, une nouvelle unité de traitement des combustibles usés est également prévue d’ici 2045-2050, renforçant ainsi la capacité de traitement d’Orano dans le secteur.

Stratégie d’expansion de l’activité d’ingénierie

Dans le cadre de ces projets ambitieux, Orano prévoit de doubler les effectifs de son activité d’ingénierie, passant de 2 000 à 4 000 collaborateurs au cours des cinq prochaines années. L’entreprise s’engage à établir des partenariats solides basés sur la co-construction avec des acteurs clés de l’industrie nucléaire. Cela répond à une anticipation de croissance dans le domaine de l’ingénierie, essentielle pour réaliser ces projets complexes.

Les enjeux du programme

Les enjeux du programme sont à la fois techniques et stratégiques. Orano cherche à renforcer sa position dans le secteur nucléaire tout en contribuant à la transition énergétique du pays. Grâce à ces partenariats, l’entreprise vise à s’assurer que ses infrastructures répondent aux exigences de sécurité et de durabilité, tout en innovant dans les technologies de recyclage.

En augmentant ses capacités de production et en innovant dans ses méthodes de recyclage, Orano s’engage à répondre aux attentes croissantes en matière de gestion des déchets nucléaires et de fabrication de combustibles. Cela implique non seulement un investissement financier important, mais aussi un engagement à long terme envers l’innovation et la durabilité.

_____________________________________

Rappel. Qui est Orano ?

En octobre 2011, une lettre anonyme révélait un projet de protocole d’accord négocié en 2010 entre EDF et son homologue chinois, CGN, pour s’associer dans leurs futurs projets de centrales nucléaires en France, en Chine et dans le monde. L’entreprise chinoise exigeait des transferts de technologies.

Cependant à l’époque ces technologies appartenaient à Areva. EDF ne faisait que construire et exploiter les centrales. Le Premier ministre François Fillon avait bloqué l’accord in extremis. Mais les négociations ont continué

La Chine projetait de construire 200 centrales dans les trente prochaines années, un marché de plus de 200 milliards d’euros. Cela pouvait justifier aux yeux d’EDFde céder quelques technologies, d’autant que cette manœuvre affaiblirait Areva, un rival encombrant alors qu’EDF se voulait le seul représentant du nucléaire français à l’international.

Pour sa part, Areva était une multinationale française du secteur de l’énergie entre 2001 et 2018, œuvrant principalement dans le domaine de l’industrie nucléaire dont elle était l’un des leaders mondiaux.

Le groupe était présent dans la totalité des secteurs du nucléaire civil :
 –cycle du combustible nucléaire (extraction, concentration, raffinage, conversion et enrichissement de l’uranium, fabrication et transport d’assemblage combustiblegestion et retraitement des déchets nucléaires) ;
-conception et construction de réacteur nucléaire (tel que l’EPR, l’Atmea1, ou le Kerena), –démantèlement nucléaire

L’entreprise s’est aussi ouverte aux énergies renouvelables, à la production d’hydrogène, au stockage d’énergie et au transport et à la distribution d’électricité.

L’histoire d’Areva est marquée par des difficultés financières ainsi que plusieurs affaires politico-financières entrainant des achats et sessions d’actifs, ainsi que de nombreuses restructurations internes.

En 2016, Areva, alors en grande difficulté comptable et ébranlée par plusieurs affaires politico-financières, a été restructurée en trois entités :
New NP anciennement Areva NP 
New Areva anciennement Areva NC et Areva Mines 
Areva S.A. une holding remplissant le rôle de structure de défaisance des activités « à risque » d’Areva : finalisation du chantier et délivrance de l’EPR d’Olkiluoto , exécutions des derniers projets d’énergies renouvelables d’Areva, et finalisation de la cession de New NP à EDF.

Enfin, en janvier 2018 New NP redevient Framatome en étant racheté par EDF, et New Areva devient Orano, marquant la fin du groupe Areva

Orano est ainsi une entreprise française détenue par l’État français. Elle est  spécialisée dans les combustibles nucléaires ;

Areva, restée pendant deux décennies leader mondial du secteur de l’énergie nucléaire  étant ébranlée par plusieurs affaires politico-financières, ses effectifs ont chuté de 78 % en une décennie : 76 000 salariés en 2010 puis 42 000 en 2014 et seulement 16 500 en 2020 dans la nouvelle entreprise Orano. EN 2010, le gouvernement avait contraint Areva à la vente à Alstom  de sa très rentable Areva T&D, convoitée depuis 2006 par Alstom et Bouygues.

En 2016, la société New Areva est créée pour regrouper les activités relatives au combustible nucléaire : extraction de l’uranium à la mine, concentration, raffinage, conversion et enrichissement de l’uranium, fabrication d’assemblages de combustibles nucléairestransport des combustibles nucléairestraitement des combustibles nucléaires usésdémantèlement nucléaire et gestion des déchets radioactifs. Le 23 janvier 2018, New Areva devient Orano.

Grâce au photon unique, l’ordinateur quantique enfin miniaturisé

Publié par Cédric le 17/11/2024 à 08:00
Auteur de l’article: Cédric DEPOND
Source: Physical Review Applied

La miniaturisation des ordinateurs quantiques progresse rapidement, et des chercheurs viennent de franchir une nouvelle étape en développant un ordinateur quantique basé sur un seul photon, promettant de bouleverser le domaine.

Un photon unique pour calculer ? C’est le challenge relevé par des scientifiques taïwanais, qui ont mis au point une machine capable de réaliser des calculs grâce à la lumière, sans nécessiter un refroidissement extrême. Les ordinateurs quantiques traditionnels utilisent des qubits capables de superposition quantique, mais ils exigent des températures proches du zéro absolu, un obstacle majeur. Ce nouvel appareil propose une approche photonique innovante: un unique photon, guidé dans une fibre optique, stocke et traite des données dans 32 états quantiques différents, éliminant ainsi le besoin de températures extrêmes.

La technologie photonique offre une alternative énergétique plus efficace, sans l’encombrement des réfrigérateurs quantiques massifs. Ce prototype ouvre la voie à des ordinateurs quantiques compacts, adaptés aux environnements courants.

Comparé aux qubits basés sur des ions piégés, ce dispositif est plus stable. Ces qubits sont très sensibles aux perturbations et nécessitent des systèmes de refroidissement et des lasers sophistiqués. Dans ce nouvel ordinateur, de la taille d’une boîte, la lumière assure le calcul, et ses 32 états quantiques augmentent considérablement sa puissance de traitement tout en restant miniaturisé.

Les applications potentielles sont vastes. Cette innovation pourrait transformer des domaines comme la logistique, l’intelligence artificielle, la sécurité des données et l’industrie pharmaceutique.

D’autres avancées sont attendues. L’équipe espère augmenter encore la capacité de calcul afin de s’attaquer à des problèmes plus complexes, tout en développant des réseaux de communication quantiques.

Qu’est-ce qu’un ordinateur quantique ?

Un ordinateur quantique utilise les principes de la mécanique quantique pour exécuter des calculs d’une manière fondamentalement différente des ordinateurs classiques. Contrairement aux bits, qui prennent la valeur 0 ou 1, les qubits exploitent des phénomènes comme la superposition, leur permettant d’exister dans plusieurs états simultanément. Cette capacité permet un traitement parallèle des données, inatteignable par les systèmes classiques.

Les qubits tirent parti de l’intrication, un phénomène où deux qubits, même très éloignés, restent liés. Si l’état de l’un change, l’autre s’ajuste instantanément, quelle que soit la distance. Grâce à cette interconnexion, un ordinateur quantique peut exécuter des calculs complexes, comme la modélisation moléculaire ou le cryptage, nécessitant une puissance consdérable.

Pour qu’un ordinateur quantique soit efficace, les qubits doivent rester stables. La plupart des systèmes nécessitent des températures proches du zéro absolu (-273 °C) pour limiter les perturbations, ce qui implique une infrastructure coûteuse et volumineuse. Toutefois, de nouvelles approches comme l’informatique photonique, qui utilise des photons à température ambiante, offrent des solutions prometteuses pour rendre cette technologie plus accessible.

Référence

Implementation of Shor’s algorithm with a single photon in 32 dimensions

Hao-Cheng Weng and Chih-Sung Chuu

Phys. Rev. Applied 22, 034003 – Published 3 September 2024

Abstract

Photonics has been a promising platform for implementing quantum technologies owing to its scalability and robustness. In this paper, we demonstrate the encoding of information in 32 time bins or dimensions of a single photon. A practical scheme for manipulating the single photon in high dimensions is experimentally realized to implement a compiled version of Shor’s algorithm on a single photon. Our work demonstrates the powerful information-processing capacity of a high-dimensional quantum system for complex quantum information task

18/11/2024 Trump et Mars

Donald Trump dédaignerait-il de rester dans l’histoire comme celui grâce auquel l’espèce humaine se sera établie durablement sur la planète Mars?

Il a répété durant sa campagne électorale qu’il espérait bien que l’Homme marcherait sur Mars avant la fin de son second mandat. Voulait-il seulement faire plaisir à son ami Elon Musk, ou une stratégie se cache-t-elle derrière ses propos ? Un tel changement de cap aurait des implications politiques et géopolitiques profondes.

Viser Mars signifierait sans doute abandonner l’actuel programme lunaire dit Artemis ? Or abandonner Artemis voudrait dire renoncer à la station spatiale Gateway, qui devait être mise en orbite autour de la Lune dans les trois prochaines années. Cela voudrait également dire que les États-Unis laissent le retour sur la Lune aux Chinois. On sait qu’il existe des ressources précieuses sur la Lune, par exemple de l’hélium-3, très coûteux et utile à la fusion nucléaire, ainsi que de l’eau, une denrée recherchée dans l’espace. C’est pour cette raison que le pôle Sud lunaire est visé par le programme Artemis.

Trump est-il prêt à laisser planter le drapeau chinois sur la Lune pour devenir le président qui aura financé le plus incroyable programme spatial de tous les temps avec les premiers pas de l’Homme sur Mars ? Il faut rappeler que si un voyage vers la Lune est à portée technologique, celui vers Mars ne l’est pas encore.

Pour y parvenir sous quatre ans, il faudrait engager des dépenses comparables à celles d’un effort de guerre majeur. Mais l’Amérique de Donald Trump est-elle encore celle commandée par le Military–industrial complex ou celle qui n’est plus motivée que par l’antiaméricanisme de façade des jeunes élites?