25/08/2024 De gigantesques soleils noirs se formeraient au cœur des galaxies




On donne depuis presque 50 ans le nom de soleil noir à ce qui se produit lorsqu’une étoile passe trop près d’un trou noir supermassif. Le phénomène ne peut pas être observé directement mais a donné lieu à des simulations informatiques dont certaines des prédictions ont vérifiées, mais dont d’autres ne l’ont pas encore été. Une nouvelle simulation pourrait apporter la clé de l’énigme en montrant qu’il se formerait une enveloppe de matière chaude quasi sphérique autour de ces astres compacts se trouvant au cœur des galaxies, produisant ce que l’on peut appeler des soleils noirs.

Daniel Price, professeur d’astrophysique à l’université Monash en
Australie a écrit un article dans lequel il explique les résultats
qu’il a obtenus avec des collègues. L’article est en accès libre
sur arXiv.  Nous en donnons ici un résumé.

______________________________________

L’article précise la description de ce que l’on nomme  Tidal disruption event (ou TDE), ce qui peut se traduire par « évènement de rupture par effet de
marée ». Un TDE se produit avec une étoile dont la trajectoire
est trop rapprochée d’un trou noir supermassif. Les forces de marée du trou noir compriment l’étoile jusqu’à produire ce que l’on a nommé une crêpe stellaire en raison de la forme de la déformation causée par ces forces. L’étoile peut finir par exploser et ses débris sont avalés par le trou noir.

Les TDE ont été théorisés pour la première fois par Jack G. Hills, Juhan Frank et Martin Rees au cours des années 1970 sur une idée de Lynden-Bell (1969) qui voulait en faire la source d’énergie des quasars et des noyaux actifs des galaxies de Seyfert.

Mais il a fallu attendre le début des années 1980 pour que des investigations sérieuses conduisant à des modèles et des simulations numériques précises soient entreprises. À cet égard, on peut considérer que Jean-Pierre Luminet et Brandon Carter, tous deux à l’Observatoire de Paris à cette époque, en sont les pionniers, comme le montre une publication dans le journal Nature en 1982, suivie d’une autre dans Astronomy & Astrophysics en 1983. Les deux astrophysiciens relativistes ont montré dans cet article qu’un TDE avec un trou noir supermassif conduisait les forces de marée à comprimer l’étoile jusqu’à produire « une crêpe stellaire ». Un TDE peut aussi donner lieu à un processus de « spaghettification ».

Les crèpes stellaires

Mais, regardons de plus près ce qu’est le phénomène des crêpes stellaires. Pour mieux le comprendre, on peut commencer par remonter aux travaux d’Édouard Roche, le mathématicien et astronome français à l’origine de la limite de Roche. Elle exprime le fait qu’il existe une distance limite d’approche d’un petit corps céleste au voisinage d’un corps plus grand.

L’écrasement d’une étoile par les forces de marée d’un trou noir géant se traduit par la déformation progressive de l’étoile dans son plan orbital puis dans la direction perpendiculaire (vue par la tranche). Initialement, les forces de marée sont faibles et l’étoile reste pratiquement sphérique. Puis l’étoile pénètre dans le rayon de marée et est dès lors condamnée. Sa configuration se rapproche d’abord de celle d’un cigare, puis d’une crêpe. Plus loin, sur son orbite, l’étoile finit par se dissocier en fragments gazeux.

En deçà, les forces de marée du corps principal sont si importantes qu’elles disloquent le petit corps, incapable de maintenir sa cohésion sous sa propre gravité. Originellement limitée aux planètes, la notion de limite de Roche a été étendue à la stabilité des amas globulaires et des petites galaxies approchant des grandes – on parle alors de rayon de marée. Cette même notion de rayon de marée est utilisée aussi lorsqu’une étoile approche d’un trou noir.

On peut estimer qu’il se produit environ un TDE par galaxie tous les 100 ans, ce qui veut dire qu’avec ses capacités à surveiller un grand nombre de galaxies à la recherche d’événements transitoires, comme des supernovae, le Large Synoptic Survey Telescope (LSST) – qui a récemment été rebaptisé en Observatoire Vera-C.-Rubin (Vera C. Rubin Observatory) – pourrait en voir quelques milliers par an dans le domaine visible.

Toutefois, selon Daniel Price, un article de Martin Rees en 1988 allait plus tard conduire à une énigme : « la théorie de Rees prévoyait que la moitié des débris de l’étoile resteraient liés au trou noir, entrant en collision avec lui-même pour former un tourbillon de matière chaude et lumineuse connu sous le nom de disque d’accrétion. Le disque serait si chaud qu’il devrait émettre une quantité abondante de rayons X.

Mais, à la surprise générale, la plupart des plus de 100 événements de perturbation par marée potentiels découverts à ce jour se sont révélés briller principalement dans les longueurs d’onde visibles, et non dans les rayons X. Les températures observées dans les débris ne sont que de 10 000 degrés Celsius. C’est comme la surface d’une étoile modérément chaude, non pas les millions de degrés attendus du gaz chaud autour d’un trou noir supermassif.

La taille déduite de la matière brillante autour du trou noir est encore plus étrange : plusieurs fois plus grande que notre Système solaire   et s’étendant rapidement loin du trou noir à quelques pour cent de la vitesse de la lumière

Sachant qu’un trou noir d’une masse d’un million de masses solaires est à peine plus grand que notr Soleil, la taille énorme de la boule de matière brillante déduite des observations a été une surprise totale.

Les astrophysiciens ont émis l’hypothèse que le trou noir devait être en quelque sorte étouffé par la matière lors de la perturbation pour expliquer l’absence d’émission de rayons X, mais jusqu’à présent personne n’a été en mesure de montrer comment cela se produit réellement. C’est là que nos simulations entrent en jeu ».

Price et ses collègues ont donc décidé d’utiliser l’un des superordinateurs les plus puissants d’Australie pour y voir plus clair en ce qui concerne le processus d’accrétion de la matière de l’étoile subissant un TDE. Il leur a fallu  plus d’un an de calculs pour obtenir des réponses. Les images extraites de la simulation montrent ce qui se passe sur une année lorsqu’une étoile de la masse du Soleil subit un TDE avec un trou noir supermassif de Kerr en rotation, contenant de l’ordre du million de masses solaires et décrit dans le cadre de la théorie de la relativité générale

Il apparaît maintenant que 1 % seulement de la matière qui tombe vers le trou noir génère tellement de chaleur que cela alimente un flux de rayonnement extrêmement puissant et presque sphérique. En conséquence, ce n’est pas vraiment un disque d’accrétion qui se forme mais l’équivalent de l’enveloppe d’une étoile autour d’un corps qui serait un trou noir

Ce qui fait dire à Daniel Price que « la nouvelle simulation révèle pourquoi les TDE ressemblent en réalité à une étoile de la taille du Système solaire qui se dilate à quelques pourcents de la vitesse de la lumière, alimentée par un trou noir à l’intérieur. En fait, on pourrait même l’appeler un soleil-trou noir ».

Dans le film obtenu, c’est encore une étoile d’une masse solaire qui s’approche d’un trou noir sur une orbite marginalement liée (parabolique). La moitié de l’étoile se retrouve liée au trou noir. L’étoile s’étire encore en une longue ligne fine qui alimente le trou noir. Le résultat de cette alimentation est une boule de matière optiquement épaisse qui grandit autour du trou noir.

Ici, la visualisation montre une vue  de la bulle en expansion, avec la densité et la température à la dernière surface de diffusion. C’est plus ou moins ce qui est observé par les télescopes dans le visible : une boule de matière optiquement épaisse en expansion de 10 à 100 UA (unité astronomique) avec une température photosphérique d’environ 10 000 K et qui s’étend à des vitesses d’environ 10 000 km/s. La simulation permet donc d’expliquer certains des mystères clés de la raison pour laquelle les TDE sont observés principalement aux longueurs d’onde dans le visible.

D

Reference

[Subr2F2RENCEmitted on 14 Apr 2024 (v1), last revised 10 Jul 2024 (this version, v2)]

https://arxiv.org/abs/2404.09381

Eddington envelopes: The fate of stars on parabolic orbits tidally disrupted by supermassive black holes

 Wed, 10 Jul 2024 00:05:31 UTC (5,232 KB)

Daniel J. Price (Monash), David Liptai (Monash), Ilya Mandel (Monash), Joanna Shepherd (Monash), Giuseppe Lodato (Univ. Milano), Yuri Levin (Columbia)

Stars falling too close to massive black holes in the centres of galaxies can be torn apart by the strong tidal forces. Simulating the subsequent feeding of the black hole with disrupted material has proved challenging because of the range of timescales involved. Here we report a set of simulations that capture the relativistic disruption of the star, followed by one year of evolution of the returning debris stream. These reveal the formation of an expanding asymmetric bubble of material extending to hundreds of astronomical units — an outflowing Eddington envelope with an optically thick inner region. Such envelopes have been hypothesised as the reprocessing layer needed to explain optical/UV emission in tidal disruption events, but never produced self-consistently in a simulation. Our model broadly matches the observed light curves with low temperatures, faint luminosities, and line widths of 10,000–20,000 km




Cite as:arXiv:2404.09381 [astro-ph.HE]
 (or arXiv:2404.09381v2 [astro-ph.HE] for this version)
  https://doi.org/10.48550/arXiv.2404.09381


[v2] Wed, 10 Jul 2024 00:05:31 UTC (5,232 KB)


25/08/2024 Le Bayesian coule au mouillage. Que n’était-il enregistré aux Glénans ?

Les milliardaires feraient mieux de se tenir éloignés des choses de la mer. Ils n’ont aucun besoin de se faire construire de yachts. S’ils le font, pour impressionner les médias, ils n’ont aucun besoin de s’en servir. S’ils néanmoins ils veulent naviguer à l’occasion, ils doivent passer par une école de voile pour apprendre le minimum nécessaire à la conduite d’un voilier, tant à la mer qu’au mouillage. Compter sur un équipage salarié pour prendre des décisions incombant à un skipper ne provoquera que des catastrophes.

Dernier point : un bateau de plaisance, quelle que soit sa taille, ne doit être équipé que de petits hublots, pouvant être fermés hermétiquement, à la moindre menace de mauvais temps, tant à la mer qu’au mouillage.

NB : l’auteur de ces lignes a été plusieurs années propriétaire d’un voilier, cotre des Glénans type 1 sans moteur, mouillé au Havre (France). Merci à Hélène Vianney

Référence :

. article de Euronews https://fr.euronews.com/my-europe/2024/08/21/naufrage-du-yatch-bayesian-en-sicile-le-point-sur-ce-drame-deux-corps-retrouves

. Les Glénans. Site https://fr.wikipedia.org/wiki/Les_Gl%C3%A9nans

. Le cotre des Glénans type 1 https://fr.wikipedia.org/wiki/Cotre_des_Gl%C3%A9nans_type_I

25/08/2024 Après le réchauffement, le refroidissement

Il y a 56 millions d’années, les volcans ont relâché d’importantes quantités de dioxyde de carbone dans l’atmosphère. La Planète s’est alors réchauffée rapidement lors de cette période appelée le Maximum Thermique du passage Paléocène-Eocène (PETM). Les scientifiques comparent souvent cette période difficile pour la vie sur Terre, avec des extinctions de masse, du type de celle qui nous attend dans le futur, si les humains continuent à émettre autant de gaz à effet de serre.

L’université de l’Arizona a publié une étude dans la revue Proceedings of the National Academy of Sciences qui permet de visualiser avec précision sur un globe terrestre le niveau des températures et des précipitations durant cette période de Maximum Thermique. L’objectif est de montrer à quel point le climat est sensible aux émissions de dioxyde de carbone, des émissions qui sont actuellement en hausse continue depuis 250 ans.

Selon l’université, le PETM est un bon indicateur de ce qui attend l’humanité dans le futur si elle ne modifie pas drastiquement son comportement envers la Planète. Sans être non plus l’équivalent à 100 % du climat futur, car d’autres paramètres climatiques étaient différents à l’époque, le PETM rejoint tout de même beaucoup les prévisions futures alarmantes envisagées par le Giec dans son dernier rapport. Ces deux périodes, le PETM et notre climat futur, ont toutes les deux en commun un réchauffement plus rapide des pôles que le reste du monde appelé l’amplification polaire, des moussons plus pluvieuses sur les régions du monde concernées, des tempêtes hivernales plus fortes, moins de pluie sur les Tropiques.

Mais comment les paléoclimatologues ont-ils réussi à connaître le niveau des températures d’il y a plus de 50 millions d’années et les phénomènes météo de cette époque ? En analysant des fossiles tout d’abord, puis en effectuant des calculs et simulations sur les modèles de prévision climatique. Ils ont ainsi pu recréer une carte climatique de la Terre il y a 56 millions d’années, tout en prenant en compte la différence de localisation des continents à l’époque.

Les chercheurs estiment qu’à l’époque le niveau de dioxyde de carbone dans l’atmosphère était compris entre 850  ppm et 3.000 ppm. En comparaison, le niveau présent aujourd’hui est de 420 ppm, alors qu’il n’était que de 280 ppm avant la Révolution Industrielle. Pendant la période du PETM, les températures étaient 5 à 6 °C plus élevées sur le globe que celles de la période juste avant, ce qui montre à quel point l’augmentation du dioxyde de carbone a conduit à un réchauffement global rapide en l’espace de quelques milliers d’années.

Le dernier rapport du Giec prévoit un réchauffement du climat actuel de 2 à 5 °C si nos émissions de carbone doublent, une trajectoire vers laquelle nous nous dirigeons. L’étude des émissions de carbone au cours du PETM tend vers une évolution encore plus grave en cas de doublement de ce gaz à effet de serre : 5,7 à 7,4 °C de plus. L’étude montre finalement que le réchauffement climatique sera donc encore plus rapide que prévu si nos émissions de carbone continuent à augmenter au rythme actuel.

24/08/2024 Fusion nucléaire. Le vrai, le faux et l’incertain

Nous reprenons les principaux passages d’une étude du Breakthrough Institute

https://www.polytechnique-insights.com/tribunes/energie/fusion-nucleaire-le-vrai-le-faux-et-lincertain/

En bref
Cette énergie est susceptible de devenir essentielle pour le monde, mais il est difficile de savoir quand et comment cela se produira.

La croissance démographique et la demande d’énergie augmentant considérablement, les sources d’énergie propres représentent un vaste marché potentiel.

Aujourd’hui, la fusion nucléaire peut générer de l’énergie, mais elle n’est pas encore « rentable », car elle consomme plus d’énergie qu’elle n’en produit.

L’énergie de fusion nucléaire a le potentiel de fournir une énergie propre et pratiquement illimitée, mais avant que ce mode de production d’énergie puisse être déployé, de nombreuses avancées scientifiques sont encore nécessaires.

La fusion nucléaire nécessitera une surveillance appropriée et complète, et l’AIEA aura donc un rôle vital à jouer dans la supervision de ce développement.

Nous savons comment produire de l’énergie grâce à la fusion nucléaire

Vrai – La fusion nucléaire peut générer une énergie positive nette dans un cadre limité.

Le Laboratoire national Lawrence Livermore – National Ignition Facility (NIF), en Californie, l’a prouvé en 2022 avec son dispositif de fusion par allumage laser. L’installation NIF utilise 192 des lasers les plus puissants au monde pour envoyer jusqu’à 4 millions de joules d’énergie ultraviolette sur une cible de deutérium et de tritium.

Cette cible fait la taille approximative d’un grain de poivre et elle est suspendue dans un petit « four » à rayons X appelé Hohlraum. Ce dernier peut atteindre une température d’environ 3 millions de degrés Celsius lorsqu’il est touché par ces lasers surpuissants. Cette action fait l’imploser du combustible, créant ainsi les conditions nécessaires à la fusion nucléaire. Le 5 décembre 2022, le NIF a atteint le gain de cible, ce qui signifie que les 2,05 mégajoules d’énergie laser délivrés sur la cible ont généré 3,15 mégajoules d’énergie de fusion. La cible a produit plus d’énergie qu’elle n’en a absorbée. Ce point, appelé « allumage », a constitué une réelle avancée scientifique.

Cette réaction a créé de l’énergie, mais elle est loin d’être suffisante pour alimenter l’installation.

Faux. Dans l’ensemble, ce dispositif de fusion par allumage laser a subi une perte d’énergie nette substantielle. Pour donner une idée de l’échelle, les 1,1 mégajoules d’énergie nette de la cible représentent environ 0,306 kWh. À titre de comparaison, un foyer aux États-Unis consomme typiquement plus de 3 000 fois cette quantité d’énergie chaque mois. De plus, les scientifiques du NIF estiment que le fonctionnement de l’installation laser du NIF nécessite environ 100 fois plus d’énergie que la quantité d’énergie fournie par le laser à la cible elle-même.

On ne sait pas quand ni comment ce point crucial, appelé « gain d’ingénierie », sera atteint.

Vrai. À ce stade, les ingénieurs doivent s’efforcer de rendre ce dispositif encore plus efficace, afin de s’assurer qu’il produise plus d’énergie qu’il n’en consomme. L’un des moyens d’y parvenir serait de réduire la consommation d’énergie du dispositif par rapport à sa production, en fabriquant des composants moins énergivores, tels que des lasers ou des supraconducteurs.

Des changements tels que l’amélioration de l’isolation thermique ou la mise en place de commandes IA pourraient faire fonctionner les systèmes plus rapidement qu’un humain, ce qui serait très utile. D’autres gains d’énergie peuvent être réalisés : améliorer les matériaux et les composants de la machine pour permettre au système de fonctionner à des niveaux de puissance plus élevés. Pour ce faire, les ingénieurs pourraient inclure des matériaux capables de résister à des températures extrêmes et concevoir des aimants encore plus puissants afin de mieux confiner et contrôler le plasma utilisé dans les réactions de fusion. Une autre approche consiste à améliorer le processus qui capture et convertit l’énergie de la réaction de fusion en électricité.

La fusion nucléaire deviendra une source d’énergie propre et illimitée

Vrai – La fusion nucléaire est généralement considérée comme une énergie « propre ».

Elle produit beaucoup moins de « déchets » radioactifs que la fission. Toutefois, grâce aux technologies émergentes, il est possible de réutiliser les déchets de la fusion et de la fission. Néanmoins, comme les autres fissions nucléaires, la fusion nucléaire nécessitera une surveillance appropriée et complète. L’une des principales préoccupations est que la réaction pourrait être utilisée pour produire des matières fossiles utilisables dans des armes. Les machines de fusion nucléaire et les réactions connexes ne produisent pas directement de matières utiles pour les armes. La réaction crée cependant une énorme quantité de neutrons.

Par contre, ces neutrons pourraient contribuer à produire davantage de combustible pour la réaction de fusion – de nombreux modèles prévoient d’incorporer une « couverture de reproduction », c’est-à-dire une couche de matériaux qui sert d’isolant thermique, mais qui est également recouverte de matériaux capables de capturer les neutrons pour créer davantage de tritium. 

L’uranium ou le thorium pourraient également être placés dans certaines couvertures de reproduction. Le problème est que ces matériaux, une fois irradiés, pourraient générer de l’uranium 235 utilisable dans des armes nucléaires. Il existe des moyens physiques d’empêcher ce processus, notamment en exigeant l’utilisation de lithium 6 dans les modules de couverture. L’AIEA (Agence internationale de l’énergie atomique) aura un rôle primordial dans la surveillance ainsi que dans la mise en place de garanties de non-prolifération.

L’énergie de fusion peut être presque illimitée, mais cela ne se traduit pas nécessairement par une énergie inépuisable.

Faux . Certaines technologies d’énergie de fusion nucléaire en cours de développement pourraient, théoriquement, produire plus de combustibles qu’elles n’en consomment. Par conséquent, elles pourraient être pratiquement illimitées. Mais cela ne signifie pas qu’elles fourniraient l’énergie dont la société a besoin. La plupart des chercheurs s’attendent à ce que la construction et l’exploitation des premières centrales de fusion nucléaire soient très coûteuses. La question de savoir si la société serait disposée à payer pour faire fonctionner des réacteurs de fusion dispendieux dépendra de la manière dont la fusion nucléaire s’intégrera aux autres systèmes d’énergie propre. 

On ne sait toujours pas quand la fusion nucléaire commencera à alimenter le monde en énergie.

Incertain. La fusion nucléaire finira par fournir de l’énergie propre, au moins à certaines parties du monde. Cependant, il est peu probable que cette technologie soit prête à soutenir entièrement la transition vers l’abandon des combustibles à base de carbone. Ce retard pourrait la désavantager par rapport à d’autres produits adoptés très tôt et qui pourraient être déployés à plus grande échelle. Néanmoins, nous pourrions assister à une cascade d’avancées scientifiques et technologiques qui accélérerait rapidement les progrès de la fusion nucléaire. Il se peut aussi que nous devions attendre longtemps avant que la prochaine avancée n’émerge.

Les start-ups sont prêtes à se lancer sur le marché avec la fusion

Vrai – Les start-ups se disent prêtes à construire des installations pilotes commerciales. Plusieurs d’entre ont annoncé des calendriers très ambitieux. Helion, par exemple, a promis de commencer à produire de l’énergie à partir d’une centrale de fusion nucléaire d’ici 20281. Dans son rapport de 2023, la Fusion Industry Association a constaté que beaucoup pensent qu’une centrale de fusion nucléaire fournira de l’électricité au réseau avant 2035.

Les entreprises spécialisées dans la fusion nucléaire ont en effet réalisé des progrès itératifs et avancent vers le succès. Le NIF, qui a prouvé l’allumage de la fusion nucléaire, a fourni des données cruciales qui permettront d’orienter les programmes de recherche, en particulier ceux de fusion par allumage laser. Certaines entreprises ont également commencé à utiliser l’IA pour optimiser leur approche de la fusion nucléaire, et ont montré des résultats intéressants. Toutefois, progresser n’est pas la même chose que de disposer d’un produit fini.

Aucune start up n’a prouvé qu’elle avait atteint le stade de développement nécessaire pour lancer la fusion nucléaire sur le marché à court terme.

Vrai. Les start-ups doivent encore démontrer le gain énergétique net et le gain technique global de leurs systèmes. Elles doivent également apprendre à faire fonctionner leur réaction de fusion nucléaire à des échelles susceptibles de générer un profit. Et même si les entreprises de fusion nucléaire souhaitent fixer un calendrier pour la réalisation de ces étapes technologiques, il s’agit d’avancées scientifiques et technologiques qui ne peuvent pas être programmées.

Il y a aussi une affaire commerciale délicate à résoudre. La fusion nucléaire reste un investissement à très haut risque, car la technologie n’a pas encore fait ses preuves. Ce n’est pas comme investir dans les cellules solaires il y a 15 ans, lorsqu’elles avaient déjà un rendement de 20 %. C’est plutôt comme investir dans les cellules solaires il y a 40 ans, lorsqu’elles avaient un rendement de 1 % et que leur déploiement était très limité.

Les entreprises en phase de démarrage devront construire des installations pilotes pour prouver leur concept. Il sera probablement difficile de réunir suffisamment de capitaux pour construire ces installations. Les stations de première génération seront probablement onéreuses et peu fiables, mais cela fait partie de l’innovation.

Cependant, en supposant que nous nous éloignons des combustibles fossiles, que la croissance démographique augmente considérablement et que la demande d’énergie des pays en développement continue de croître, il existe un vaste marché potentiel pour toutes les sources d’énergie propres à l’avenir.

Marianne Guenot

23/08/2024 Comment vivre  enterré  sous la surface de la Lune

Il existe probablement un réseau dense de caves et de couloirs « enterrés » sous la surface de la Lune.

En effet, des chercheurs viennent de découvrir l’existence d’une immense grotte sous le sol de la Lune, accessible depuis la surface. Grâce à elle, les explorateurs seraient protégés des écarts extrêmes de température, des rayons cosmiques dangereux, du rayonnement solaire ou encore des pluies de micrométéorites qui rendent dangereux un séjour prolongé à la surface de notre satellite.

«Ces grottes étaient théorisées depuis plus d’un demi-siècle, selon Lorenzo Bruzzone, professeur à l’université de Trente et coauteur de l’étude parue dans Nature AstronomyMais c’est la toute première fois qu’on peut démontrer leur existence.»

Lui et ses collègues ont utilisé les données récoltées en 2010 par le Lunar Reconnaissance Orbiter (LRO), sonde spatiale de la Nasa pour inspecter la surface de la mer de la Tranquillité. Ce gigantesque bassin formé par des coulées de lave était le site d’alunissage d’Apollo 11 en 1969. En son sein, la plus grosse fosse que le LRO avait photographiée a suscité la curiosité des chercheurs de Trente.

Grâce à des simulations informatiques ils ont découvert la trace d’une caverne. Accessible grâce à une fosse ouverte mais tout de même située à 150 mètres de profondeur, elle mesurerait 45 mètres de large et 80 de long, soit l’équivalent de quatorze courts de tennis.

Les agences spatiales étudient déjà comment renforcer les murs et les plafonds de ces grottes pour les rendre habitables. Il faudra aussi surveiller leur activité sismique et prévoir des issues pour les astronautes en cas d’écroulements.

Au moins deux cents autres fosses ont été repérées sur la Lune, soit potentiellement autant d’entrées de grottes souterraines. «Le principal avantage des cavernes est qu’elles offrent le cadre d’une base humaine opérationnelle qui demanderait autrement un chantier complexe», selon Leonardo Carrer, l’auteur principal de l’étude.

Une autre inconnue est l’accès. Établir une base dans une grotte requerrait déjà «de descendre 125 mètres sur une pente abrupte où le moindre mouvement risquerait de projeter une avalanche de débris vers le fond», craint Robert Wagner, chercheur à l’université d’État de l’Arizona. «Il est certainement possible d’y entrer et d’en sortir, mais ça demanderait des infrastructures conséquentes.»

La preuve, s’il en fallait une, qu’il reste beaucoup de travail avant de pouvoir coloniser la Lune. Serait-ce un argument pour accélérer le processus? La NASA et l’ESA et  ne sont pas les seules intéressées  le programme spatial chinois enquête également sur la faisabilité d’une base à l’intérieur de ces tunnels de lave.

Référence

  1. nature astronomy  
  2. article
Radar evidence of an accessible cave conduit on the Moon below the Mare Tranquillitatis pit

Several potential subsurface openings have been observed on the surface of the Moon. These lunar pits are interesting in terms of science and for potential future habitation. However, it remains uncertain whether such pits provide access to cave conduits with extensive underground volumes. Here we analyse radar images of the Mare Tranquillitatis pit (MTP), an elliptical skylight with vertical or overhanging walls and a sloping pit floor that seems to extend further underground. The images were obtained by the Mini-RF instrument onboard the Lunar Reconnaissance Orbiter in 2010. We find that a portion of the radar reflections originating from the MTP can be attributed to a subsurface cave conduit tens of metres long, suggesting that the MTP leads to an accessible cave conduit beneath the Moon’s surface. This discovery suggests that the MTP is a promising site for a lunar base, as it offers shelter from the harsh surface environment and could support long-term human exploration of the Moon.

23/08/2024 Avancées dans le domaine de la fusion nucléaire

Celles-ci sont nombreuses. Elles sont souvent le fait de start-up. Nous y reviendrons.

Dans l’immédiat, signalons une annonce provenant de chercheurs du MIT. Ils estiment possible de construire un premier réacteur en une dizaine d’années

Pour parvenir à leurs fins, ils ont employé de nouveaux supraconducteurs, déjà disponibles dans le commerce. Ces supraconducteurs à base d’oxyde de baryum, de cuivre et de terres rares, et baptisés Rebco (rare-earth barium copper oxide), se présentent sous forme de rubans. De quoi permettre aux chercheurs du MIT de fabriquer des bobines génératrices de champs magnétiques particulièrement intenses, suffisamment pour confiner du plasma, la clé d’un réacteur à fusion nucléaire. Ils ont baptisé leur projet ARC, pour affordable, robust, compact (abordable, robuste et compact).

La fusion nucléaire consiste à faire fusionner deux noyaux atomiques légers, des noyaux d’hydrogène en l’occurrence. Or, les noyaux sont électriquement positifs et deux charges de même signe se repoussent. Seules des températures extrêmes, qui se compteraient en millions de degrés, peuvent accélérer les noyaux au point de leur permettre de casser la barrière dressée par les forces électromagnétiques.

Actuellement la plupart des scientifiques s’accordent à dire que la meilleure solution pour y parvenir est celle du tokamak, une boîte magnétique géante dans laquelle deux isotopes de l’hydrogène, le deutérium et le tritium, seraient confinés et maintenus à une température de quelque 150 millions de degrés. À cette température, la matière se présente sous la forme d’un plasma, un gaz extrêmement chaud et électriquement chargé. C’est ce qu’exige la fusion nucléaire.

Un prototype à grande échelle de ce type de réacteur est actuellement en cours de construction à Saint-Paul-lez-Durance, en Provence-Alpes-Côte d’Azur. Le projet Iter vise à valider la faisabilité scientifique et technologique de l’énergie de fusion et à ouvrir la voie à son exploitation industrielle. Au cœur de ce réacteur seront produits des noyaux d’hélium, des neutrons et de l’énergie. Les noyaux d’hélium, chargés, resteront confinés dans le tokamak sous l’effet du champ magnétique. 80 % de l’énergie produite sera portée par les neutrons, insensibles au champ magnétique. Ceux-ci transféreront leur énergie sous forme de chaleur aux parois du réacteur. Une chaleur qui sera, par la suite, utilisée pour produire vapeur et électricité.

La solution proposée par les chercheurs du MIT pour leur projet ARC repose sur les mêmes principes physiques. Cependant, basée sur des champs magnétiques bien plus intenses, elle permet de diminuer la taille du réacteur et, partant, son coût. Elle permet aussi d’envisager d’autres avancées. Les scientifiques ont en effet établi qu’en doublant l’intensité du champ magnétique appliqué, l’énergie produite pourrait être multipliée par 16 !

Avec un réacteur tel que l’ ARC, l’énergie produite serait 10 fois supérieure à celle que l’on attend en utilisant des supraconducteurs classiques. Ainsi, un réacteur d’un diamètre deux fois plus petit que celui d’Iter pourrait produire tout autant d’énergie, pour un coût bien moindre et une durée de construction plus courte. Rappelons tout de même que Iter n’est pas prévu pour produire de l’électricité mais pour valider des concepts techniques.

Parmi les autres avantages cités par l’équipe du MIT : la possibilité de remplacer le cœur de fusion sans avoir à démanteler le réacteur tout entier. De quoi mener aisément des recherches plus poussées (matériaux, conception, etc.) dans le but d’améliorer encore les performances du système. De même, les matériaux solides qui entourent habituellement ce type de réacteur pourront être remplacés par un liquide qui pourra facilement être mis en circulation autour de la chambre de fusion et remplacé sans grand frais.

Pour le moment, aucun réacteur à fusion n’a pu produire plus d’énergie qu’il n’en consomme. Or, dans sa configuration actuelle, l’ARC serait théoriquement capable de produire trois fois plus d’électricité que celle utilisée pour le faire fonctionner. Et les chercheurs du MIT assurent que ce rendement pourrait être doublé très rapidement…

Source

https://www.clubic.com/energie-renouvelable/actualite-383832-des-scientifiques-du-mit-font-un-pas-de-geant-vers-la-fusion-nucleaire.html

Voir en parallèle

https://www.lefigaro.fr/sciences/huit-ans-de-retard-pour-le-projet-de-fusion-nucleaire-iter



22/08/2024 LUCA, le premier ancêtre commun

L’ADN que l’on trouve dans tous les organismes vivants, y compris dans les cellules les plus simples, de l’ E coli jusqu’à la baleine bleue, a de si nombreuses similarités que tout laisse penser qu’il a évolué beaucoup plus tôt que l’on ne le croyait, à partir d’un organisme commun apparu il y a des milliards d’années et qui fut nommé le dernier ancêtre commun universel (last universal common ancestor ou LUCA).

De nombreux travaux ont été fait pour se représenter LUCA concrètement, de quelle façon il a vécu et ce qu’était sa biologie. Aujourd’hui une étude visant à une approche plus large a été entreprise et elle a déjà donné des résultats surprenants . Philip Donoghue de l’Université de Bristol (UK) en a été l’un des responsables.

Les gènes que l’on trouve aujourd’hui dans toutes les branches du vivant pourraient avoir été transmis selon une ligne ininterrompue de LUCA jusqu’à nos jours. Ceci pourrait permettre de se représenter ce qu’était LUCA , quand il avait vécu et comment ses gènes avaient évolué.

En pratique le travail est bien plus difficile à faire qu ‘il ne semble. Cependant Donoghue et son équipe ont réalisé une modélisation visant à faire apparaître du mieux possible ce qu’étaient les gènes de l’ancêtre commun. Ils obtinrent les gènes d’un organisme bien plus complexe que l’on imaginait.

Celui-ci aurait disposé de 2.600 gènes codant des protéines, au lieu des 80 que l’on croyait précédemment. Par ailleurs, LUCA devait vivre il y a 4,2 milliards d’années alors que la Terre s’était formée en tant que planète habitable il y a seulement 4,5 milliards d’années. Il aurait donc survécu au dernier bombardement lourd de météores que la Terre avait subi il y a environ 3,8 millions d’années.

Comme LUCA possédait des gènes destinés à protéger contre les rayons UV, les chercheurs pensent qu’il vivait à la surface des océans, plutôt que plus profondément. D’autres gènes suggèrent qu’il se nourrissait d’hydrogène, l’oxygène n’étant pas encore apparu. Il semble également qu’il devait posséder un système rudimentaire de défense contre les virus, dit CRISPR.

Ceci signifie que dès cette époque, les virus étaient apparus. Rappelons que pour certains scientifiques ils provenaient d’autres planètes du système solaire et auraient été transmis par des comètes, ce qui aurait expliqué l’apparition de la vie sur la Terre. Ils étaient assez robustes pour résister à des voyages interplanétaires.

LUCA pouvait participer à un large écosystème d’organismes de ce type, aujourd’hui disparus. Cependant certains chercheurs, dont Patrick Forterre de l’Institut Pasteur de Paris, doutent qu’ils aient pu survivre au bombardement de météores. Ces organismes étaient donc postérieurs.

Référence
Nature Ecology and Evolution

doi.org/m7r3

21/08/2024. Des molécules d’eau détectées dans des échantillons de sol lunaire


Depuis une vingtaine d’années la présence d’eau dans le sous-sol lunaire avait été suspectée. En 2008, à la suite de la mission américaine Apollo, des chercheurs avaient annoncé avoir trouvé de l’eau dans les échantillons de sol volcanique rapportés à cette époque. Mais il était apparu qu’il s’agissait de groupes hydroxyles constitués d’O et de H2 associés et non d’eau H2O proprement dite. Pour en obtenir de l’eau, ou plutôt de la vapeur d’eau, il faudrait les chauffer à plus de 1000°.

Par ailleurs , les satellites orbitant autour de la Lune y ont aussi vu épisodiquement des reflets qui pourraient révéler la présence de flaques d’eau glacée, mais cette eau n’avait pas pu être observée directement dans un échantillon de sol.

Aujourd’hui la question de l’eau se pose à nouveau.

A la suite de la mission chinoise Chang’e-5 sur la Lune, des échantillons de sol lunaire avaient été rapportés sur la Terre. L’analyse de ceux-ci par des chercheurs de l’académie des sciences de Beijing a montré que s’y trouvaient des minéraux comportant des molécules d’eau, ainsi que du magnésium, de l’ammoniaque et de la chlorine. Ce sol pourrait-il fournir assez d’eau à l’avenir pour satisfaire aux besoins de futures missions humaines ?

Des gaz volcaniques chauds passant près d’une roche lunaire basaltique auraient pu dans le passé générer ces minéraux. Or il suffirait de les chauffer à 400° pour en extraire de la vapeur d’eau.+



20/08/24 Un conflit entre les supernovae SN Ia et le rayonnement fossile

Cela fait des années que l’on parle régulièrement de la « tension de Hubble » en tant que facteur déterminant de la crise du modèle cosmologique standard comportant matière et énergie noire, crise qui pourrait même être une crise de la physique fondamentale.

Cette tension est en effet potentiellement la manifestation de l’existence d’une énergie noire affectant l’expansion de la totalité de l’espace observable de telle sorte que cette expansion semble s’accélérer depuis un peu plus de 5 milliards d’années.

Depuis quelques mois, cependant, un groupe de chercheurs menés par la cosmologiste de l’université de Chicago Wendy Freedman avait commencé à expliquer que selon des analyses des observations faites avec le télescope spatial James-Webb et effectuées par elle et ses collègues, il n’y avait peut-être pas finalement de « tension de Hubble », et donc encore moins de nouvelle physique à prendre en considération

____________________________________

Wendy Freedman vient de faire valoir point de vue dans un article du 12 août 2024 dont on trouvera ci-dessous les références et l’abstract

_____________________________________

Mais de quoi parle-t-on vraiment avec la « tension de Hubble » ? Il s’agit du désaccord de plus en plus significatif apparaissant , aux erreurs de mesure près, entre deux méthodes importantes de détermination d’une constante notée H0 qui intervient de façon fondamentale dans la Loi de Hubble-Lemaître permettant de relier la distance d’une galaxie à son décalage spectral.

Cette constante est un paramètre fondamental du modèle cosmologique standard que l’on peut évaluer en mesurant précisément les caractéristiques du rayonnement fossile. Ceci a été fait avec la mission Planck.en tenant compte de plusieurs sources d’erreurs possibles.

Le prix Nobel de physique Adam Riess et ses collègues, comme Saul Perlmutter, avaient entrepris de mesurer la constante de Hubble-Lemaître en utilisant le télescope Hubble puis le James Web Space Telescope afin d’étudier les explosions de supernovae SN Ia dans des galaxies de plus en plus lointaines. Lui et ses collègues trouvaient une valeur différente. En fait, depuis 10 ans, l’écart se creusait entre ces mesures obtenues par deux méthodes, l’étude du rayonnement fossile donnant H0 = 67.4 ± 0.5 km s−1 Mpc−1 et les supernovae H0 = 73.0 ± 1.0 km s−1 Mpc−1.

 La méthode de la parallaxe

C’est le mathématicien et astronome Hipparque, peut-être le fondateur de la trigonométrie, qui a semble-t-il utilisé pour la première fois la méthode dite de la parallaxe pour mesurer les distances des planètes dans le Système solaire. Mais c’est Copernic qui le premier a eu l’idée de transposer la méthode à l’échelle des étoiles. Les tentatives en ce sens restèrent vaines jusqu’au début du XIXe siècle, lorsque Friedrich Bessel réussit enfin, en 1838, à mesurer la parallaxe de 61 Cygni.

La méthode est simple : il suffit de mesurer le changement de position apparent d’une étoile sur la sphère céleste au cours de l’année. La simple mesure de l’angle p, la parallaxe, à deux positions sur l’orbite terrestre formant une base triangulaire, permet de connaître la distance de l’étoile à notre Système solaire, si l’on connaît la distance moyenne Terre-Soleil, dite  unité astronomique (UA)

Toutefois, cette méthode ne fonctionne bien que pour des étoiles relativement proches, comme Alpha du Centaure ou Tau Ceti. Elle devient de moins en moins précise avec la distance et de plus en plus difficile à mesurer, car p devient de plus en plus petit. C’est pourquoi on se sert de la méthode de la parallaxe pour calculer la distance des étoiles variables particulières que sont les céphéides. On peut relier la magnitude absolue de ces étoiles à la variation périodique de leur luminosité. En mesurant leur luminosité apparente, on peut en déduire leur distance.

Ainsi, par ce que l’on appelle la loi de Tully-Fisher, il est possible de connaître la luminosité intrinsèque des galaxies spirales qui vont alors jouer dans le monde des galaxies le même rôle que les céphéides.

On ne peut pas se servir à grande distance des céphéides pour deux raisons, d’abord elles ne sont pas assez brillantes et enfin, il faut pouvoir atteindre une résolution suffisante avec un télescope pour distinguer une céphéide se trouvant dans une lointaine galaxie.

On peut finalement utiliser la loi de Tully Fisher pour calibrer des mesures de distance à l’échelle cosmologique au moyen des explosions de supernovae SN Ia. Ce sont des explosions de naines blanches dont la luminosité ne doit pas beaucoup varier. Comme ces explosions sont très lumineuses, elles permettent de sonder des distances sur plusieurs milliards d’années-lumière

référence

https://www.futura-sciences.com/sciences/actualites/astronomie-ce-fin-crise-cosmologie-tension-hubble-grace-telescope-james-webb-115265/

________________________________________

Status Report on the Chicago-Carnegie Hubble Program (CCHP): Three Independent Astrophysical Determinations of the Hubble Constant Using the James Webb Space Telescope

Submitted on 12 Aug 2024]

Wendy L. FreedmanBarry F. MadoreIn Sung JangTaylor J. HoytAbigail J. LeeKayla A. Owens

We present the latest results from the Chicago Carnegie Hubble Program (CCHP) to measure the Hubble constant using data from the James Webb Space Telescope (JWST). This program is based upon three independent methods: (1) Tip of the Red Giant Branch (TRGB) stars, (2) JAGB (J-Region Asymptotic Giant Branch) stars, and (3) Cepheids. Our program includes 10 nearby galaxies, each hosting Type Ia supernovae, suitable for measuring the Hubble constant (Ho). It also includes NGC 4258, which has a geometric distance, setting the zero point for all three methods. The JWST observations have significantly higher signal-to-noise and finer angular resolution than previous observations with the Hubble Space Telescope (HST). We find three independent values of Ho = 69.85 +/- 1.75 (stat) +/- 1.54 (sys) for the TRGB, Ho = 67.96 +/- 1.85 (stat) +/- 1.90 (sys) for the JAGB, and Ho = 72.05 +/- 1.86 (stat) +/- 3.10 (sys) km/s/Mpc for Cepheids. Tying into supernovae, and combining these methods adopting a flat prior, yields our current estimate of Ho = 69.96 +/- 1.05 (stat) +/- 1.12 (sys) km/s/Mpc. The distances measured using the TRGB and the JAGB method agree at the 1% level, but differ from the Cepheid distances at the 2.5-4% level. The value of Ho based on these two methods with JWST data alone is Ho = 69.03 +/- 1.75 (total error) km/sec/Mpc. These numbers are consistent with the current standard Lambda CDM model, without the need for the inclusion of additional new physics. Future JWST data will be required to increase the precision and accuracy of the local distance scale.

Subjects:Cosmology and Nongalactic Astrophysics (astro-ph.CO)
Cite as:arXiv:2408.06153 [astro-ph.CO]
 (or arXiv:2408.06153v1 [astro-ph.CO] for this version)
  https://doi.org/10.48550/arXiv.2408.06153 Focus to learn more

20/08/2024. Les glaciers des Andes vont-ils disparaître ?

Aujourd’hui, des observations aussi précises que possible montrent que ces glaciers ont retrouvé la taille qu’ils avaient il y a 130.000 ans.

Les Andes sont si élevées que l’on trouve des glaciers permanents tout au long de la chaine, même dans les latitudes tropicales. Or cela fait maintenant 10 ans qu’ils raccourcissent et se rétrécissent en conséquence d’une réchauffement qui affecte toutes les parties du monde.

Des chercheurs de l’Université de Berkeley ont analysé des morceaux de rochers jusque là situés sous quatre glaciers tropicaux et découvert par la glace à la suite de ce changement de température. Ils ont recherché les échantillons d’isotopes de carbone et de beryllium qui se forment dans des roches qui viennent d’être découvertes par le retrait des glaces et qui sont exposées aux rayons cosmiques.

Le niveau des isotopes était si bas dans certaines régions qu’ils étaient presque indétectables. Or un niveau identique avait été atteint lors de la précédente période interglaciaire s’étant produite il y a 130.000 ans et s’étant traduite par un réchauffement général.

Autrement dit l’état des glaciers dans les Andes est inférieur actuellement à celui qui était le sien depuis 11.700 ans au début de la période dite Holocène L’Holocène est le nom donné à la période interglaciaire qui a succédé au dernier cycle glaciaire. Cette période tout de suite chaude par rapport à ce qui précède, a débuté il y a environ 12 000 ans et elle est encore en cours de nos jours.

Référence

https://issues.fr/crise-de-glace-les-glaciers-andins-ont-recule-a-leur-plus-bas-niveau-depuis-11-700-ans/