15/01/2024 La France devrait faire davantage appel à l’énergie magmatique

La France n’est pas à court d’énergie contrairement à d’autres pays, notamment l’Allemagne. Elle dispose déjà d’une quantité importante de centrales nucléaires de fission (56 réacteurs à ce jour).   Elle sera la première, sauf accident, à bénéficier de la fusion nucléaire en cours de test à Cadarache (programme Iter). Son parc de centrales hydroélectrique est très satisfaisant.  EDF exploite 425 centrales hydrauliques et plus de 600 barrages en France.

Par contre, la France est peu présente dans l’électricité marémotrice, en dehors de la centrale de la Rance. Elle ne fait pas encore sérieusement appel à l’énergie éolienne, sauf dans le cas de petits équipements appartenant à des particuliers . Mais dans les deux cas, cette absence est favorable à l’environnement.

La géothermie

Qu’en est-il de la géothermie, consistant à exploiter la chaleur centrale de la Terre La géothermie est à la fois la science qui étudie les phénomènes thermiques internes du globe terrestre, et la technique qui vise à les exploiter. Par extension, la « géothermie » désigne aussi parfois l’énergie géothermique issue de l’énergie de la Terre, qui est convertie en chaleur.

C’est une énergie qui n’émet aucun gaz à effet de serre et sa matière première, la chaleur de la Terre, est totalement gratuite. Par contre, les équipements permettant de l’exploiter ne le sont pas

Il existe 3 formes de ressources géothermiques pour produire de l’électricité.

Par réservoir de vapeur. Lorsque l’eau de gisement est partiellement vaporisée, elle est récupérée sous la forme de vapeur sèche directement utilisable pour faire tourner les turbines des centrales géothermiques. Mais ces gisements de vapeur sont relativement rares. Les plus connus sont Lardarello (Italie), Geysers (Californie) et Matsukawa (Japon).
Par réservoir d’eau chaude. Pendant sa remontée vers la surface, l’eau chaude subit une baisse de pression. Elle se transforme alors en vapeur, de sorte qu’en tête de puits, sort un mélange eau-vapeur dont on peut utiliser la phase gazeuse pour alimenter des turbines.
Par roches fracturées. elle consiste à récupérer la chaleur de roches chaudes en profondeur dans des sous-sols composés de roches naturellement fracturées, grâce à de l’injection d’eau :
  • De l’eau froide est injectée à 5 000 m de profondeur par un puit.
  • L’eau circule dans les fractures et se réchauffe au contact de la roche chaude à plus de 200 °C.
  • L’eau est pompée par la centrale pour remonter à la surface par un 2e puits.
  • En surface, par l’intermédiaire d’un échangeur thermique, l’eau chaude du circuit primaire se transforme en vapeur dans le circuit secondaire.
  • La vapeur entraîne une turbine et un alternateur qui produit de l’électricité.
  • L’eau est ensuite renvoyée dans les roches.

Cette technique est en cours de développement à Soultz-sous-Forêts.

L’exploitation magmatique directe

Cette technique n’existe pas encore, compte tenu de ses coûts et de l’absence de besoins urgents. Nous pensons que dans les prochaines années, il serait important de s’y intéresser, notamment en France.

La France métropolitaine dispose d’un certain nombre de sites anciennement volcaniques, tels que le Massif Central. Il semble que les poches magmatiques ne soient pas trop éloignée de la surface (1 à 2 kms) . Elles devraient donc être accessibles par des sondages industriels profonds.

L’exploitation se ferait de la même façon que pour la géothermie dite par roche fracturée mais à une plus grande échelle.

Plus généralement dans l’avenir maitriser l’exploitation des ressources terrestres situées en grande profondeur deviendra une nécessité.
————————————————————

Annexe. Qu’est-ce qu’un magma
source Wikipedia

Un magma est une roche entièrement ou partiellement fondue. Il comporte nécessairement une phase liquide, généralement composée de silicatesa et contenant des gaz dissous. Il comporte souvent aussi, en suspension dans le liquide, une phase gazeuse (des bulles) et une ou plusieurs phases solides (des cristaux), qui proviennent respectivement de l’exsolution partielle des gaz dissous et de la solidification partielle du liquide par décompression et refroidissement.

Le magma peut aussi comporter des éléments solides provenant des roches à travers lesquelles le magma est remonté : fragments de roches mantelliques ou crustales (xénolithes) et/ou cristaux isolés (xénocristaux).

Les magmas se forment à haute température et sous haute pression par fusion partielle de la croûte terrestre ou du manteau. Moins denses que les roches solides de la lithosphère, ils sont entraînés vers le haut par la poussée d’Archimède, sous forme de dykes ou de diapirs. Selon le contraste entre leur densité et celle des roches traversées, les magmas s’arrêtent à une certaine profondeur (plutons) ou s’épanchent en surface (laves). Leur refroidissement complet conduit à la formation de roches magmatiques (roches plutoniques pour les plutons, roches volcaniques pour les laves).

Les magmas résultent directement (volcanisme) ou indirectement (intrusion) de l’évacuation de la chaleur terrestre (en). Pour évacuer une chaleur centrale avoisinant 5 000 °C1, les seuls mécanismes de la conduction et le rayonnement sont insuffisants. L’évacuation est ainsi assurée principalement par le phénomène de la convection mantellique qui brasse le manteau terrestre en mettant en mouvement2 du matériel solide rendu ductile par les températures très élevées. Cette convection « est la cause première de toutes les manifestations d’activité de la Terre solide (volcanismetectonique des plaquesorogenèsechamp magnétique3) ». Aux limites supérieures des cellules de convection, au terme de leur lente remontée diapirique vers la surface, les péridotites du manteau supérieur subissent une décompression adiabatique4 au niveau des dorsales océaniques, ce qui entraîne leur fusion partielle qui se produit à une profondeur relativement faible (20 à 30 km) et la formation de magmas basaltiques5. La dispersion de chaleur est réalisée aussi au niveau des points chauds ou du mouvement des plaques lithosphériques dont la collision ou la subduction produit la fusion partielle des roches enfouies, et la formation de magmas primaires ou différenciés. Sur Terre, la dissipation d’énergie thermique se fait ainsi à 95 % au niveau des limites de plaques (dorsales, subduction et collision) et seulement pour 5 % par les points chauds6. « Il en résulte que le magmatisme de la Terre est également une expression des transferts de la chaleur interne. De cette façon, le magmatisme participe au refroidissement général et inéluctable du globe »7.

Lors de la remontée de la roche ductile vers la surface, le magma se refroidit et peut cristalliser sans émerger pour former une roche plutonique dans des réservoirs (chambre magmatiquepluton), des dykes lorsqu’il reste confiné dans des fissures discordantes, ou encore des sills lorsque le magma s’insère dans une fissure en concordance avec les structures encaissantesb. Si le magma atteint la surface, il jaillit par les cratères des volcans sous forme de lave dont la composition détermine le caractère plus ou moins fluide ou visqueux.

La température de ces laves varie de 500 à 550 °C, pour la carbonatite (au Kenya), à 1 200 °C, par exemple pour les volcans d’Hawaï.

Un magma est considéré comme acide, intermédiaire, basique ou ultrabasique en fonction de sa teneur en silice (%pds SiO2)c :

  • riche en silice (plus de 65 %), le magma est « acide » et sa viscosité est élevée ;
  • avec une teneur intermédiaire entre 52 et 65 %, le magma est dit « intermédiaire » ;
  • pauvre en silice (moins de 52 % mais plus de 45), le magma est « basique » et sa viscosité est faible,
  • très pauvre (moins de 45 % de silice), il est « ultrabasique ».

Cette teneur en silice aura donc une incidence sur le comportement du magma lors de sa remontée (vitesse de déplacement, et caractère effusif ou explosif de l’éruption volcanique si le magma parvient en surface).

Les gaz contenus dans le magma peuvent être de la vapeur d’eau (qui peut diminuer la température de fusion jusqu’à 100 °C) ou le dioxyde de carbone.

Dans le manteau terrestre : entre 50 et 150 km de profondeur, les conditions de pression et de température permettent la fusion partielle du manteau. Cette zone a été découverte grâce à sa faculté de ralentir la propagation des ondes sismiques et a été appelée zone à faible vitesse, en anglais low velocity zone, acronyme LVZ. Le taux de fusion du manteau est de l’ordre de 5 à 15 %, en masse, du matériau mantellique, rarement plus de 20 %.

  • Dans un environnement géodynamique de subduction d’une plaque océanique sous une plaque continentale, se forme une chaîne de montagne de type cordillère. Un magma primaire se forme par interaction entre des fluides de déshydratation de la plaque plongeante et le matériau péridotitique du coin de manteau. Lors de sa remontée, notamment à travers une lithosphère continentale potentiellement sur-épaissie tectoniquement (prisme d’accrétion, écaillage de la croûte, compression), le magma évolue chimiquement par cristallisation fractionnée et assimilation, aboutissant à une série différenciée de roches magmatiques typiques, dite de volcanisme andésitique.
  • Dans un environnement géodynamique de subduction d’une plaque océanique sous une autre plaque océanique, le processus de magmatogenèse primaire est essentiellement le même. Mais la lithosphère que traversent ces magmas, de type océanique est donc moins épaisse (typiquement 30 km contre le double dans le cas précédemment décrit). Les magmas qui en résultent forment la série dite calco-alcaline, et les édifices volcanique s’organisent en un arc volcanique insulaire.
  • Au niveau des rides médio-océaniques, les lithosphères s’écartent, la croûte basaltique est amincie et fracturée et la pression dans le manteau diminue. Le magma sort en formant une nouvelle croûte océanique. Sous la mer, le magma s’épanche en pillow lava (ou lave en coussin).
  • Au niveau de points chauds (en anglais hot spots) : même si leur origine reste assez énigmatique, certains chapelets d’îles volcaniques en sont les effets très visibles. À l’une des extrémités du chapelet, un volcan actif est dû au percement de la lithosphère qui le porte, par le magma ascendant dans le point chaud. La plaque se déplaçant sous l’effet de la tectonique des plaques, alors que la position du point chaud reste « fixe », les volcans sont emportés loin de la zone volcanique et deviennent inactifs. L’alignement de ces volcans éteints à partir d’un volcan actif forme le chapelet symptomatique des points chauds. Plusieurs chaînes d’îles de l’océan Pacifique (dont Hawaï) sont des témoignages de ce mécanisme.

14/01/2024 Des particules fantômes, les neutrinos

Adaptation d’un article du NewScientist du 6 janvier 2024, intitulé Ready to blow

Le neutrino est une particule élémentaire du modèle standard de la physique des particules. Les neutrinos sont des fermions de spin ½, plus précisément des leptons. Ils sont électriquement neutres. Il en existe trois « saveurs » : électroniquemuonique et tauique.

L’existence du neutrino a été postulée pour la première fois en 1930 par Wolfgang Pauli pour expliquer le spectre continu de la désintégration bêta ainsi que l’apparente non-conservation du moment cinétique, et sa première confirmation expérimentale remonte à 1956.

Parce que la découverte de ces particules est récente et parce qu’elles interagissent faiblement avec la matière, au début du 21e siècle de nombreuses expériences sont consacrées à connaître leurs propriétés exactes. Voir https://fr.wikipedia.org/wiki/Neutrino

On n’a pas encore clairement compris ce qui provoque les supernovas, autrement dit l’explosion lumineuse d’une étoile ayant épuisé son combustible. Toutes les 10 secondes dans l’univers se produit cet événement catastrophique. Aujourd’hui pourtant l’on considère que ces particules élusives que sont les neutrinos jouent un rôle essentiel dans ces événements. Comprendre ce rôle devrait aider à élaborer une nouvelle théorie concernant la physique des particules .

Malheureusement les supernova se produisant suffisamment près de la Terre pour pouvoir être convenablement étudiées sont rares. La dernière observée date de 1987 et les quelques 25 neutrinos recueillis à cette occasion n’ont pas été suffisamment nombreux pour étudier le phénomène. Aujourd’hui cependant plusieurs détecteurs de neutrinos ont été mis en place sur la planète et la prochaine supernova se produisant à la bonne distance suscite déjà une grande excitation chez les physiciens des neutrinos, tels Joachim Kopp de l’université Johannes Gutemberg en Allemagne ou Kate Scholberg de la Duke Universiy en Caroline du Nord.

Les neutrinos, avant d’être observés, avaient été évoqués en tant qu’entité mathématique par Wolfgang Pauli en 1930. Il pensait qu’ils étaient sans masse et sans charge électrique. Aujourd’hui encore ils sont appelés « particules fantômes » (ghostly particles). Des milliards d’entre eux traversent le petit doigt de notre main sans être observées. Elles ne se révèlent qu’en interagissant avec d’autres particules dans le cadre de ce que l’on nomme la force nucléaire faible. L’on ne sait donc que peu de choses sur elles.

Mais ces particules sont indispensables à toutes les théories qui voudraient aujourd’hui remplacer le modèle standard de la physique des particules élémentaires, dont l’on sait qu’il est incomplet. Selon celui-ci, les neutrinos sont des particules sans masse qui ne se présentent qu’en trois saveurs distinctes, électron, muon et tau. 2) Mais les premières observations des neutrinos produits par le soleil aussi bien que dans les rayons cosmiques en haute atmosphère ont montré qu’ils pouvaient changer de saveur. De plus ce changement n’est possible que s’ ils ont une masse. Or l’origine de celle-ci ne peut être expliquée par le modèle standard.

Les scientifiques ont étudié des solutions permettant à ce qu’ils nomment des oscillations du neutrino de se produire en tant que compléments du modèle standard. Celles-ci incluent le fait que les particules puissent posséder trois masses discrètes (non continues). Dépendante de l’énergie du neutrino et de la distance qu’il a parcourue, la probabilité qu’il change de saveur peut être calculée. Malheureusement, pour diverses raisons que nous ne résumerons pas ici, ces saveurs elles-mêmes ne peuvent être précisées.

Les physiciens des particules ont obtenu la création de trois coûteuses Deep Underground Neutrino Experiment (DUNE) aux Etats-Unis, au Japon et en Chine. Ces stations seront dotées de bassins d’eau qui signaleront la rencontre d’un neutrino accéléré avec une molécule d’eau. En faisant varier l’accélération on devrait pouvoir préciser comment les neutrinos changent de forme.

Par ailleurs les bassins pourront capter les neutrinos arrivant en grand nombre de l’espace à la suite de l’effondrement d’une étoile, phénomène dit supernova Les premières études de ces neutrinos cosmologiques ont déjà montré que leur énergie sera très supérieure à celle obtenue dans un accélérateur de particules.

En dehors des neutrinos, ces stations ont déjà permis de préciser l’existence d’autres particules hypothétiques produites par les supernova., les axions, les photons noirs et un autre type de neutrino dit stérile. Toutes sont supposées constituer la matière noire qui serait présente dans l’univers en bien plus grande quantité que la matière ordinaire mais qui n’a encore été jamais observée véritablement.

Malheureusement, contrairement aux accélérateurs de particules qui produisent des faisceaux de neutrinos bien contrôlés, les supernova produisent des flux de particules chaotiques et donc encore mal étudiés.

Notes

1) La saveur, en physique des particules, est une caractéristique permettant de distinguer différents types de leptons et de quarks, deux sous-familles des fermions. Les leptons se déclinent en trois saveurs et les quarks en six saveurs. Les saveurs permettent de distinguer certaines classes de particules dont les autres propriétés (charge électriqueinteractivité, etc.) sont similaires. Les dénominations des saveurs ont été introduites par Murray Gell-Mann, baptisant le quark étrange lors de la détection du kaon en 1964.







Malheureusement les supernova se produisant suffisamment près de la Terre pour pouvoir être convenablement étudiées sont rares. La dernière observée date de 1987 et les quelques 25 neutrinos recueillis à cette occasion n’ont pas été suffisamment nombreux pour étudier le phénomène. Aujourd’hui cependant plusieurs détecteurs de neutrinos ont été mis en place sur la planète et la prochaine supernova se produisant à la bonne distance suscite déjà une grande excitation chez les physiciens des neutrinos, tels Joachim Kopp de l’université Johannes Gutemberg en Allemagne ou Kate Scholberg de la Duke Universiy en Caroline du Nord.


Les neutrinos, avant d’être observés, avaient été évoqués en tant qu’entité mathématique par Wolfgang Pauli en 1930. Il pensait qu’ils étaient sans masse et sans charge électrique. Aujourd’hui encore ils sont appelés « particules fantômes » (ghostly particles). Des milliards d’entre eux traversent le petit doigt de notre main sans être observées. Elles ne se révèlent qu’en interagissant avec d’autres particules dans le cadre de ce que l’on nomme la force nucléaire faible. L’on ne sait donc que peu de choses sur elles.

13/01/2024 Les Kinzhaïl fâcheuses surprises du Pentagone

Il y a eu une troisième attaque russe massive le 8 janvier (après le 29 décembre et le 2 janvier) contre des objectifs industriels et militaires majeurs de l’Ukraine. On peut considérer ces trois attaques comme faisant partie d’un plan politique et stratégique cohérent des Russes, ayant plusieurs objectifs en complément des objectifs opérationnels.

Ces attaques ont pour particularité d’employer comme arme centrale le missile hypersonique Kinzhal’, dont plus d’une centaine ont été utilisés à cette occasion. On observera d’abord avec quelle vitesse et en quelle quantité les Russes ont produit ce missile. Il n’avait fait de sorties qu’en quelques exemplaires et était resté quasiment inaperçu du renseignement militaire américain.

Au printemps 2018 dès l’apparition de l’hypersonique en mars 2018 à la suite du discours de Vladimir Poutine, le général Michael Hayden, alors chef de la NSA, avait eu cette réponse:

«Nous n’avons aucune défense contre l’emploi d’une telle arme contre nous, aussi notre riposte ne pourrait être que l’emploi de notre force de dissuasion, c’est-à-dire la triade de nos capacités stratégiques nucléaires au plus haut niveau.»

On rappellera que l’essentiel de la défense aérienne ukrainienne est constitué du système de défense Patriot réinstallé dans un nouvel ensemble complexe (postes de commandement, de communication, radars de détection et de guidage, un certain nombre de batteries par système elles-mêmes équipées d’un certain nombre de missiles) Ainsi sont articulées toutes les défenses aériennes sous contrôle américaine, en Europe contre la Russie et en Asie contre la Chine.

Peut-on en conclure que la guerre était entrée dans l’ère de l’hypersonique sans que Washington s’en soit rendu compte ? A quoi bon alors disposer de systèmes de renseignements qui font l’admiration du monde libre

12/01/2024. Les cordes cosmiques et la gravité quantique

Nous avons constaté précédemment que les cordes cosmiques, si leur existence était confirmée, émettraient aussi des ondes gravitationnelles. Celles-ci résulteraient de leur tension et flexions continues. Mais elles seraient très faibles, difficiles à distinguer du bruit de fond continu émis par les collisions entre trous noirs supermassifs principaux responsables de la création des ondes gravitationnelles.

Si cependant les expérimentalistes pouvaient réussir à les mesurer, ils en tireraient un test incomparable concernant l’unité des forces de la nature pouvant conduire à préciser ce que serait la théorie de la gravité quantique. Celle-ci vise a remplacer sous une formulation unique la Théorie de la gravité d’Einstein et les principes de la physique quantique découverte dans la 1ere moitié du 20e siècle.

Dans un article dont on trouvera-ci-dessous les références la physicienne Astrid Eichhorn de l’Université du Danemark a découvert qu’une certaine classe de théories de la gravité quantique, dite « asymptotically safe » ne pouvait pas être compatible avec les cordes cosmiques dérivées du modèle standard des particules. Les théoriciens préfèrent cela car cette présentation leur évite de faire appel au concept d’infini. 

Référence

Subjects: High Energy Physics – Theory (hep-th); General Relativity and Quantum Cosmology (gr-qc); High Energy Physics – Phenomenology (hep-ph)[7] arXiv:2306.17718 [pdfother]

From quantum gravity to gravitational waves through cosmic strings

Astrid EichhornRafael R. Lino dos SantosJoão Lucas Miqueleto

Comments: 21 pages + appendix, 6 figures

Subjects: General Relativity and Quantum Cosmology (gr-qc); High Energy Astrophysical Phenomena (astro-ph.HE); High Energy Physics – Theory (hep-th)

11/01/2024 Il n’y a que deux façons pour limiter l’actuel réchauffement climatique

Il n’y a que deux façons pour limiter l’actuel réchauffement climatique. L’une est d’augmenter la quantité de chaleur provenant de la surface de la Terre et qui se dissipe dans l’espace. L’autre est d’augmenter la quantité de chaleur provenant du soleil et qui est réfléchie dans l’espace avant d’atteindre la surface de la Terre

De même, il y a globalement deux méthodes pour atteindre ce double objectif. Tout ce qui réduira la quantité de gaz à effet de serre dans l’atmosphère laissera davantage de chaleur terrestre s’échapper vers l’espace. Tout ce qui pourrait rendre la Terre ou son atmosphère plus réfléchissante limitera la quantité de chaleur atteignant la Terre et la renverra vers l’espace.

Réduire la production de gaz à effet de serre est déjà engagé et semble globalement accepté, même dans des pays grands producteurs comme la Chine et l’Inde.

Par contre la deuxième méthode sera d’un coût considérable en l’état actuel des techniques. Elle pourrait avoir des effets secondaires mal acceptés. Ainsi en serait-il de refroidir l’Arctique ou assombrir le ciel en y envoyant des quantités massives de particules réfléchissantes.

La principale différence entre ces deux méthodes sera cependant leur temps de réponse, c’est-à-dire le temps qui leur faudra pour atteindre l’objectif de limiter à 1° 5 la hausse annuelle des températures à la surface de la Terre.

La méthode consistant à réduire la production des gaz à effet de serre sera nécessairement longue parce que difficile à appliquer. Toute l’humanité ou presque sera concernée.

La méthode alternative consistant à rendre la Terre plus réfléchissante consisterait en fait à ne rien faire  Il suffirait de laisser se poursuivre les rythmes et méthodes de production actuelle . Ainsi il vient d’être constaté que les efforts actuellement engagés par l’Organisation Maritime Internationale pour réduire les taux de pollution résultant de l’activité de l’industrie du transport maritime se traduiront par une meilleure transparence de l’air océanique c’est à dire une meilleure capacité pout réchauffer la mer et les côtes.

Est-ce ainsi que l’on luttera pour rendre la Terre plus réfléchissante? Réfléchissons-y.

08/01/2024 La théorie des cordes cosmiques (cosmic strings theory)

Cet article reprend en les traduisant et les simplifiant les principaux passages de Cosmic threads de Dan Falk, New Scientist 30 december 2023

Une corde cosmique (cosmic string dite aussi cosmic thread) serait un objet hypothétique présent dans tout l’univers. Elle serait semblable à une corde, d’où son nom. Sa longueur pourrait être supérieure à celle de l’univers observable. Son épaisseur serait celle d’une particule subatomique telle que le proton. Elle se déplacerait dans l’univers à une vitesse proche de celle de la lumière. Elle serait animée par une énergie proche celle qui animait l’univers immédiatement après le Big Bang dont elle serait issue

Pour certains cosmologues, dont Neil Turok de l’Université d’Edimbourg, les cordes cosmiques sont la meilleure preuve des « théories unifiées ». Celles-ci considèrent que les forces fondamentales de la nature étaient unifiées dans l’univers primitif précédant le Big Bang. Elles ont divergé ensuite après le Big Bang.

L’existence des cordes cosmiques reste à prouver. Depuis un certain temps cependant les astronomes ont découvert un certain nombre d’anomalies difficilement explicables si l’on ne fait pas appel à elles.. C’est le cas de galaxies anormalement grandes ou d’amas de galaxies aux formes étranges, allongées comme des sandwichs.

Comprendre la raison de l’existence de ces énigmatiques cordes cosmiques devrait permettre à la cosmologie toute entière de faire un pas en avant considérable. Selon Joseph Conlon de l’Université d’Oxford, les théoriciens devraient enfin pouvoir trancher entre les diverses hypothèses intéressant le début et la fin de l’Univers. Il s’agirait d’une véritable révolution.

L’actuel Modèle Standard de la physique des particules ne mentionne pas les cordes cosmique. Il en résulte que la matière noire qui semble indispensable à l’attraction dont ont besoin les galaxies pour ne pas se disperser sous l’effet de la force centrifuge ou bien le comportement des encore mystérieux neutrinos restent inexplicables. Ces lacunes ont conduit les théoriciens à rechercher une extension du Modèle.

Aujourd’hui des théories alternatives supposent qu’au début de l’univers, les trois forces fondamentales étudiées aujourd’hui, l’électromagnétisme et les forces nucléaires faible et forte, ne constituaient qu’une seule force. Avec le refroidissement du cosmos, ces forces se séparèrent. Dans le processus dit de transition de phase s’en étant suivi, elles laissèrent apparaître des fractures qui ont pris la forme des cordes cosmiques d’aujourd’hui.

Ces cordes cosmiques ne doivent pas confondues avec les cosmic superstrings que prévoit la théorie de la gravité quantique visant à fusionner le théorie de la Gravité d’Einstein et la physique quantique. Ces dernières sont de minuscules entités unidimensionnelles vibrantes. Pourtant, certaines d’entre elles auraient pu devenir des cordes cosmiques en s’agrandissant brusquement lors de l’expansion de l’univers.

Des étrangetés galactiques

Avec tant d’hypothèses concernant les cordes cosmiques, comment pourrait on se représenter la forme qu’elles auraient aujourd’hui ? Certaines pourraient être assez longues pour s’étendre à travers l’univers tout entier, en comportant des sursauts d’énergie voyageant au long d’elles à une vitesse proche de celle de la lumière. Ce faisant, elles pourraient se rencontrer en créant un réseau enchevêtré. Elles formeraient alors des boucles grandes ou petites qui ajouteraient à la complexité du réseau.

Si un tel réseau existait, il devrait laisser sa marque dans le cosmos en attirant à lui tout ce qui possède une masse. Cette hypothèse permettrait de comprendre comment se sont formés les amas de galaxies et les galaxies dans l’univers primitif, alors que la matière émergeait et s’agglomérait en grands ensembles.

Cependant au début des années 1990, les théoriciens se désintéressèrent de l’hypothèse des cordes cosmiques. Quand ils mesurèrent le Cosmic Microwave Background CMB, ils constatèrent qu’il était presque homogène d’une partie du ciel à l’autre. Cela ne correspondait pas à l’idée que les cordes cosmiques étaient responsables de la quasi-totalité de l’énergie de l’univers. Tout au plus, un dixième de celle-ci seulement était impliqué par ces structures.

Pour le cosmologue Jim Pebbles, de l’Université de Princeton, les cordes peuvent néanmoins être détectables du fait des déformations qu’elles imposent encore à certains amas de galaxies. C’est ainsi que l’amas de galaxies qui comprend la Voie lactée a pris la forme d’un sandwich. Il est 30 fois plus long que large.

Ceci ne veut pas dire que les cordes cosmiques auraient été responsables à elles seules de la formation des galaxies. Mais elles pourraient cependant être encore présentes et détectables avec des moyens suffisamment puissants.

Dans un article publié en décembre 2023, Flat patterns in cosmic structure  Jim Peebles considère que ces déformations méritent d’être étudiées
https://academic.oup.com/mnras/article/526/3/4490/7296159

Pour Jim Peebles, ces déformations sont difficilement compatibles avec le Lamba CDM model désignant la force censée accélérer l’expansion de l’univers
https://fr.wikipedia.org/wiki/Mod%C3%A8le_%CE%9BCDM Si cela était le cas, les cordes cosmiques devraient être vues comme des rayons froids et presque droits.

De nouvelles observations des galaxies les plus anciennes semblent justifier l’existence des cordes cosmiques Leur capacité à rassembler et déplacer de la matière pourrait expliquer la formation rapide de ces galaxies En février 2024 le nouveau James Webb Space Telescope avait observé  quelques unes des galaxies massives qui s’étant formées 500 à 800 d’années après le Big Bang.

La rapidité de leur apparition impliquait que les cordes cosmiques n’avaient pas été directement responsables de leur formation. Néanmoins, celles-ci pouvaient y avoir participé par des apports de matière . Les théoriciens spécialistes des cordes cosmiques considèrent qu’elles auraient eu leur plus grande influence sur la formation des structures juste après le Big Bang.

Robert Brandenberger de l’Université Mac Gill à Montréal a prévu d’étudier les cordes cosmiques via l’importance des ondes radio provenant des plus anciennes de ces galaxies, dites radiation de 21cm. émises 50 millions d’années après le Big Bang.

Les astronomes pensent avoir eu une autre preuve de la présence des cordes cosmiques quand deux galaxies leur apparurent être comme dans un miroir l’exacte image l’une de l’autre. En fait il s’agissait d’une seule galaxie, dont l’image aurait été dupliquée par le passage lointain supposée d’une corde cosmique entre cette galaxie et la Terre. Mais tous ne sont pas convaincus.

Une nouvelle occasion sera bientôt offertes pour vérifier l’éventuelle présence d’une corde cosmique. Il s’agira de l’étude des ondes gravitationnelles conduite par la collaboration internationale fondée à cette fin. Les spécialistes considèrent que la présence de cordes cosmiques pourraient avoir une influence sur certaines ondes gravitationnelles.

Que serait la relation entre les cordes cosmiques et les ondes gravitationnelles ? Celles-ci sont supposées résulter entre autres raisons de la collision entre les innombrables trous noirs supermassifs que comprend l’univers. Les cordes cosmiques qui vibrent constamment du fait de leurs tensions pourraient aussi émettre des ondes gravitationnelles. Celles-ci seraient cependant très faibles et difficiles à détecter. Il faudrait encore une décennie de données pour espérer y voir plus clair; A cette fin le North American Nanohertz Observatory for Gravitational Waves pourrait être mis à contribution.

Note
Flat patterns in cosmic structure 

P J E Peebles

Monthly Notices of the Royal Astronomical Society, Volume 526, Issue 3, December 2023, Pages 4490–4501, https://doi.org/10.1093/mnras/stad3051

Published:

06 October 2023

ABSTRACT

It is natural to wonder how far the flat pattern in the distribution of galaxies and clusters of galaxies around the de Vaucoueurs Local Supercluster extends, and whether there are other similarly extended flat patterns in the large-scale structure of the Universe. I present evidence of two extended flat and thin sheet-like patterns in the distributions of galaxies and clusters detected at redshift z < 0.021. Sheet A contains our position and is tilted 11° from the supergalactic pole, meaning the Local Supercluster is a moderately bent part of the more extended Sheet A. The continuation of this sheet is detected in the disjoint sample of galaxies at redshifts 0.021 < z < 0.041 and again in the disjoint samples of galaxies and clusters of galaxies at 0.042 < z < 0.085. Sheet B is 15 Mpc from us at its closest point. It is detected at z < 0.021 and at 0.021 < z < 0.041. These results make a serious case for the reality of signatures of close to flat and thin extended sheet-like patterns in cosmic structure, and an interesting challenge for the lambda-cold dark matter cosmology.

07/01/2024 Le coeur des étoiles à neutrons pourrait être fait de quarks libres

Malgré leur petit diamètre, d’environ 20 kilomètres, les étoiles à neutrons ont une masse près de 1,5 fois supérieure à celle du soleil. Elles sont donc extrêmement denses. L’équivalent en taille d’un morceau de sucre terrestre qui serait constitué d’une matière provenant d’étoile à neutrons pèserait environ cent millions de tonnes sur Terre.

Rappelons qu’au centre d’un atome terrestre se trouve un noyau fait de protons et de neutrons. Ce noyau est entouré d’électrons. Les protons et les neutrons sont constitués de particules élémentaires appelées quarks. Les particules élémentaires sont les plus petits constituants de la matière. Un quark est une particule élémentaire et un constituant de la matière observable. Les quarks s’associent entre eux pour former des hadrons, particules composites, dont les protons et les neutrons sont des exemples connus, parmi d’autres. En raison d’une propriété dite de confinement, les quarks ne peuvent être isolés, et n’ont pas pu être observés directement ; tout ce que l’on sait des quarks provient donc indirectement de l’observation des hadrons.

Les quarks s’attirent entre eux par une force fondamentale, l’interaction forte. Celle-ci est réalisée par un échange de particules électriquement neutres nommées gluons.

La densité des étoiles à neutrons est telle qu’elle provoque la combinaison des protons et des électrons composant la matière ordinaire en neutrons, d’où leur nom. La composition des centres ou noyaux de ces étoiles est inconnue, mais il pourrait être constitué d’un superfluide de neutrons ou d’un état de matière inconnu.

Les étoiles à neutrons exercent une attraction gravitationnelle extrêmement forte, bien supérieure à celle de la Terre. Cette force est particulièrement impressionnante si on la rapporte à la petite taille de ces étoiles. Lorsqu’elles se forment, les étoiles à neutrons tournent dans l’espace. Au fur et à mesure qu’elles se compriment et se rétrécissent, cette rotation s’accélère en raison de la conservation du moment cinétique.

 Ces étoiles ralentissent progressivement au fil des temps, mais elles tournent encore assez rapidement pour émettre un rayonnement qui, depuis la Terre, semble clignoter, comme le faisceau d’un phare maritime. Cette apparente pulsation donne à certaines étoiles à neutrons le nom de pulsars.

Après avoir tourné pendant plusieurs millions d’années, les pulsars se vident de leur énergie et deviennent des étoiles à neutrons normales. Parmi les étoiles à neutrons connues, peu sont des pulsars. On n’a identifié dans l’univers visible qu’un millier de pulsars, mais il pourrait se trouver des centaines de millions d’anciennes étoiles à neutrons dans la seule Voie Lactée.

Les pressions qui existent au cœur des étoiles à neutrons peuvent être similaires à celles qui existaient au moment du Big Bang, mais ces états ne peuvent être simulés sur Terre.

Les étoiles à neutrons sont issus d’étoiles qui ont atteint quatre à huit fois la taille de notre soleil avant d’exploser en supernovae. Après une telle explosion, les couches extérieures de l’étoile sont projetées dans l’espace mais le noyau demeure, sans toutefois produire de fusion nucléaire. Sans la pression vers l’extérieur de la fusion pour contrebalancer l’attraction de la gravité vers l’intérieur, l’étoile se condense et s’effondre sur elle-même.

Le cœur des étoiles à neutrons demeure un mystère. Une nouvelle analyse par superordinateur suggère que ces étoiles mortes pourraient contenir un noyau rempli de quarks libres formant ainsi une matière exotique appelée « matière de quarks froids ».

Le processus de formation des étoiles à neutrons commence avec une étoile 10 à 20 fois plus massive que le Soleil provenant de fusions dans son noyau. Cette fusion produit une force qui équilibre la pression gravitationnelle vers l’intérieur de l’étoile, maintenant ainsi sa stabilité.

Une fois que l’étoile a épuisé son stock de combustible nucléaire, cette force de pression n’est plus suffisante pour compenser la gravité qui attire la matière vers le centre de l’étoile. Celle-ci entre alors dans une phase d’effondrement gravitationnel.

Dans le cas des étoiles dont la masse est comprise entre dix et vingt fois celle du Soleil, cet effondrement gravitationnel peut être si intense que les protons et les électrons, qui constituent normalement la matière ordinaire, fusionnent pour former des neutrons. C’est ainsi que naissent les étoiles à neutrons. Ces objets extrêmement denses ont une taille d’environ vingt kilomètres, mais leur masse est équivalente à une à deux fois celle du Soleil.

Ce processus est assez bien compris. Cependant, la composition interne de ces étoiles à neutrons est toujours un sujet d’interrogation

Les résultats de l’analyse ont révélé une forte probabilité que l’intérieur des étoiles à neutrons soit constitué de ce qu’on appelle de la « matière de quarks froids ». Il s’agit d’une forme exotique de matière qui diffère de la matière nucléaire classique composée de protons et de neutrons.

Pour comprendre cela, on peut imaginer que la matière nucléaire classique soit comme des briques de construction qui permettent de construire des atomes, lesquels forment la base de toute la matière que nous connaissons, comme les étoiles, les planètes et même nous-mêmes. Dans le cas de la matière de quarks froids, il semblerait que ces  briques  conventionnelles (protons et neutrons) soient remplacées par des composants plus fondamentaux faits de quarks dits libres qui existent librement sans former les briques habituelles.

Cette découverte suggère que l’intérieur des étoiles à neutrons pourrait être bien plus étrange et exotique que ce que l’on avait initialement imaginé. Cette hypothèse pourrait être confirmée à l’avenir grâce à des améliorations dans l’observation des ondes gravitationnelles provenant de collisions d’étoiles à neutrons. Cependant, la confirmation nécessitera des calculs intensifs sur des superordinateurs et des observations plus précises.

Référence

  1. Nature co mmmunications  
Strongly interacting matter exhibits deconfined behavior in massive neutron stars

Nature Communications 

volume 14, Article number: 8451 (2023) 

  • Abstract

Neutron-star cores contain matter at the highest densities in our Universe. This highly compressed matter may undergo a phase transition where nuclear matter melts into deconfined quark matter, liberating its constituent quarks and gluons. Quark matter exhibits an approximate conformal symmetry, predicting a specific form for its equation of state (EoS), but it is currently unknown whether the transition takes place inside at least some physical neutron stars. Here, we quantify this likelihood by combining information from astrophysical observations and theoretical calculations. Using Bayesian inference, we demonstrate that in the cores of maximally massive stars, the EoS is consistent with quark matter. We do this by establishing approximate conformal symmetry restoration with high credence at the highest densities probed and demonstrating that the number of active degrees of freedom is consistent with deconfined matter. The remaining likelihood is observed to correspond to EoSs exhibiting phase-transition-like behavior, treated as arbitrarily rapid crossovers in our framework.

06/01/2024 Le syndrome CKM, un nouveau type de maladie de cœur de plus en plus fréquent

source
https://www.scientificamerican.com/podcast/episode/a-new-type-of-heart-disease-is-on-the-rise1

NB. Nous laissons aux auteurs de cet article l’entière responsabilité de leurs propos. Europesolidaire.eu

Le syndrome CKM apparaît lorsqu’un patient présente à la fois des troubles cardiovasculaires, des atteintes au foie et des maladies du métabolisme tels que le diabète de type 2 et l’obésité. Consulter séparément des spécialistes dans ces trois types de pathologie ne permet pas de mettre en évidence le syndrome CKM.

Selon l’American Heart Association, un tiers des adultes américains présentent des facteurs de risque concernant ce syndrome Ceux-ci accroissent significativement leurs taux de décès.

C’est l’obésité qui est la cause première du syndrome. Les cellules graisseuses secrètent des produits qui entraînent de l’inflammation. Celle-ci attaque les vaisseaux sanguins et réduit le taux d’insuline laquelle combat l’importance du sucre dans la circulation. Davantage de sucre dans le sang et moins de sucre dans les cellules caractérise le diabète.

Les cardiologues sont les premiers à avoir pris conscience de cette question. Mais ils ont beaucoup tardé à l’aborder. Ceci peut s’expliquer parce que les traitements recommandés sont contradictoires. Bénéfiques dans certains cas, ils sont à éviter dans d’autres. Aujourd’hui cependant sont apparues des thérapies efficaces dans le traitement du diabète qui ont aussi des effets cardioprotecteurs ainsi que dans le traitement du foie.

Ces thérapies à base d’agonistes de la  Glucagon-like peptide-1 tels que Ozempic et Wegovy utilisés pour le traitement du diabète et de l’obésité peuvent aussi protéger dans le domaine des troubles cardiovasculaires et rénaux.

Ces médicaments ne doivent pas être utilisés seuls, mais en accompagnement de changements de mode de vie, tels que prendre d’avantage d’exercice. C’est le patient tout entier qui doit être traité. Cette approche globale est nécessaire pour apprécier les risques de celui-ci en matière de syndrome CKM.

Celle-ci se fait dès que le consultant a atteint 30 ans et non 40 ans comme précédemment.

Référence

Cardiovascular-Kidney-Metabolic Health: A Presidential Advisory From the American Heart Association

https://www.ahajournals.org/doi/10.1161/CIR.0000000000001184

Chiadi E. Ndumele,,

 … See all authors 

Originally published 9 Oct 2023

Abstract

Cardiovascular-kidney-metabolic health reflects the interplay among metabolic risk factors, chronic kidney disease, and the cardiovascular system and has profound impacts on morbidity and mortality. There are multisystem consequences of poor cardiovascular-kidney-metabolic health, with the most significant clinical impact being the high associated incidence of cardiovascular disease events and cardiovascular mortality. There is a high prevalence of poor cardiovascular-kidney-metabolic health in the population, with a disproportionate burden seen among those with adverse social determinants of health. However, there is also a growing number of therapeutic options that favorably affect metabolic risk factors, kidney function, or both that also have cardioprotective effects. To improve cardiovascular-kidney-metabolic health and related outcomes in the population, there is a critical need for (1) more clarity on the definition of cardiovascular-kidney-metabolic syndrome; (2) an approach to cardiovascular-kidney-metabolic staging that promotes prevention across the life course; (3) prediction algorithms that include the exposures and outcomes most relevant to cardiovascular-kidney-metabolic health; and (4) strategies for the prevention and management of cardiovascular disease in relation to cardiovascular-kidney-metabolic health that reflect harmonization across major subspecialty guidelines and emerging scientific evidence. It is also critical to incorporate considerations of social determinants of health into care models for cardiovascular-kidney-metabolic syndrome and to reduce care fragmentation by facilitating approaches for patient-centered interdisciplinary care. This presidential advisory provides guidance on the definition, staging, prediction paradigms, and holistic approaches to care for patients with cardiovascular-kidney-metabolic syndrome and details a multicomponent vision for effectively and equitably enhancing cardiovascular-kidney-metabolic health in the population.

05/01/2023 Evolution de l’univers. Apparition de la vie sur les planètes semblables à la Terre

L’univers visible comprend un nombre incroyablement élevé d’amas de galaxies, de galaxies et dans ces galaxies de systèmes solaires comparables au nôtre.

Depuis quelques dizaines d’années, les astronomes ont été en mesure de détecter des milliers de planètes dites exoplanètes en dehors du Système solaire. Nous connaissons maintenant plus de 5000 exoplanètes et ce nombre ne cesse de croître. Dans ces exoplanètes il n’y a aucune raison de penser que ne trouvent pas des formes de vie semblables à la vie terrestre. Encore faudrait-il que la science puisse en donner la preuve. La première démarche en ce sens sera de reconstituer la vie en laboratoire.

Jusqu’à présent, cela n’avait pas été possible. Cependant le but semble se rapprocher. Différentes formules de vie artificielle sont actuellement à l’étude.

Dans un article dont on trouvera ci-dessous les références et l’abstract, des chercheurs annoncent être sur la voie de réaliser ce que l’on nomme un chemoton artificiel

Selon Wikipedia, le terme de chemoton, raccourci pour chemical automaton, a été introduit par le biologiste hongrois Tibor Gentil en 1952 dans son ouvrage The Principles of Life. Il suggérait que le chemoton était le précurseur de toute forme de vie sur la Planète.

Les auteurs de l’article annoncent avoir réalisé un chemoton prébiotique en faisant appel à une réaction autocatalytique dite de formose. Celle-ci, découverte par le chimiste russe Alexandre Boutlerov en 1861, consiste principalement à polymériser le formaldéhyde pour former des sucres y compris des pentoses (sucres à cinq atomes de carbone). Formose est en l’espèce un mot formé sur les termes formaldéhyde et aldose.

Si cette annonce tenait ses promesses, il s’agirait d’un coup de tonnerre qui ne passerait pas inaperçu.

Référence

Issue 35, 2023
From the journal:
Chemical Science

Towards a prebiotic chemoton – nucleotide precursor synthesis driven by the autocatalytic formose reaction

Abstract

The formose reaction is often cited as a prebiotic source of sugars and remains one of the most plausible forms of autocatalysis on the early Earth. Herein, we investigated how cyanamide and 2-aminooxazole, molecules proposed to be present on early Earth and precursors for nonenzymatic ribonucleotide synthesis, mediate the formose reaction using HPLC, LC-MS and 1H NMR spectroscopy. Cyanamide was shown to delay the exponential phase of the formose reaction by reacting with formose sugars to form 2-aminooxazole and 2-aminooxazolines thereby diverting some of these sugars from the autocatalytic cycle, which nonetheless remains intact. Masses for tetrose and pentose aminooxazolines, precursors for nucleotide synthesis including TNA and RNA, were also observed. The results of this work in the context of the chemoton model are further discussed. Additionally, we highlight other prebiotically plausible molecules that could have mediated the formose reaction and alternative prebiotic autocatalytic systems.

04/01/2024 Le réchauffement climatique actuel est-il linéaire ou exponentiel ?

James Hansen est le climatologue de la NASA qui eut la témérité d’affirmer devant une commission du Sénat des Etats-Unis en 1988 qu’il était quasiment certain que la tendance au réchauffement des températures globales observé depuis quelques années n’avait pas une cause naturelle mais était du à l’augmentation dans l’atmosphère du taux de CO2 du aux activités humaines L’effet de serre est là et bien là, avait-il conclu dans l’incompréhension générale

Michael Mann est aussi un climatologue respecté. Il est directeur du Center for Science, Sustainability & the Media de l’Université de Pennsylvanie. Il a contribué à l’étude du réchauffement des températures observé depuis mille ans. Il a introduit le terme de hookey stick, crosse de hockey, pour illustrer le fait que ce réchauffement avait brutalement augmenté depuis le développement des activités liées à la révolution industrielle.

Dans un article au New York Times souvent cité, il avait reconnu qu’il n’avait pas de preuve indiscutable des causes de l’effet de serre, mais que celui-ci était désormais un fait indiscutable.

Le 2 novembre 2023, dans un nouvel article publié par le journal Oxford Open Climate Change Global warming in the pipeline https://academic.oup.com/oocc/article/3/1/kgad008/7335889, James Hansen et ses collègues confirmèrent que les modèles prédictifs utilisés par l’IPCC (International Panel on Climate Chang) étaient trop optimistes. Ces modèles sous- estimaient le fait qu’il existait depuis bien plus longtemps des facteurs inhérents à l’atmosphère terrestre et aux milieux océaniques qui laissaient prévoir un réchauffement élevé plus proche que celui retenu par l’IPCC.

Leur étude est longue et extrêmement détaillée. Elle prend en compte les températures de la Terre depuis 66 millions d’années, telles qu’elles peuvent être déduites de nombreuses traces géologiques et fossiles. Elle inclut l’analyse d’une époque où le niveau de CO2 était la moitié de celui constaté aujourd’hui, et où la Terre était une véritable « boule de glace » ou frozen ball of ice. L’étude identifie les perturbations naturelles telles que les oscillations de la Terre sur son orbite et l’évolution des taches solaires pouvant expliquer ces phénomènes.

Ceci étant, pour les auteurs de l’étude, le réchauffement observé ou prévu actuellement est bien plus intense et rapide que ceux s’étant produit depuis 66 millions d’années.

Le changement climatique se caractérise par un retard dans les effets et des conséquences amplifiées. Il en résulte une difficulté à renverser les tendances une fois qu’elles se sont manifestées. Les travaux récents ont montré que le climat terrestre était très sensible, bien plus que le pensaient les experts de l’IPCC. Ceci se traduit par le fait qu’une grande quantité de changements climatiques est en attente et se produira nécessairement dans un avenir plus ou moins éloigné.

Des mesures importantes sont donc dès maintenant nécessaires pour réduire le réchauffement futur, et diminuer ses conséquences indésirables pour l’humanité et la nature. Mais que seraient ces mesures, que seraient leurs coûts et leurs conséquences ? 

Hansen et d’autres de ses collègues avaient récemment observé que des mesures destinées à diminuer la pollution atmosphérique avaient l’effet contraire à celui désiré . Ainsi en est-il du géo-engineering.

Cette procédure consistant à pulvériser dans la haute atmosphère du dioxide de soufre destiné à renvoyer vers l’extérieur une partie de la chaleur solaire coûterait des trillions de dollars et auraient des effets désastreux sur les systèmes respiratoires des animaux terrestres.

On notera que la question de la lutte contre le réchauffement climatique n’a pratiquement pas été évoquée lors du dernier COP Summit des Nations Unies à Dubai en décembre 2023

Wikipedia

James Edward Hansen (born March 29, 1941) is an American adjunct professor directing the Program on Climate Science, Awareness and Solutions of the Earth …

Michael Evan Mann is an American climatologist and geophysicist. He is the director of the Center for Science, Sustainability & the Media at the University of Pennsylvania.

Pour en savoir plus voir https://cleantechnica.com/2023/07/20/we-are-damned-fools-james-hansen/