31/08/2024 Macron démission

La France traverse actuellement une crise politique grave du fait de l’abus que fait Emmanuel Macron de son irresponsabilité politique.

Désormais celui-ci est partout, se prononce sur tout, décide de tout- et qui plus est avec un air très satisfait de lui. Or il n’ a été élu qu’à une faible majorité. Rappelons qu’au second tour de l’élection présidentielle 2022, organisé les 23 et 24 avril. Emmanuel Macron n’a emporté l’élection qu’avec 58,54% des suffrages exprimés.

Marine Le Pen avait recueilli 41,46% des suffrages exprimés. Le taux d’abstention  s’était élevé à 28,01% des inscrits, on dénombrait 2,2 millions de votes blancs (6,35% des votants).

Aujourd’hui, selon les sondages, la majorité présidentielle , son opposition d’extrême-droite et son opposions de gauche se partagent pour un tiers chacune les préférences des électeurs. Ainsi de facto, les deux tiers des électeurs n’ont pas voix au chapitre.

Quand il s’agit de questions militaires ou diplomatiques, ceci n’est pas anormal, tant du moins que le président reste globalement conforme aux traditions et volontés du pays.

Mais la vie politique est faite de nombreuses décisions moins importantes, mais essentielles, fiscalité, subventions, équilibres régionaux, sans mentionner les questions de politique industrielle ou de recherche scientifique. Qu’Emmanuel Macron soit le seul décideur, sans même de débats politiques sérieux, ne fut-ce qu’à l’Assemblé Nationale, relève de la dictature. Imaginerait-on le Roi d’Angleterre se comporter de la même façon ?

Note

Sous les IIIe et IVe Républiques, le Gouvernement dirigeait la politique de la Nation, et non le Président. Les constituants de 1958 ont poursuivi cette tradition d’irresponsabilité politique du Président. Or, les pouvoirs du Président de la Ve République sont autrement importants.

Cette procédure du contreseing ministériel sur l’ensemble des actes présidentiels apparaissait tout à fait adaptée dans des régimes où le rôle du président de la République était, somme toute, assez réduit.

Cependant, dès lors qu’avec la Constitution de 1958 celui-ci devient la « clef de voûte » et le garant (art. 5) des institutions, l’irresponsabilité du Président apparaît en décalage avec l’importance des pouvoirs qui lui sont dévolus, notamment lorsque le Président exerce les pouvoirs propres à sa fonction (ex : dissoudre l’Assemblée nationale).

Cette procédure du contreseing ministériel sur l’ensemble des actes présidentiels apparaissait tout à fait adaptée dans des régimes où le rôle du président de la République était assez réduit.

Dès lors qu’avec la Constitution de 1958 celui-ci devient la « clef de voûte » et le garant (art. 5) des institutions, l’irresponsabilité du Président apparaît en décalage avec l’importance des pouvoirs qui lui sont dévolus, notamment lorsque le Président exerce les pouvoirs propres à sa fonction (ex : dissoudre l’Assemblée nationale).

Cependant, la révision constitutionnelle du 23 février 2007, en réformant le statut du Président, a introduit un mécanisme de responsabilité politique.

Elle a mis en place, à l’article 68 de la Constitution, une procédure très encadrée de destitution, destinée à sanctionner les atteintes que le comportement du chef de l’État pourrait porter à la fonction présidentielle, « en cas de manquement à ses devoirs manifestement incompatible avec l’exercice de son mandat ».

La destitution peut être prononcée par le Parlement réuni en Haute Cour. Il ne s’agirait donc pas d’une sanction pénale, mais politique, dont la conséquence serait de mettre un terme au mandat du chef de l’État et à l’inviolabilité qui lui est reconnue, pour la durée de ses fonctions, par l’article 67 de la Constitution.

Les possibilités de mettre en cause la responsabilité du Président par cette procédure sont toutefois malheureusement très restrictives.

30/08/2024 LUCA, notre ancêtre à tous

Le dernier ancêtre commun universel est le plus récent organisme dont sont issues toutes les espèces vivant actuellement sur Terre. Le terme en anglais Last Universal Common Ancestor a pour acronyme LUCA.(WIkipedia)

LUCA aurait vécu il y a 3,3 à 4,2 milliards d’années. Il ne doit pas être confondu avec le premier organisme vivant, ni avec l’ancêtre le plus récent de toutes les formes de vie ayant jamais vécu sur Terre (y compris celles aujourd’hui disparues). La complexité des ARN et des protéines qu’il comportait implique qu’il était lui-même issu d’une lignée évolutive plus ancienne, et qu’il cohabitait probablement avec d’autres formes de vie qui n’ont pas laissé de descendants actuels.

LUCA était un organisme assez complexe, déjà issu d’une longue évolution marquée par la sélection naturelle.

L’hypothèse conduisant à ce concept de LUCA est que tous les êtres vivants sont issus d’une même lignée divergente d’ancêtres communs, remontant jusqu’à l’époque où la seule reproduction était la division cellulaire. Cela implique l’existence dans le passé lointain d’une cellule telle que tous les êtres vivants actuels en descendent et qu’au moins deux de ses cellules filles ont un descendant vivant aujourd’hui (autrement, sa seule cellule fille avec une descendance actuelle serait LUCA, le véritable point de divergence du vivant commençant à la génération suivante).

L ‘ADN que l’on retrouve aujourd’hui chez tous les êtres vivants présente de telles similarités qu’il est est tentant de l’attribuer à un ancêtre commun apparu il y a quelques milliards d’années, qui fut appela LUCA.

Aujourd’hui une nouvelle étude interdisciplinaire menée à l’Université de Bristol (UK) sous le responsabilité de Philip Donoghue https://www.bristol.ac.uk/people/person/Philip-Donoghue-4fd2d6ef-3986-4566-97e4-7ae7db296525/
professeur de paléontologie permet de mieux comprendre ce que fut LUCA

L’étude part de l’hypothèse que toutes les séries génétiques que l’on retrouve chez les êtres vivants aujourd’hui dérivent de façon ininterrompue des gènes de LUCA. En remontant cette évolution, on pourrait découvrir ce que fut LUCA.

Il s’agit en pratique d’une tâche très difficile, parce que des séries ont été perdues ou ont fusionné différemment de ce que l’on pourrait croire à première vue. Néanmoins un modèle hypothétique du génome de LUCA a été obtenu. Celui-ci laisse entendre que LUCA fut un organisme bien plus complexe que ce que l’on croyait .

Les chercheurs estiment que 2.600 gènes codant pour des protéines dans les organismes d’aujourd’hui remontent à LUCA, alors que leur nombre était estimé précédemment à 80. Ceci signifie, sauf erreur, que LUCA vivait il y a 4,2 milliards d’années, alors que la formation de la Terre comme planète habitable daterait de 4,5 milliards d’années .

En fait, LUCA n’aurait pas du survivre à la dernière période de bombardement lourd de débris spatiaux subi par la Terre , supposée s’être produite il y a 3,8 milliards d’années.

Mais peut-être que disposant de gènes protégeant des radiations UV les créatures vivant à la surface des océans, était-il un organisme marin, ce qui l’aurait protégé. D’autres gènes suggèrent qu’ii vivait d’hydrogène. Enfin, il paraissait protégé des attaques microbiennes par un système de défense dit CRISPR très étudié aujourd’hui dans la lutte contre les virus

Mais LUCA ne devait-il pas être un organisme isolé mais déjà le représentant de tout un ecosystème

Référence

The nature of the last universal common ancestor (LUCA), its age and its impact on the Earth system have been the subject of vigorous debate across diverse disciplines, often based on disparate data and methods. Age estimates for LUCA are usually based on the fossil record, varying with every reinterpretation. The nature of LUCA’s metabolism has proven equally contentious, with some attributing all core metabolisms to LUCA, whereas others reconstruct a simpler life form dependent on geochemistry. Here we infer that LUCA lived ~4.2 Ga (4.09–4.33 Ga) through divergence time analysis of pre-LUCA gene duplicates, calibrated using microbial fossils and isotope records under a new cross-bracing implementation. Phylogenetic reconciliation suggests that LUCA had a genome of at least 2.5 Mb (2.49–2.99 Mb), encoding around 2,600 proteins, comparable to modern prokaryotes. Our results suggest LUCA was a prokaryote-grade anaerobic acetogen that possessed an early immune system. Although LUCA is sometimes perceived as living in isolation, we infer LUCA to have been part of an established ecological system. The metabolism of LUCA would have provided a niche for other microbial community members and hydrogen recycling by atmospheric photochemistry could have supported a modestly productive early ecosystem.

29/08/2024 Un nouveau mécanisme de refroidissement pour les transistors de graphène

Des physiciens viennent de mettre en évidence un nouveau mécanisme de refroidissement pour les composants électroniques en graphène déposés sur du nitrure de bore. L’efficacité de ce mécanisme leur a permis d’atteindre pour la première fois des intensités électriques à la limite intrinsèque de conduction du graphène.

Du supercalculateur au smartphone, les concepteurs de matériel informatique sont confrontés à un défi majeur : évacuer toujours plus de chaleur pour éviter la dégradation voire même la destruction des composants électroniques. La physique est impitoyable : en augmentant la densité de composants sur une puce vous augmentez nécessairement la dissipation d’énergie et donc l’échauffement. Aujourd’hui, avec les matériaux lamellaires de la famille du graphène, cette question devient particulièrement aiguë, car les composants ne sont constitués que d’une seule couche d’atomes

Dans ce contexte, en réalisant un transistor à base de graphène déposé sur un substrat de nitrure de bore, des physiciens du Laboratoire Pierre Aigrain (CNRS/ENS/UPMC/Univ. Paris Diderot) ont mis à jour un nouveau mécanisme de refroidissement 10 fois plus efficace que la simple diffusion de la chaleur. Ce mécanisme, qui exploite la nature bidimensionnelle des matériaux ouvre un véritable « pont thermique » entre le graphène et le substrat.

Les chercheurs ont démontré l’efficacité de ce mécanisme en faisant circuler dans le graphène des niveaux de courant électrique encore inexplorés, à la limite intrinsèque du matériau et cela sans aucune dégradation du dispositif. Ce résultat, publié dans Nature Nanotechnology, constitue un pas important vers le développement de transistors électroniques hautefréquence à base de graphène.

Pour réaliser cette expérience, les physiciens ont tout d’abord fabriqué un transistor à base de graphène. À cet effet, ils ont déposé le graphène sur un large cristal de nitrure de bore de quelques dizaines de nanomètres d’épaisseur lui-même déposé sur une plaque en or servant de thermostat. Ils ont alors fait fonctionner ce transistor à des intensités électriques croissantes et mesuré à la fois la température des électrons et celle du cristal. La température des électrons a été déduite de la mesure des fluctuations haute fréquence du courant électrique. La température du cristal de nitrure de bore a été mesurée par spectroscopie Raman. Leur première surprise a été d’observer que seuls les électrons s’échauffent, épargnant ainsi la structure cristalline du matériau. Les chercheurs ont ensuite observé l’allumage d’un mécanisme de refroidissement des électrons ultra-efficace au-delà d’un seuil de tension. Ils ont expliqué ce phénomène par l’anisotropie diélectrique de la couche de nitrure de bore. Cette anisotropie confère à cet isolant la propriété remarquable de posséder des modes mixtes lumière-vibration appelés polaritons hyperboliques qui se propagent dans l’épaisseur du matériau dans un régime interdit à la plupart des autres isolants. Ces modes « hyperboliques » ouvrent un véritable pont thermique entre le graphène et l’électrode arrière garantissant un refroidissement 10 fois plus efficace que la simple diffusion de la chaleur.

L’équipe du LPA a montré que l’efficacité de ce mécanisme est décuplée lorsque le transistor entre dans le régime de Zener-Klein, obtenu sous très fort champ électrique dans du graphène de haute mobilité électronique. Dans ce nouveau régime, d’intérêt tout particulier pour des applications d’amplification à haute fréquence, les électrons sont directement pompés de la bande de valence à la bande de conduction par effet tunnel. Dans ces conditions, ils se couplent de manière optimale aux modes hyperboliques, permettant à la chaleur de passer directement au substrat sans endommager le réseau du graphène.

Note.

Rappelons que les semi-conducteurs sont des matériaux qui se situent entre un conducteur et un isolant : ils gèrent et contrôlent le flux de courant dans l’électronique. Ils sont souvent fabriqués à partir de matières premières comme le silicium et le germanium, l’arséniure de gallium ou le carbure de silicium.

Leur production reste un processus complexe : selon AMD, concepteur et vendeur de microprocesseurs« il faut des années de recherche et développement pour concevoir, développer, produire, commercialiser une gamme de semi-conducteurs ». Pour leur fabrication, il faut traiter du sable, le purifier, le liquéfier à 1 700 degrés pour obtenir des lingots de silicium, qui sont ensuite découpés en wafers (« gaufrettes »), de toutes petites galettes de silicium.

Avec la mondialisation et pour baisser les coûts, les acteurs se sont presque tous spécialisés dans une partie de leur chaîne de production : dans les brevets de conception (ARM), dans la conception et la vente (Qualcomm, Nvidia, Broadcom), dans la fabrication (TSMC, Global Foundries). Quelques rares entreprises maîtrisent encore toute la chaîne, comme Samsung et Intel, mais aussi les européennes STMicroelectronics et Infineon. Toutes ne produisent pas le même type de composants et certaines, comme le taïwanais TSMC, sont hyperspécialisées dans des puces très demandées, rendant leur fabrication encore plus stratégique.

Nous lisons dans Le Monde
https://www.lemonde. Le Monde fr/economie/article/2021/10/22/semi-conducteurs-que-sont-ces-puces-electroniques-dont-la-penurie-perturbe-l-economie-mondiale_6099502_3234.html

Les semi-conducteurs sont un marché en croissance quasi continue : en 2020, il représentait 442 milliards de dollars (380 milliards d’euros, + 5,4 % par rapport à 2019) et devrait continuer à croître de 17, 3 % en 2021.

La demande est tirée par plusieurs marchés : celui des mémoires qui permettent de stocker l’information ; celui des smartphones et de leurs infrastructures avec le déploiement de la 5G ; celui de l’industrie automobile (voitures électriques, voitures autonomes, contrôle des airbags, des distances de sécurité ; contrôle du moteur, de la batterie, système « start and stop », climatisation…) ; l’industrie des loisirs, avec les consoles de jeux vedettes du marché (Playstation 5 et Xbox Series X) ; l’Internet of Things (« Internet des objets », ou IoT) qui permet à des objets d’échanger des informations et de communiquer entre eux ; l’intelligence artificielle et le big data, avec des processeurs spécifiques, comme Xeon Ice Lake d’Intel.

Rendues indispensables à l’économie mondiale, ces puces électroniques sont devenues un enjeu stratégique majeur pour les grandes puissances de la planète
au cœur de la bataille que se livrent les Etats-Unis et la Chine pour la domination du secteur des hautes technologies. Si bien que les difficultés actuelles sont aussi héritières de la décision prise en septembre 2020 par Washington de restreindre la vente de technologies à SMIC, le géant chinois des semi-conducteurs, pour contrer les ambitions hégémoniques de Pékin.

La concentration géographique des lieux de production de ces puces est aujourd’hui un sujet d’inquiétudes. Une étude réalisée en avril 2021 par la Semiconductor Industry Association et le Boston Consulting Group a révélé qu’environ 75 % de la capacité mondiale de fabrication de semi-conducteurs, par exemple, est concentrée en Chine et en Asie de l’Est, une région considérablement exposée à une forte activité sismique et à des tensions géopolitiques. Et que 100 % de la capacité mondiale de fabrication des semi-conducteurs les plus avancés (inférieurs à 10 nanomètres) est actuellement située à Taïwan (92 %) et en Corée du Sud (8 %).

La multiplication des difficultés a poussé ces derniers mois les puissances mondiales à réagir pour diminuer cette dépendance. En février, Joe Biden a signé un décret présidentiel afin de sécuriser les filières d’approvisionnement américaines en puces. Les Etats-Unis ont aussi convaincu TSMC de construire une usine de dernière génération dans l’Arizona.

De son côté, Pat Gelsinger, le patron d’Intel, le géant américain du secteur, a prédit que la pénurie risquait de se poursuivre jusqu’en 2023. Dans ce contexte, il a annoncé la construction à venir de deux usines de semi-conducteurs aux Etats-Unis et la formation d’une nouvelle division aux Etats-Unis et en Europe, baptisée Intel Foundry Services, une branche de services pour les fonderies spécialisées dans ces matériaux.

En septembre, lors du salon de l’automobile de Munich, Pat Gelsinger a annoncé qu’il pourrait investir jusqu’à 80 milliards d’euros en Europe au cours des dix prochaines années afin de développer les capacités de production de semi-conducteurs sur le continent. Son groupe devrait dévoiler d’ici à la fin de l’année l’emplacement de deux nouvelles grandes usines en Europe.

La Chine, elle aussi, s’en préoccupe : sans les puces américaines, ni Alibaba ni Huawei ne seraient devenus des géants mondiaux. La Chine produit 36 % de l’électronique mondiale, mais les entreprises chinoises ne fournissent que 7,6 % des semi-conducteurs vendus à travers le monde. Raison pour laquelle Xi Jinping place « l’indépendance technologique » au cœur de nombre de ses discours ainsi que du 14e plan quinquennal (2021-2025).

L’Union européenne (UE) étudie un European Chips Act », loi européenne sur les semi-conducteurs pour défendre sa souveraineté technologique : d’ici à 2030, l’UE ambitionne de produire 20 % des semi-conducteurs dans le monde, soit un doublement de sa part actuelle.

Emmanuel Macron pour la France a présenté un plan d’investissement de 30 milliards d’euros dont six milliards seront consacrés à développer une production nationale de composants-clés,

29/08/2024 Devrons nous laisser à la Chine le monopole des robots humanoïdes intelligents

Avec 1,412 milliard (2022) de Chinois, la Chine dépasse en termes démographiques toutes les puissancs mondiales, y compris l’Inde et les Etats-Unis. Cela lui donnerait un avantage indéniable en cas de conflit militaire.

Mais elle dispose aussi de la même supériorité dans le cas des robots humanoides dits intelligents. L’on dit qu’ils sont intelligents en ce sens qu’ils sont équipés des toutes dernières versions d’Intelligence Artificielle IA.

Comme le révèle un article du quotidien hongkongais South China Morning Post publié le 3 novembre 2023, le ministère chinois de l’Industrie et des Technologies de l’information (MIIT) a publié un rapport de neuf pages à destination des industries du pays. L’objectif est de les appeler à établir un système d’innovation pour les robots humanoïdes, réaliser des percées dans plusieurs technologies clés et garantir l’approvisionnement sûr et efficace des composants essentiels d’ici à 2025.

Ceci devrait, selon les responsables politiques, placer la Chine au premier rang mondial en matière de robots humanoïdes intelligents avant 2030. De plus, le MIIT a affirmé que les industries devront apporter un soin tout particulier au cerveau et aux membres de ces machines.

La volonté de la Chine de devenir un leader mondial dans le domaine des robots humanoïdes intelligents témoigne de son ambition technologique et de son désir de dominer un marché en pleine expansion. Si l’objectif immédiat est d’améliorer la sécurité et l’efficacité dans des secteurs tels que les services d’urgence, il est clair que ce projet pourrait avoir des implications bien plus vastes à long terme.

Les États-Unis et d’autres puissances mondiales devront surveiller de près ces développements, car ils pourraient redéfinir non seulement le futur du travail humain, mais aussi celui de la défense et de la sécurité mondiale.

L’évolution rapide de cette technologie soulève des questions cruciales sur les usages futurs et les régulations nécessaires pour encadrer ces nouvelles formes d’intelligence artificielle et de robotique.

Dans le domaine spatial et plus particulièrement dans le but d’établir des bases de longue durée sur la Lune et sur Mars le recours à de tels robots intelligents se révèle d’ores et déjà indispensable vu l’impossibilité de protéger durablement des cosmonautes humains des différents types de radiation.

28/08/2022 Les ondes gravitationnelles pourraient révéler le moment où le temps a commencé

Récemment, en utilisant des modèles mathématiques issus de la physique des plasmas, des chercheurs ont pu adapter leurs équations pour explorer comment les ondes gravitationnelles interagissent avec la matière. Cette approche a révélé que les interactions entre les ondes gravitationnelles et les particules pourraient fournir des indices précieux sur les conditions de l’Univers juste après le Big Bang.

Concrètement, les chercheurs ont découvert que bien qu’elles ne projettent pas d’ombre comme la lumière, les ondes gravitationnelles peuvent influencer la matière de manière mesurable. En étudiant comment ces ondes affectent la matière et le rayonnement que nous pouvons observer aujourd’hui, les scientifiques espèrent obtenir des informations indirectes sur les premières étapes de l’univers.

Ce travail théorique, publié dans le Journal of Cosmology and Astroparticle Physics, est encore en développement. Les formules mathématiques développées jusqu’à présent sont prometteuses, mais il faudra encore des efforts pour obtenir des résultats significatifs. Leur objectif sera de comprendre comment les ondulations de l’espace-temps ont interagi avec la matière primitive et comment ces interactions pourraient être détectées à travers les observations actuelles.

Référence

https://iopscience.iop.org/article/10.1088/1475-7516/2022/08/017

Gravitational wave modes in matter

Deepen Garg and I.Y. Dodin1

Published 10 August 2022 • 
Journal of Cosmology and Astroparticle PhysicsVolume 2022August 2022

Abstract

A general linear gauge-invariant equation for dispersive gravitational waves (GWs) propagating in matter is derived. This equation describes, on the same footing, both the usual tensor modes and the gravitational modes strongly coupled with matter. It is shown that the effect of matter on the former is comparable to diffraction and therefore negligible within the geometrical-optics approximation. However, this approximation is applicable to modes strongly coupled with matter due to their large refractive index. GWs in ideal gas are studied using the kinetic average-Lagrangian approach and the gravitational polarizability of matter that we have introduced earlier. In particular, we show that this formulation subsumes the kinetic Jeans instability as a collective GW mode with a peculiar polarization, which is derived from the dispersion matrix rather than assumed a priori. This forms a foundation for systematically extending GW theory to GW interactions with plasmas, where symmetry considerations alone are insufficient to predict the wave polarization.

28/00/2024 Réalisation aux États-Unis d’un nouveau matériau supraconducteur susceptible de bouleverser l’informatique quantique.

Vu l’importance qu’auront les ordinateurs quantiques dans tous les domaines des science et technologies, tant civiles que militaires,  on peut s’étonner de voir le peu de moyens que mettent les grandes puissances mondiales pour maitriser ce domaine.

En tout cas, une équipe de chercheurs de l’Université de Californie Riverside a fait un grand pas dans cette direction.. Elle a développé un nouveau matériau supraconducteur qui pourrait être utilisé à grande échelle dans les composants des calculateurs quantiques, quelle que soit leur taille .

Leur méthode repose l’utilisation de tellure trigonal, un matériau connu pour ses propriétés chirales (non superposable à son image dans un miroir plan) et non magnétiques, combiné à un supraconducteur à l’état de surface généré sur une fine couche d’or. Il en résulte une interface à deux dimensions et aux caractéristiques qui le distinguent des supraconducteurs conventionnels.

Ce matériau, qui pourrait fonctionner en tant que supraconducteur topologique (aucune résistance électrique et des propriétés uniques en fonction de sa forme), est ainsi six fois plus performant. De quoi générer des qubits en quantité !

Peng Wei, professeur agrégé de physique et d’astronomie et leader de l’équipe de recherche, déclare : “Notre matériau pourrait être un candidat prometteur pour développer des composants informatiques quantiques plus évolutifs et plus fiables.

 Les chercheurs s’en sont servis pour créer des résonateurs micro-ondes à faibles pertes. Ce sont ces pertes qui, à l’heure actuelle, constituent la première des difficiles à résoudre pour l’essor de l’informatique quantique.

Peng Wei précise être parvenu à ce résultat “en utilisant des matériaux beaucoup plus fins que ceux généralement utilisés dans l’industrie de l’informatique quantique. Les résonateurs micro-ondes à faibles pertes sont des composants essentiels de l’informatique quantique et pourraient conduire à des qubits supraconducteurs à faibles pertes”.

Référence

  • Signatures of a spin-active interface and a locally enhanced Zeeman field in a superconductor-chiral material heterostructure

Cliff Chen https://orcid.org/0009-0009-1424-2039Jason Tran https://orcid.org/0009-0007-4675-6320Anthony McFaddenRaymond Simmonds https://orcid.org/0000-0003-2217-2965Keisuke SaitoEn-De Chu https://orcid.org/0000-0002-2713-5234Daniel Morales https://orcid.org/0009-0004-0109-0025Varrick Suezaki https://orcid.org/0009-0005-9482-424XYasen Hou[…], and Peng Wei https://orcid.org/0000-0003-2289-6007 
+3 authors

Science Advances
23 Aug 2024
Vol 10, Issue 34

DOI: 10.1126/sciadv.ado4875

Abstract

A localized Zeeman field, intensified at heterostructure interfaces, could play a crucial role in a broad area including spintronics and unconventional superconductors. Conventionally, the generation of a local Zeeman field is achieved through magnetic exchange coupling with a magnetic material. However, magnetic elements often introduce defects, which could weaken or destroy superconductivity. Alternatively, the coupling between a superconductor with strong spin-orbit coupling and a nonmagnetic chiral material could serve as a promising approach to generate a spin-active interface. Here, we leverage an interface superconductor, namely, induced superconductivity in noble metal surface states, to probe the spin-active interface. Our results unveil an enhanced interface Zeeman field, which selectively closes the surface superconducting gap while preserving the bulk superconducting pairing. The chiral material, i.e., trigonal tellurium, also induces Andreev bound states (ABS) exhibiting spin polarization. The field dependence of ABS manifests a substantially enhanced interface Landé g-factor (geff ~ 12), thereby corroborating the enhanced interface Zeeman energy.

27/08/2024 Découverte de l’ADN d’un mammouth laineux gelé dans le permafrost

Pour la première fois, des scientifiques ont montré que l’architecture tridimensionnelle des chromosomes pouvait être préservée, il est vrai dans des conditions très particulières.

Cette découverte ouvre une fenêtre vers le passé, sur la biologie d’espèces éteintes.

Il y a cinquante-deux mille ans, une femelle mammouth, de l’espèce dite mammouth laineux, mourrait dans l’actuelle Sibérie. Son corps fut presque instantanément gelé, sous les températures de la dernière période glaciaire.

Cinquante-deux mille ans après, le 11 juillet 2020, sur l’écran de la revue scientifique Cell apparaît l’image numétique attribuée à des « chromosomes fosssiles ».

Pour réaliser cet exploit, il a fallu dix ans d’une aventure scientifique qui a fait se rencontrer deux familles de généticiens : des paléogénéticiens, qui analysent l’ADN ancien, et des spécialistes de la génomique structurelle.

Ces derniers étudient l’architecture du génome. Dans le noyau de nos cellules, les chromosomes, constitués d’ADN et de protéines, ne sont pas repliés de manière aléatoire. Des régions physiquement proches interagissent entre elles, alors même qu’elles peuvent être très éloignées sur la séquence génétique.

Connaître la structure tridimensionnelle du génome est suffisant pour avoir une image de l’activité des gènes », selon Marc Marti-Renom, chercheur spécialisé dans la génomique structurelle au Centre national d’analyse génomique, à Barcelone, et coauteur de l’étude.

Jusqu’ici, les paléogénéticiens étaient bloqués dans une dimension linéaire. Car l’ADN ancien se présente habituellement comme de toutes petites parcelles. Et son analyse consiste à observer les variations sur la séquence génétique, les mutations. « Ce que vous disent les mutations, c’est de quoi est capable votre génome, mais çela ne dit pas ce qu’il fait exactement», explique Régis Debruyne, ingénieur de recherche en paléogénétique au Muséum national d’histoire naturelle, à Paris.

Mais les auteurs de cette étude avaient une intuition : l’architecture tridimensionnelle des chromosomes pourrait être, dans certains cas, préservée. Et c’est cette femelle mammouth, retrouvé dans le permafrost, ce sol perpétuellement gelé, par une expédition scientifique en 2018, qui a permis de la confirmer.

Les chercheurs ont utilisé sur un échantillon de sa peau une technique d’analyse à haut débit de la conformation des chromosomes appelée Hi-C, qui permet d’isoler les zones de contact entre des séquences ADN qui sont géographiquement proches dans le noyau des cellules. Cette analyse leur a montré que la conformation des chromosomes était conservée, cinquante-deux mille ans après la mort de l’animal.l

Ils ont ensuite pu reconstituer le génome de la mammouth. En l’assemblant pièce par pièce, chacune étant composée de minuscules bouts de chromosomes collés, ils ont résolu un immense puzzle en 3D.

Cette méthode est une petite révolution dans la paléogénomique. Habituellement, chaque petit fragment d’ADN ancien est « aligné » sur un génome connu, celui de l’éléphant par exemple. Comme s’il fallait trouver où va cette petite pièce d’ADN de mammouth, dans un puzzle du génome d’éléphant, à plat. Résoudre un puzzle entier de mammouth en 3D est une première.

« Ce sont des choses qu’on rêvait de pouvoir faire depuis une quinzaine d’années, réagit Régis Debruyne, qui n’a pas participé à l’étude. Ouvrir des dimensions de la génomique qui, jusque-là, nous paraissaient inaccessibles. »

Les chercheurs ont pu enfin compter les chromosomes du mammouth : vingt-huit, comme l’éléphant. Ils avaient utilisé la même méthode pour reconstituer en 3D les génomes des éléphants d’Asie et d’Afrique. « Pour la première fois, on peut voir des différences dans la structure du génome entre une espèce éteinte et celle que l’on utilise comme référence. Cela ouvre des possibilités inédites ! », selon Michael Hofreiter, professeur de génomique évolutive à l’université de Potsdam, en Allemagne.

En comparant les génomes de ce mammouth laineux et de l’éléphant d’Asie, son plus proche cousin, les auteurs ont remarqué que deux régions diffèrent, non pas dans leur séquence, mais dans leur expression. Dans le livre du génome, deux chapitres sont lus chez l’un, et pas chez l’autre. Le premier contient le code pour faire pousser des poils. Le deuxième est une région impliquée dans l’adaptation au froid.

 « Cette technologie ouvre une fenêtre vers le passé. En nous permettant de mieux comprendre la régulation des gènes, lesquels étaient activés au moment où l’animal est mort », explique Marcela Sandoval-Velasco, ancienne post-doctorante au Centre d’hologénomique évolutive, à Copenhague. Elle ouvre un nouveau champ d’exploration de la biologie des espèces éteintes, comme plus généralement de l’évolution.

En fait on peut prévoir que cette publication pourrait ouvrir « un nouvel eldorado ». Une ruée vers des échantillons du permafrost révélerait de nouveaux chromosomes fossiles.

Ces résultats marquent aussi une avancée dans la connaissance du génome du mammouth. Une espèce emblématique, qui fait l’objet de projets controversés de « dé-extinction » ou de « réapparition » menés par des entreprises comme l’américaine Colossal Biosciences https://colossal.com/.

Pour comprendre comment la structure tridimensionnelle des chromosomes a pu être préservée dans la peau de ce mammouth, l’équipe s’est associée à des physiciens. Cette conservation exceptionnelle est liée à un phénomène de vitrification, une déshydratation par le froid, similaire à celle utilisée dans l’industrie agroalimentaire pour la conservation des aliments. Ils ont appelé cet état le « chromoglass », ou « verre de chromosomes ». Il fige les fragments de chromosomes, à l’échelle nanométrique, tels des milliers de voitures dans un embouteillage géant.

Ce « chromoglasss » peut-il être retrouvé dans d’autres restes d’espèces disparues ? Les auteurs l’espèrent, car ils ont pu reproduire leurs analyses sur un autre petit mammouth, datant de trente-neuf mille ans. Quant aux espèces fossiles, connues ou inconnus, elles pourraient se compter par milliers.

En fait on peut prévoir que cette publication pourrait ouvrir « un nouvel eldorado ». Une ruée vers des échantillons du permafrost révélerait de nouveaux chromosomes fossiles.

Ces résultats marquent aussi une avancée dans la connaissance du génome du mammouth. Une espèce emblématique, qui fait l’objet de projets controversés de « dé-extinction » ou de « réapparition » menés par des entreprises comme l’américaine Colossal Biosciences https://colossal.com/.

Il est certain que Colossal gardera un œil attentif, à l’avenir, à cette nouvelle dimension de la paléogénomique. Même si « déséteindre » une espèce reste, pour le moment, de la science-fiction.

Article adapté de

https://www.lemonde.fr/sciences/article/2024/07/11/le-genome-d-un-mammouth-laineux-reconstitue-en-3d-a-partir-de-chromosomes-fossiles_6248827_1650684.html

26/08/2924 Les enjeux du passage à l’hydrogène

Ces enjeux sont aujourd’hui nombreux. En résumant, on peut en citer trois  

L’hydrogène pour le stockage d’électricité et son injection dans les réseaux

Le stockage d’énergie sous forme d’hydrogène permet de pallier l’intermittence des énergies renouvelables (éolien et solaire) en optimisant la capacité de production électrique

Dans le cadre du développement d’un mix électrique renouvelable, l’électrolyse permet, quand le réseau est excédentaire (c’est-à-dire quand la production d’électricité est supérieure à sa consommation), de stocker de l’hydrogène sur un temps court ou long selon les besoins.

Dans le cas d’un réseau déficitaire au contraire, l’hydrogène disponible peut être réutilisé dans une pile à combustible pour fabriquer de l’électricité.   

L’hydrogène peut être également injecté directement dans les réseaux de gaz

  • par injection directe dans les réseaux gaziers pour combustion ;
  • par production de méthane de synthèse (selon le principe de méthanation) : conversion du monoxyde (CO) ou du dioxyde de carbone (CO2) en présence d’hydrogène, qui peut ensuite être transformé en chaleur, électricité ou carburant. 
L’hydrogène pour décarboner le secteur industriel 

L’hydrogène peut être utilisé dans le secteur industriel

  • d’une part pour alimenter en énergie décarbonée les unités industrielles concernées ; 
  • d’autre part pour contribuer à la décarbonation des procédés industriels concernés en substitution des énergies fossiles utilisées actuellement : c’est le cas par exemple de la fabrication d’acier qui résulte de la réduction des minerais de fer. Cette réduction opérée aujourd’hui via le charbon pourrait demain l’être en utilisant de l’hydrogène décarboné.
     

Le déploiement de l’hydrogène renouvelable est annoncé. Des projets de grande ampleur se montent comme NortH2, plus grand projet de production d’hydrogène vert d’Europe. Objectif : produire de l’hydrogène vert en utilisant de l’électricité renouvelable provenant de l’éolien offshore au large des Pays-Bas.

Lever les obstacles

Le déploiement de l’hydrogène décarboné est à envisager d’ici la fin de la décennie, son plein essor étant plutôt pour la suivante. Il nécessite de lever un certain nombre d’obstacles.

Faire baisser les coûts

L’hydrogène vert est encore cher et ne pourra se déployer qu’à la condition de réduire les coûts sur l’ensemble de la chaîne de valeur, à commencer par le coût de production de l’électricité renouvelable (solaire, éolien) mais également celui des électrolyseurs ou des piles à combustible.

Combien coûte l’hydrogène décarboné ?

Produire de l’hydrogène à partir de l’électrolyse coûte aujourd’hui 2 à 3 fois plus cher que le vaporeformage et 2 fois plus cher que le reformage avec captage du CO2. Cette voie est réservée aujourd’hui à des usages spécifiques comme l’électronique, qui requièrent un niveau élevé de pureté.

La complexité de la chaîne de valeur et les différentes transformations impliquent en outre des cascades de rendement, sources de pertes d’énergie, qui ont pour effet de renchérir les coûts de production.

En parallèle, un prix du CO2 relativement élevé permettrait de réduire l’écart de coût avec le reformage du gaz naturel. Cependant, la hausse de la fiscalité carbone doit être progressive et s’accompagner de politiques publiques de soutien pour les populations les plus démunies.

Construire les infrastructures

Le déploiement de l’hydrogène électrolytique nécessite la mise en place d’une infrastructure complexe comprenant, outre des capacités de production alimentées par des énergies renouvelables (fermes éoliennes ou solaires, connectées ou non au réseau électrique), un réseau de transport et de distribution connectant ces capacités de production aux sites d’utilisation, et un ensemble de capacités de stockage variées mises également en réseau. Le tout devra être géré par un système intelligent permettant d’optimiser l’adéquation de l’offre et de la demande à phases de temps quotidiennes à temporaires.

Il est en outre nécessaire de mutualiser la construction des infrastructures de captage, de transport et de stockage de CO2. En Europe, les premiers éléments de cette infrastructure seront opérationnels dès le milieu de la décennie.

Le déploiement des infrastructures de transport et de distribution nécessite des investissements importants et une durée de mise en œuvre relativement longue.
 

Source

Cet article est adapté de

https://www.ifpenergiesnouvelles.fr/enjeux-et-prospective/decryptages/energies-renouvelables/tout-savoir-lhydrogene#:~:text=G%C3%A9n%C3%A9ralement%2C%20il%20est%20produit%20%C3%A0,combustible%20ou%20par%20combustion%20directe.

26/08/2024 Moins de pétrole. Place à l’hydrogène

Le Texas, célèbre pour ses puits de pétrole, pourrait donner l’exemple de la nouvelle révolution énergétique en préparation. Oublions l’or noir, place à l’hydrogène vert ! Un grand projet, baptisé « Hydrogen City », est en cours de développement dans le sud de l’État, plus précisément sur le dôme salin de Piedras Pintas. L’objectif ? Produire 280 000 tonnes d’hydrogène vert par an,

Ce projet, fruit d’un partenariat entre Green Hydrogen International (GHI) et Inpex Corporation, vise à répondre à la demande croissante en carburants propres. L’hydrogène vert, produit à partir d’énergies renouvelables comme le solaire et l’éolien, est considéré comme une alternative propre aux combustibles fossiles. Il peut être utilisé dans de nombreux secteurs, du transport à la production d’électricité, en passant par l’industrie.

L’une des particularités d’Hydrogen City réside dans son système de stockage. Le dôme salin de Piedras Pintas, une formation géologique souterraine, pourrait stocker jusqu’à 6 TWh d’énergie, l’équivalent de la consommation annuelle de plusieurs millions de foyers. Cette solution innovante permettrait de pallier l’intermittence des énergies renouvelables et d’assurer une production d’hydrogène stable et continue.

———————————————-

Hydrogène City ne sera que l’un des nombreux exemple de production et d’utilisation de l’hydrogène dans le monde actuel. Il faut rappeler à ce sujet un certain nombre de points encore mal perçus par les opinions publiques

Qu’est-ce que l’hydrogène et où le trouve-t-on?

Comme l’électricité, le dihydrogène H2 (hydrogène) est principalement 
un vecteur énergétique et non une énergie en tant que telle, car il est produit au moyen d’une réaction chimique à partir d’une ressource primaire.
Actuellement, pour des raisons économiques, l’hydrogène est issu 
à 95 % de la transformation d’énergies fossiles, dont pour près de la moitié à partir du gaz naturel.

Où se trouve l’hydrogène ?

Les ressources principales permettant aujourd’hui de produire le dihydrogène H2 ou hydrogène, sont l’eau et les hydrocarbures (le charbon, le pétrole ou le gaz). 

En effet, chaque molécule d’eau est le fruit de la combinaison entre un atome d’oxygène et deux atomes d’hydrogène, suivant la formule H2O.

Les hydrocarbures sont issus de la combinaison d’atomes de carbone et d’hydrogène. C’est par exemple le cas du méthane, constituant principal du gaz naturel dont la formule est CH4, l’une des combinaisons les plus simples pour les hydrocarbures.

L’hydrogène existe aussi à l’état naturel. Les premières sources naturelles d’hydrogène ont été découvertes au fond des mers dans les années 70 et plus récemment à terre. Si les connaissances concernant l’hydrogène ont fortement progressé ces dernières années, il reste encore à évaluer le potentiel que représente cette ressource pour la transition énergétique : quels volumes existants ?  Quelles réserves éventuelles ? Quelles méthodes de production ? De même, la compréhension des  mécanismes de formation, de migration et d’accumulation de l’hydrogène dans le sous-sol , qui permettraient de mieux organiser l’exploration, suscitent encore un certain nombre de questionnements. Une production à l’échelle industrielle à l’horizon 2035/2040 nécessite de financer plus lourdement la R&D sur ce sujet. 

Techniques de production

– le reformage du gaz naturel à la vapeur d’eau est la technique la plus répandue. Il s’agit de faire réagir du méthane avec de l’eau pour obtenir un mélange contenant de l’hydrogène et du CO2. Le CO2 émis par ce procédé pourrait éventuellement être capté et stocké pour produire un hydrogène décarboné. En lieu et place du gaz naturel, l’utilisation du biométhane (méthane issu de la fermentation de la biomasse) constitue aussi une solution pour produire un hydrogène décarboné ;

– l’hydrogène peut aussi être produit à partir d’eau et d’électricité, c’est l’électrolyse de l’eau. L’électrolyseur sépare une molécule d’eau en hydrogène  et en oxygène. Cette voie est encore peu répandue car nettement plus coûteuse (2 à 3 fois plus chère que le reformage du gaz naturel) et réservée aujourd’hui à des usages spécifiques, comme l’électronique, qui requièrent un niveau élevé de pureté ;

-la gazéification permet de produire, par combustion, un mélange de CO et d’H2 à partir de charbon (solution qui émet beaucoup de CO2) ou de biomasse.

Aujourd’hui, 95 % de l’hydrogène est produit à partir d’hydrocarbures (pétrole, gaz naturel et charbon), solution la moins coûteuse. Cependant, ce processus est, sauf pour la pyrolyse, émetteur de CO2, gaz à effet de serre. Pour produire de l’hydrogène faiblement carboné, trois options s’offrent aux industriels : capter le CO2 émis lors de la production par transformation des énergies fossiles, puis le transporter pour le stocker géologiquement, pyrolyser du méthane et séparer le carbone sous forme solide, enfin, le produire via l’électrolyse de l’eau, l’électrolyse étant opérée à partir d’une électricité peu carbonée fournie par de l’énergie nucléaire, éolienne ou solaire. L’enjeu reste toutefois pour cette dernière option, le coût de ce mode de production, plus onéreux à ce jour que celui du reformage du gaz naturel , même en considérant le surcoût lié au captage du CO2.

Hydrogène vert, gris, bleu et jaune : de quoi parle-t-on ?

– L’hydrogène vert est fabriqué par électrolyse de l’eau à partir d’électricité provenant uniquement d’énergie renouvelable ;

– L’hydrogène gris est fabriqué par procédés thermochimiques avec comme matières premières des sources fossiles (charbon ou gaz naturel) ;

 L’hydrogène bleu est fabriqué de la même manière que l’hydrogène gris, à la différence que le CO2 émis lors de la fabrication sera capté pour être réutilisé ou stocké ;

– L’hydrogène jaune, plus spécifique à la France, est fabriqué par électrolyse comme l’hydrogène vert mais l’électricité provient essentiellement de l’énergie nucléaire.  Il s’agira d’une solution idéale pour la France surtout quand elle pourra accéder au nucléaire de fusion (ITER) en complément du nucléaire de fission

L’Ademe https://www.ademe.fr/en/frontpage/ a récemment suggéré de changer la terminologie. L’hydrogène qui était jusqu’ici appelé « vert » est désormais appelé « renouvelable », l’hydrogène « gris » devient « fossile », et enfin, les hydrogènes « bleu » et « jaune » sont regroupés sous l’appellation « bas-carbone »

Une fois fabriqué, cet hydrogène doit être stocké, puis transporté jusqu’à son lieu de distribution et d’utilisation.

Comment est stocké l’hydrogène ?

Le dihydrogène possède une très grande densité massique d’énergie (1 kg d’hydrogène contient autant d’énergie qu’environ 3 kg de pétrole) mais une très faible densité volumique. Il faut le transformer pour pouvoir le stocker dans un volume utilisable. 
–    en le comprimant à 700 bar : 7 litres d’hydrogène peuvent contenir ainsi autant d’énergie qu’1 litre d’essence ;
–    en le liquéfiant pour le comprimer davantage à une température de – 253 °C : 4 litres d’hydrogène liquide équivalent alors à 1 litre d’essence.  

Densifier l’hydrogène permet d’opérer à des pressions plus faibles mais réclame plus d’énergie, ce qui le rend plus coûteux. 

Les modalités de stockage sont multiples (batteries, stockage massif en cavités salines) selon l’usage que l’on veut en faire.  

Comment se transporte l’hydrogène ?

L’hydrogène est généralement transporté sous forme comprimée via un réseau de pipelines relativement étendu, avec un total de plus de 4 500 km dans le monde, dont 1 600 km en Europe et 2 500 km aux États-Unis.

Des pays comme le Japon envisagent également d’importer de l’hydrogène, qui serait alors transporté par bateau depuis l’Australie par exemple.

Comment s’utilise l’hydrogène aujourd’hui ?

Actuellement, l’hydrogène a deux utilisations principales : d’une part, il sert de matière de base pour la production d’ammoniac (engrais) et de méthanol ; d’autre part, il est utilisé comme réactif dans les procédés de raffinage des bruts en produits pétroliers, carburants et biocarburants. 

Les usages qu’il est possible d’en faire sont néanmoins nombreux, et l’hydrogène est prometteur pour décarboner un certain nombre de secteurs et accompagner la transition énergétique. 

—————————————————– 

L’HYDROGÈNE DANS LA TRANSITION ÉNERGÉTIQUE

Récupérer de l’énergie à partir du dihydrogène renouvelable ou bas-carbone préalablement stocké se fait de deux façons :

  • soit sous forme de chaleur via sa combustion directe avec le dioxygène ;
  • soit sous forme d’électricité via une pile à combustible (PaC). 

Dans les deux cas la réaction globale ne produit que de l’eau et l’énergie produite peut être diversement valorisée. L’hydrogène se voit assigner trois objectifs essentiels pour réussir la transition énergétique. 

L’hydrogène pour décarboner les transports 

En France le transport émet 27 % des émissions de GES globales, ce qui en fait le premier secteur émetteur. Les enjeux sur la mobilité sont donc considérables, car la solution hydrogène appliquée à la mobilité « propre » en utilisant la combustion directe ou la pile à combustible, permet de réduire considérablement les émissions. 

Un véhicule diesel produit entre 40 et 45 tonnes de CO2 sur l’ensemble de sa durée de vie, un véhicule hydrogène produit par reformage un peu plus de 35 tonnes, et un véhicule hydrogène produit par électrolyse renouvelable moins de 15 tonnes.

Les voitures alimentées en hydrogène ont au mieux un impact carbone 74 % moindre que les véhicules thermiques traditionnels (Source : Carnot ARTS).

La voiture à hydrogène

Les caractéristiques physico-chimiques de l’hydrogène en font un bon candidat pour une utilisation comme carburant dans un moteur à allumage commandé de type « essence ». Le principal avantage réside dans le bilan environnemental

Combinée à l’oxygène, la combustion de l’hydrogène produit essentiellement de l’eau et de la chaleur et ne rejette que des oxydes d’azote (NOx). Cependant, cette solution nécessite des adaptations spécifiques pour obtenir un très haut rendement et de très faibles émissions de NOx. Il faut notamment exploiter différentes propriétés de l’hydrogène comme sa capacité à brûler rapidement en mélange très pauvre.

L’utilisation de l’hydrogène dans un moteur à combustion interne peut bénéficier des dernières avancées du moteur thermique et du couplage avec une chaîne de traction hybride. Ainsi, en se basant sur des technologies plus robustes et matures que celles utilisées actuellement pour les piles à combustible, il serait possible d’atteindre un rendement supérieur à 50 %.

Ce pourrait être une solution de transition vers la pile à combustible puisqu’elle permet de commencer la validation de toute la filière de production et de distribution de l’hydrogène en utilisant les outils industriels de production existants.

La pile à combustible dans les voitures électriques

Pour le long terme, les constructeurs automobiles s’intéressent aussi aux piles à combustible (ou Fuel Cell), comme générateurs d’électricité pour les véhicules électriques. Ceci afin de compléter les solutions de véhicules électriques à batteries, souffrant aujourd’hui de la limitation en autonomie et du temps de recharge de ces batteries.

L’hydrogène sert alors à alimenter une pile à combustible — laquelle produit de l’électricité — pour permettre le fonctionnement du moteur électrique qui fait avancer le véhicule. L’hydrogène est un des meilleurs vecteurs d’énergie pour les piles à combustible aujourd’hui en termes de performances énergétiques et d’émissions. Leur rendement est globalement supérieur à 50 % sur une large plage de fonctionnement, ce qui représente un avantage intéressant par rapport à un moteur thermique essence actuel. 

Alimentée par un mélange d’air et d’hydrogène, la pile convertit l’énergie chimique de l’hydrogène en énergie électrique suivant le principe inverse de l’électrolyse. En faisant réagir de l’hydrogène avec de l’oxygène de l’air sur les électrodes (de fines membranes recouvertes d’un catalyseur, le platine), les piles à combustible permettent de produire de l’électricité sans autre émission que de la vapeur d’eau. Le principe date de 1839 ! Il est utilisé depuis longtemps pour produire de l’électricité à bord des fusées.

Le train et l’avion à hydrogène

Le train à hydrogène . Le plan français en faveur de l’hydrogène compte parmi ses objectifs la mise en service d’un premier train à hydrogène en France en 2022. À la suite de l’Allemagne, la France fait ses premiers pas dans la mobilité ferroviaire à hydrogène, la SNCF et les Régions ayant lancé le projet TER H2 qui vise à mettre en place la toute première flotte de trains hydrogène régionaux dans plusieurs régions françaises pilotes.

https://www.groupe-sncf.com/en/innovation/decarbonization-trains/hydrogen-ter

L’avion à hydrogène ou « avion propre » et de sécuritéDans ce type d’avion, l’hydrogène est brulé dans les turbines à gaz du moteur au niveau de chambres de combustion. Puis, grâce à une pile à combustible, l’énergie dégagée se transforme en énergie électrique qui alimente ensuite le moteur.

Au sein de l’avion, l’hydrogène peut être stockée sous forme gazeuse ou liquide à -235 degrés. Comme il dispose d’une faible densité par rapport au kérosène actuel, les structures des avions pourront être modifiées dans le futur sans difficulté. Enfin, comme l’hydrogène ne pollue pas, il s’agit d’une opportunité à saisir pour atteindre le zéro émissions d’ici 2050.

Source

Cet article est adapté de

https://www.ifpenergiesnouvelles.fr/enjeux-et-prospective/decryptages/energies-renouvelables/tout-savoir-lhydrogene#:~:text=G%C3%A9n%C3%A9ralement%2C%20il%20est%20produit%20%C3%A0,combustible%20ou%20par%20combustion%20directe.

25/08/2024 De gigantesques soleils noirs se formeraient au cœur des galaxies




On donne depuis presque 50 ans le nom de soleil noir à ce qui se produit lorsqu’une étoile passe trop près d’un trou noir supermassif. Le phénomène ne peut pas être observé directement mais a donné lieu à des simulations informatiques dont certaines des prédictions ont vérifiées, mais dont d’autres ne l’ont pas encore été. Une nouvelle simulation pourrait apporter la clé de l’énigme en montrant qu’il se formerait une enveloppe de matière chaude quasi sphérique autour de ces astres compacts se trouvant au cœur des galaxies, produisant ce que l’on peut appeler des soleils noirs.

Daniel Price, professeur d’astrophysique à l’université Monash en
Australie a écrit un article dans lequel il explique les résultats
qu’il a obtenus avec des collègues. L’article est en accès libre
sur arXiv.  Nous en donnons ici un résumé.

______________________________________

L’article précise la description de ce que l’on nomme  Tidal disruption event (ou TDE), ce qui peut se traduire par « évènement de rupture par effet de
marée ». Un TDE se produit avec une étoile dont la trajectoire
est trop rapprochée d’un trou noir supermassif. Les forces de marée du trou noir compriment l’étoile jusqu’à produire ce que l’on a nommé une crêpe stellaire en raison de la forme de la déformation causée par ces forces. L’étoile peut finir par exploser et ses débris sont avalés par le trou noir.

Les TDE ont été théorisés pour la première fois par Jack G. Hills, Juhan Frank et Martin Rees au cours des années 1970 sur une idée de Lynden-Bell (1969) qui voulait en faire la source d’énergie des quasars et des noyaux actifs des galaxies de Seyfert.

Mais il a fallu attendre le début des années 1980 pour que des investigations sérieuses conduisant à des modèles et des simulations numériques précises soient entreprises. À cet égard, on peut considérer que Jean-Pierre Luminet et Brandon Carter, tous deux à l’Observatoire de Paris à cette époque, en sont les pionniers, comme le montre une publication dans le journal Nature en 1982, suivie d’une autre dans Astronomy & Astrophysics en 1983. Les deux astrophysiciens relativistes ont montré dans cet article qu’un TDE avec un trou noir supermassif conduisait les forces de marée à comprimer l’étoile jusqu’à produire « une crêpe stellaire ». Un TDE peut aussi donner lieu à un processus de « spaghettification ».

Les crèpes stellaires

Mais, regardons de plus près ce qu’est le phénomène des crêpes stellaires. Pour mieux le comprendre, on peut commencer par remonter aux travaux d’Édouard Roche, le mathématicien et astronome français à l’origine de la limite de Roche. Elle exprime le fait qu’il existe une distance limite d’approche d’un petit corps céleste au voisinage d’un corps plus grand.

L’écrasement d’une étoile par les forces de marée d’un trou noir géant se traduit par la déformation progressive de l’étoile dans son plan orbital puis dans la direction perpendiculaire (vue par la tranche). Initialement, les forces de marée sont faibles et l’étoile reste pratiquement sphérique. Puis l’étoile pénètre dans le rayon de marée et est dès lors condamnée. Sa configuration se rapproche d’abord de celle d’un cigare, puis d’une crêpe. Plus loin, sur son orbite, l’étoile finit par se dissocier en fragments gazeux.

En deçà, les forces de marée du corps principal sont si importantes qu’elles disloquent le petit corps, incapable de maintenir sa cohésion sous sa propre gravité. Originellement limitée aux planètes, la notion de limite de Roche a été étendue à la stabilité des amas globulaires et des petites galaxies approchant des grandes – on parle alors de rayon de marée. Cette même notion de rayon de marée est utilisée aussi lorsqu’une étoile approche d’un trou noir.

On peut estimer qu’il se produit environ un TDE par galaxie tous les 100 ans, ce qui veut dire qu’avec ses capacités à surveiller un grand nombre de galaxies à la recherche d’événements transitoires, comme des supernovae, le Large Synoptic Survey Telescope (LSST) – qui a récemment été rebaptisé en Observatoire Vera-C.-Rubin (Vera C. Rubin Observatory) – pourrait en voir quelques milliers par an dans le domaine visible.

Toutefois, selon Daniel Price, un article de Martin Rees en 1988 allait plus tard conduire à une énigme : « la théorie de Rees prévoyait que la moitié des débris de l’étoile resteraient liés au trou noir, entrant en collision avec lui-même pour former un tourbillon de matière chaude et lumineuse connu sous le nom de disque d’accrétion. Le disque serait si chaud qu’il devrait émettre une quantité abondante de rayons X.

Mais, à la surprise générale, la plupart des plus de 100 événements de perturbation par marée potentiels découverts à ce jour se sont révélés briller principalement dans les longueurs d’onde visibles, et non dans les rayons X. Les températures observées dans les débris ne sont que de 10 000 degrés Celsius. C’est comme la surface d’une étoile modérément chaude, non pas les millions de degrés attendus du gaz chaud autour d’un trou noir supermassif.

La taille déduite de la matière brillante autour du trou noir est encore plus étrange : plusieurs fois plus grande que notre Système solaire   et s’étendant rapidement loin du trou noir à quelques pour cent de la vitesse de la lumière

Sachant qu’un trou noir d’une masse d’un million de masses solaires est à peine plus grand que notr Soleil, la taille énorme de la boule de matière brillante déduite des observations a été une surprise totale.

Les astrophysiciens ont émis l’hypothèse que le trou noir devait être en quelque sorte étouffé par la matière lors de la perturbation pour expliquer l’absence d’émission de rayons X, mais jusqu’à présent personne n’a été en mesure de montrer comment cela se produit réellement. C’est là que nos simulations entrent en jeu ».

Price et ses collègues ont donc décidé d’utiliser l’un des superordinateurs les plus puissants d’Australie pour y voir plus clair en ce qui concerne le processus d’accrétion de la matière de l’étoile subissant un TDE. Il leur a fallu  plus d’un an de calculs pour obtenir des réponses. Les images extraites de la simulation montrent ce qui se passe sur une année lorsqu’une étoile de la masse du Soleil subit un TDE avec un trou noir supermassif de Kerr en rotation, contenant de l’ordre du million de masses solaires et décrit dans le cadre de la théorie de la relativité générale

Il apparaît maintenant que 1 % seulement de la matière qui tombe vers le trou noir génère tellement de chaleur que cela alimente un flux de rayonnement extrêmement puissant et presque sphérique. En conséquence, ce n’est pas vraiment un disque d’accrétion qui se forme mais l’équivalent de l’enveloppe d’une étoile autour d’un corps qui serait un trou noir

Ce qui fait dire à Daniel Price que « la nouvelle simulation révèle pourquoi les TDE ressemblent en réalité à une étoile de la taille du Système solaire qui se dilate à quelques pourcents de la vitesse de la lumière, alimentée par un trou noir à l’intérieur. En fait, on pourrait même l’appeler un soleil-trou noir ».

Dans le film obtenu, c’est encore une étoile d’une masse solaire qui s’approche d’un trou noir sur une orbite marginalement liée (parabolique). La moitié de l’étoile se retrouve liée au trou noir. L’étoile s’étire encore en une longue ligne fine qui alimente le trou noir. Le résultat de cette alimentation est une boule de matière optiquement épaisse qui grandit autour du trou noir.

Ici, la visualisation montre une vue  de la bulle en expansion, avec la densité et la température à la dernière surface de diffusion. C’est plus ou moins ce qui est observé par les télescopes dans le visible : une boule de matière optiquement épaisse en expansion de 10 à 100 UA (unité astronomique) avec une température photosphérique d’environ 10 000 K et qui s’étend à des vitesses d’environ 10 000 km/s. La simulation permet donc d’expliquer certains des mystères clés de la raison pour laquelle les TDE sont observés principalement aux longueurs d’onde dans le visible.

D

Reference

[Subr2F2RENCEmitted on 14 Apr 2024 (v1), last revised 10 Jul 2024 (this version, v2)]

https://arxiv.org/abs/2404.09381

Eddington envelopes: The fate of stars on parabolic orbits tidally disrupted by supermassive black holes

 Wed, 10 Jul 2024 00:05:31 UTC (5,232 KB)

Daniel J. Price (Monash), David Liptai (Monash), Ilya Mandel (Monash), Joanna Shepherd (Monash), Giuseppe Lodato (Univ. Milano), Yuri Levin (Columbia)

Stars falling too close to massive black holes in the centres of galaxies can be torn apart by the strong tidal forces. Simulating the subsequent feeding of the black hole with disrupted material has proved challenging because of the range of timescales involved. Here we report a set of simulations that capture the relativistic disruption of the star, followed by one year of evolution of the returning debris stream. These reveal the formation of an expanding asymmetric bubble of material extending to hundreds of astronomical units — an outflowing Eddington envelope with an optically thick inner region. Such envelopes have been hypothesised as the reprocessing layer needed to explain optical/UV emission in tidal disruption events, but never produced self-consistently in a simulation. Our model broadly matches the observed light curves with low temperatures, faint luminosities, and line widths of 10,000–20,000 km




Cite as:arXiv:2404.09381 [astro-ph.HE]
 (or arXiv:2404.09381v2 [astro-ph.HE] for this version)
  https://doi.org/10.48550/arXiv.2404.09381


[v2] Wed, 10 Jul 2024 00:05:31 UTC (5,232 KB)