01/08/2024 Une exoplanète déformée comme un œuf par l’attraction provenant de l’étoile autour de laquelle elle orbite

La Limite de Roche définit la distance minimum en dessous de laquelle deux corps orbitant l’un autour de l’autre ne sont pas déformés par les forces d’attraction et peuvent conserver une forme sphérique résultant de leur propre gravité https://fr.wikipedia.org/wiki/Limite_de_Roche

Avec le nouveau spectromètre spatial dit Keck Planet Finder situé à Hawai https://www2.keck.hawaii.edu/inst/kpf/ , des chercheurs ont observé la déformation en forme de crêpe ou d’oeuf que sous l’influence des forces de marée subissait l’exoplanèteTOI-6255~b (GJ 4256) orbitant en 5-7 heures autour d’une étoile analogue à notre soleil 

Reconstituer les conditions régnant sur cette planète ne donne pas envie d’y aller :2.000 degrés C en surface, des océans de roches fondues en sous-sol et un soleil 80 fois plus grand en apparence que le nôtre.

Référence

[Submitted on 30 Jul 2024
An Earth-sized Planet on the Verge of Tidal Disruption

Fei Dai and others, 

Abstract

TOI-6255~b (GJ 4256) is an Earth-sized planet (1.079±0.065R⊕) with an orbital period of only 5.7 hours. With the newly commissioned Keck Planet Finder (KPF) and CARMENES spectrographs, we determined the planet’s mass to be 1.44±0.14 M⊕. The planet is just outside the Roche limit, with Porb/PRoche = 1.13 ±0.10. The strong tidal force likely deforms the planet into a triaxial ellipsoid with a long axis that is ∼10\% longer than the short axis. Assuming a reduced stellar tidal quality factor Q′⋆≈107, we predict that tidal orbital decay will cause TOI-6255 to reach the Roche limit in roughly 400 Myr. Such tidal disruptions may produce the possible signatures of planet engulfment that have been on stars with anomalously high refractory elemental abundances compared to its conatal binary companion. TOI-6255 b is also a favorable target for searching for star-planet magnetic interactions, which might cause interior melting and hasten orbital decay. TOI-6255 b is a top target (Emission Spectroscopy Metric of about 24) for phase curve observations with the James Webb Space Telescope.

Comments:18 pages, 7 figures, 5 tables, accepted to AAS Journals. The first RV mass measurement from the Keck Planet Finder
Subjects:Earth and Planetary Astrophysics (astro-ph.EP); Solar and Stellar Astrophysics (astro-ph.SR)
Cite as:arXiv:2407.21167 [astro-ph.EP]
 (or arXiv:2407.21167v1 [astro-ph.EP] for this version)

.

31/08/2024 L’Iran et ses alliés les Houthuis s’en prennent directement à l’Occident

Le 21 aout 2024 le pétrolier MV Sounion battant pavillon grec subissait une attaque houthie  à environ 77 miles nautiques à l’ouest du port yéménite de Hodeidah, Il en est résulté une  explosion massive et un risque de catastrophe environnementale

Les rebelles Houthis proches de l’Iran viennent d’annoncer avoir fait exploser des charges sur le Sounion, un tanker grec attaqué le 21 août en mer Rouge, au large du Yémen. Des vidéos non datées et diffusées par eux montrent des explosions sur le pont suivies de colonnes de fumée. Parti d’Irak afin d’acheminer des hydrocarbures jusqu’en Grèce, le pétrolier avait été touché par des attaques de drones et des missiles, selon les affirmations des Houthis. -(comme quoi les drones et les missiles sont devenus l’arme du pauvre)

La frégate française Chevalier Paul était intervenue dans le cadre de la mission européenne Aspides pour évacuer les 25 membres d’équipage et les rapatrier à la base navale de Djibouti.

Selon Tyler Durden dans ZeroHedge.com 
L’Occident sera confronté à de graves conséquences si l’agression des Houthis soutenue par l’Iran dans le sud de la mer Rouge persiste. Au-delà de la menace d’inflation causée par les perturbations du transport maritime et la montée en flèche des tarifs des conteneurs en raison du détournement des navires marchands autour du cap de Bonne-Espérance en Afrique, le jeu à long terme est encore plus inquiétant : la “crédibilité et la dissuasion” de l’Amérique s’érodent rapidement. Cette faiblesse perçue pourrait encourager la Chine à aggraver les conflits en mer de Chine méridionale, sentant un Occident affaibli s’empêtrer de plus en plus dans de multiples conflits, notamment ceux en Ukraine et au Moyen-Orient. »

https://www.zerohedge.com/military/clear-sign-collapse-american-credibility-deterrence

Voir aussi

https://x.com/mercoglianos/status/1827074505505960328?

31/08/2024 Macron démission

La France traverse actuellement une crise politique grave du fait de l’abus que fait Emmanuel Macron de son irresponsabilité politique.

Désormais celui-ci est partout, se prononce sur tout, décide de tout- et qui plus est avec un air très satisfait de lui. Or il n’ a été élu qu’à une faible majorité. Rappelons qu’au second tour de l’élection présidentielle 2022, organisé les 23 et 24 avril. Emmanuel Macron n’a emporté l’élection qu’avec 58,54% des suffrages exprimés.

Marine Le Pen avait recueilli 41,46% des suffrages exprimés. Le taux d’abstention  s’était élevé à 28,01% des inscrits, on dénombrait 2,2 millions de votes blancs (6,35% des votants).

Aujourd’hui, selon les sondages, la majorité présidentielle , son opposition d’extrême-droite et son opposions de gauche se partagent pour un tiers chacune les préférences des électeurs. Ainsi de facto, les deux tiers des électeurs n’ont pas voix au chapitre.

Quand il s’agit de questions militaires ou diplomatiques, ceci n’est pas anormal, tant du moins que le président reste globalement conforme aux traditions et volontés du pays.

Mais la vie politique est faite de nombreuses décisions moins importantes, mais essentielles, fiscalité, subventions, équilibres régionaux, sans mentionner les questions de politique industrielle ou de recherche scientifique. Qu’Emmanuel Macron soit le seul décideur, sans même de débats politiques sérieux, ne fut-ce qu’à l’Assemblé Nationale, relève de la dictature. Imaginerait-on le Roi d’Angleterre se comporter de la même façon ?

Note

Sous les IIIe et IVe Républiques, le Gouvernement dirigeait la politique de la Nation, et non le Président. Les constituants de 1958 ont poursuivi cette tradition d’irresponsabilité politique du Président. Or, les pouvoirs du Président de la Ve République sont autrement importants.

Cette procédure du contreseing ministériel sur l’ensemble des actes présidentiels apparaissait tout à fait adaptée dans des régimes où le rôle du président de la République était, somme toute, assez réduit.

Cependant, dès lors qu’avec la Constitution de 1958 celui-ci devient la « clef de voûte » et le garant (art. 5) des institutions, l’irresponsabilité du Président apparaît en décalage avec l’importance des pouvoirs qui lui sont dévolus, notamment lorsque le Président exerce les pouvoirs propres à sa fonction (ex : dissoudre l’Assemblée nationale).

Cette procédure du contreseing ministériel sur l’ensemble des actes présidentiels apparaissait tout à fait adaptée dans des régimes où le rôle du président de la République était assez réduit.

Dès lors qu’avec la Constitution de 1958 celui-ci devient la « clef de voûte » et le garant (art. 5) des institutions, l’irresponsabilité du Président apparaît en décalage avec l’importance des pouvoirs qui lui sont dévolus, notamment lorsque le Président exerce les pouvoirs propres à sa fonction (ex : dissoudre l’Assemblée nationale).

Cependant, la révision constitutionnelle du 23 février 2007, en réformant le statut du Président, a introduit un mécanisme de responsabilité politique.

Elle a mis en place, à l’article 68 de la Constitution, une procédure très encadrée de destitution, destinée à sanctionner les atteintes que le comportement du chef de l’État pourrait porter à la fonction présidentielle, « en cas de manquement à ses devoirs manifestement incompatible avec l’exercice de son mandat ».

La destitution peut être prononcée par le Parlement réuni en Haute Cour. Il ne s’agirait donc pas d’une sanction pénale, mais politique, dont la conséquence serait de mettre un terme au mandat du chef de l’État et à l’inviolabilité qui lui est reconnue, pour la durée de ses fonctions, par l’article 67 de la Constitution.

Les possibilités de mettre en cause la responsabilité du Président par cette procédure sont toutefois malheureusement très restrictives.

30/08/2024 LUCA, notre ancêtre à tous

Le dernier ancêtre commun universel est le plus récent organisme dont sont issues toutes les espèces vivant actuellement sur Terre. Le terme en anglais Last Universal Common Ancestor a pour acronyme LUCA.(WIkipedia)

LUCA aurait vécu il y a 3,3 à 4,2 milliards d’années. Il ne doit pas être confondu avec le premier organisme vivant, ni avec l’ancêtre le plus récent de toutes les formes de vie ayant jamais vécu sur Terre (y compris celles aujourd’hui disparues). La complexité des ARN et des protéines qu’il comportait implique qu’il était lui-même issu d’une lignée évolutive plus ancienne, et qu’il cohabitait probablement avec d’autres formes de vie qui n’ont pas laissé de descendants actuels.

LUCA était un organisme assez complexe, déjà issu d’une longue évolution marquée par la sélection naturelle.

L’hypothèse conduisant à ce concept de LUCA est que tous les êtres vivants sont issus d’une même lignée divergente d’ancêtres communs, remontant jusqu’à l’époque où la seule reproduction était la division cellulaire. Cela implique l’existence dans le passé lointain d’une cellule telle que tous les êtres vivants actuels en descendent et qu’au moins deux de ses cellules filles ont un descendant vivant aujourd’hui (autrement, sa seule cellule fille avec une descendance actuelle serait LUCA, le véritable point de divergence du vivant commençant à la génération suivante).

L ‘ADN que l’on retrouve aujourd’hui chez tous les êtres vivants présente de telles similarités qu’il est est tentant de l’attribuer à un ancêtre commun apparu il y a quelques milliards d’années, qui fut appela LUCA.

Aujourd’hui une nouvelle étude interdisciplinaire menée à l’Université de Bristol (UK) sous le responsabilité de Philip Donoghue https://www.bristol.ac.uk/people/person/Philip-Donoghue-4fd2d6ef-3986-4566-97e4-7ae7db296525/
professeur de paléontologie permet de mieux comprendre ce que fut LUCA

L’étude part de l’hypothèse que toutes les séries génétiques que l’on retrouve chez les êtres vivants aujourd’hui dérivent de façon ininterrompue des gènes de LUCA. En remontant cette évolution, on pourrait découvrir ce que fut LUCA.

Il s’agit en pratique d’une tâche très difficile, parce que des séries ont été perdues ou ont fusionné différemment de ce que l’on pourrait croire à première vue. Néanmoins un modèle hypothétique du génome de LUCA a été obtenu. Celui-ci laisse entendre que LUCA fut un organisme bien plus complexe que ce que l’on croyait .

Les chercheurs estiment que 2.600 gènes codant pour des protéines dans les organismes d’aujourd’hui remontent à LUCA, alors que leur nombre était estimé précédemment à 80. Ceci signifie, sauf erreur, que LUCA vivait il y a 4,2 milliards d’années, alors que la formation de la Terre comme planète habitable daterait de 4,5 milliards d’années .

En fait, LUCA n’aurait pas du survivre à la dernière période de bombardement lourd de débris spatiaux subi par la Terre , supposée s’être produite il y a 3,8 milliards d’années.

Mais peut-être que disposant de gènes protégeant des radiations UV les créatures vivant à la surface des océans, était-il un organisme marin, ce qui l’aurait protégé. D’autres gènes suggèrent qu’ii vivait d’hydrogène. Enfin, il paraissait protégé des attaques microbiennes par un système de défense dit CRISPR très étudié aujourd’hui dans la lutte contre les virus

Mais LUCA ne devait-il pas être un organisme isolé mais déjà le représentant de tout un ecosystème

Référence

The nature of the last universal common ancestor (LUCA), its age and its impact on the Earth system have been the subject of vigorous debate across diverse disciplines, often based on disparate data and methods. Age estimates for LUCA are usually based on the fossil record, varying with every reinterpretation. The nature of LUCA’s metabolism has proven equally contentious, with some attributing all core metabolisms to LUCA, whereas others reconstruct a simpler life form dependent on geochemistry. Here we infer that LUCA lived ~4.2 Ga (4.09–4.33 Ga) through divergence time analysis of pre-LUCA gene duplicates, calibrated using microbial fossils and isotope records under a new cross-bracing implementation. Phylogenetic reconciliation suggests that LUCA had a genome of at least 2.5 Mb (2.49–2.99 Mb), encoding around 2,600 proteins, comparable to modern prokaryotes. Our results suggest LUCA was a prokaryote-grade anaerobic acetogen that possessed an early immune system. Although LUCA is sometimes perceived as living in isolation, we infer LUCA to have been part of an established ecological system. The metabolism of LUCA would have provided a niche for other microbial community members and hydrogen recycling by atmospheric photochemistry could have supported a modestly productive early ecosystem.

29/08/2024 Un nouveau mécanisme de refroidissement pour les transistors de graphène

Des physiciens viennent de mettre en évidence un nouveau mécanisme de refroidissement pour les composants électroniques en graphène déposés sur du nitrure de bore. L’efficacité de ce mécanisme leur a permis d’atteindre pour la première fois des intensités électriques à la limite intrinsèque de conduction du graphène.

Du supercalculateur au smartphone, les concepteurs de matériel informatique sont confrontés à un défi majeur : évacuer toujours plus de chaleur pour éviter la dégradation voire même la destruction des composants électroniques. La physique est impitoyable : en augmentant la densité de composants sur une puce vous augmentez nécessairement la dissipation d’énergie et donc l’échauffement. Aujourd’hui, avec les matériaux lamellaires de la famille du graphène, cette question devient particulièrement aiguë, car les composants ne sont constitués que d’une seule couche d’atomes

Dans ce contexte, en réalisant un transistor à base de graphène déposé sur un substrat de nitrure de bore, des physiciens du Laboratoire Pierre Aigrain (CNRS/ENS/UPMC/Univ. Paris Diderot) ont mis à jour un nouveau mécanisme de refroidissement 10 fois plus efficace que la simple diffusion de la chaleur. Ce mécanisme, qui exploite la nature bidimensionnelle des matériaux ouvre un véritable « pont thermique » entre le graphène et le substrat.

Les chercheurs ont démontré l’efficacité de ce mécanisme en faisant circuler dans le graphène des niveaux de courant électrique encore inexplorés, à la limite intrinsèque du matériau et cela sans aucune dégradation du dispositif. Ce résultat, publié dans Nature Nanotechnology, constitue un pas important vers le développement de transistors électroniques hautefréquence à base de graphène.

Pour réaliser cette expérience, les physiciens ont tout d’abord fabriqué un transistor à base de graphène. À cet effet, ils ont déposé le graphène sur un large cristal de nitrure de bore de quelques dizaines de nanomètres d’épaisseur lui-même déposé sur une plaque en or servant de thermostat. Ils ont alors fait fonctionner ce transistor à des intensités électriques croissantes et mesuré à la fois la température des électrons et celle du cristal. La température des électrons a été déduite de la mesure des fluctuations haute fréquence du courant électrique. La température du cristal de nitrure de bore a été mesurée par spectroscopie Raman. Leur première surprise a été d’observer que seuls les électrons s’échauffent, épargnant ainsi la structure cristalline du matériau. Les chercheurs ont ensuite observé l’allumage d’un mécanisme de refroidissement des électrons ultra-efficace au-delà d’un seuil de tension. Ils ont expliqué ce phénomène par l’anisotropie diélectrique de la couche de nitrure de bore. Cette anisotropie confère à cet isolant la propriété remarquable de posséder des modes mixtes lumière-vibration appelés polaritons hyperboliques qui se propagent dans l’épaisseur du matériau dans un régime interdit à la plupart des autres isolants. Ces modes « hyperboliques » ouvrent un véritable pont thermique entre le graphène et l’électrode arrière garantissant un refroidissement 10 fois plus efficace que la simple diffusion de la chaleur.

L’équipe du LPA a montré que l’efficacité de ce mécanisme est décuplée lorsque le transistor entre dans le régime de Zener-Klein, obtenu sous très fort champ électrique dans du graphène de haute mobilité électronique. Dans ce nouveau régime, d’intérêt tout particulier pour des applications d’amplification à haute fréquence, les électrons sont directement pompés de la bande de valence à la bande de conduction par effet tunnel. Dans ces conditions, ils se couplent de manière optimale aux modes hyperboliques, permettant à la chaleur de passer directement au substrat sans endommager le réseau du graphène.

Note.

Rappelons que les semi-conducteurs sont des matériaux qui se situent entre un conducteur et un isolant : ils gèrent et contrôlent le flux de courant dans l’électronique. Ils sont souvent fabriqués à partir de matières premières comme le silicium et le germanium, l’arséniure de gallium ou le carbure de silicium.

Leur production reste un processus complexe : selon AMD, concepteur et vendeur de microprocesseurs« il faut des années de recherche et développement pour concevoir, développer, produire, commercialiser une gamme de semi-conducteurs ». Pour leur fabrication, il faut traiter du sable, le purifier, le liquéfier à 1 700 degrés pour obtenir des lingots de silicium, qui sont ensuite découpés en wafers (« gaufrettes »), de toutes petites galettes de silicium.

Avec la mondialisation et pour baisser les coûts, les acteurs se sont presque tous spécialisés dans une partie de leur chaîne de production : dans les brevets de conception (ARM), dans la conception et la vente (Qualcomm, Nvidia, Broadcom), dans la fabrication (TSMC, Global Foundries). Quelques rares entreprises maîtrisent encore toute la chaîne, comme Samsung et Intel, mais aussi les européennes STMicroelectronics et Infineon. Toutes ne produisent pas le même type de composants et certaines, comme le taïwanais TSMC, sont hyperspécialisées dans des puces très demandées, rendant leur fabrication encore plus stratégique.

Nous lisons dans Le Monde
https://www.lemonde. Le Monde fr/economie/article/2021/10/22/semi-conducteurs-que-sont-ces-puces-electroniques-dont-la-penurie-perturbe-l-economie-mondiale_6099502_3234.html

Les semi-conducteurs sont un marché en croissance quasi continue : en 2020, il représentait 442 milliards de dollars (380 milliards d’euros, + 5,4 % par rapport à 2019) et devrait continuer à croître de 17, 3 % en 2021.

La demande est tirée par plusieurs marchés : celui des mémoires qui permettent de stocker l’information ; celui des smartphones et de leurs infrastructures avec le déploiement de la 5G ; celui de l’industrie automobile (voitures électriques, voitures autonomes, contrôle des airbags, des distances de sécurité ; contrôle du moteur, de la batterie, système « start and stop », climatisation…) ; l’industrie des loisirs, avec les consoles de jeux vedettes du marché (Playstation 5 et Xbox Series X) ; l’Internet of Things (« Internet des objets », ou IoT) qui permet à des objets d’échanger des informations et de communiquer entre eux ; l’intelligence artificielle et le big data, avec des processeurs spécifiques, comme Xeon Ice Lake d’Intel.

Rendues indispensables à l’économie mondiale, ces puces électroniques sont devenues un enjeu stratégique majeur pour les grandes puissances de la planète
au cœur de la bataille que se livrent les Etats-Unis et la Chine pour la domination du secteur des hautes technologies. Si bien que les difficultés actuelles sont aussi héritières de la décision prise en septembre 2020 par Washington de restreindre la vente de technologies à SMIC, le géant chinois des semi-conducteurs, pour contrer les ambitions hégémoniques de Pékin.

La concentration géographique des lieux de production de ces puces est aujourd’hui un sujet d’inquiétudes. Une étude réalisée en avril 2021 par la Semiconductor Industry Association et le Boston Consulting Group a révélé qu’environ 75 % de la capacité mondiale de fabrication de semi-conducteurs, par exemple, est concentrée en Chine et en Asie de l’Est, une région considérablement exposée à une forte activité sismique et à des tensions géopolitiques. Et que 100 % de la capacité mondiale de fabrication des semi-conducteurs les plus avancés (inférieurs à 10 nanomètres) est actuellement située à Taïwan (92 %) et en Corée du Sud (8 %).

La multiplication des difficultés a poussé ces derniers mois les puissances mondiales à réagir pour diminuer cette dépendance. En février, Joe Biden a signé un décret présidentiel afin de sécuriser les filières d’approvisionnement américaines en puces. Les Etats-Unis ont aussi convaincu TSMC de construire une usine de dernière génération dans l’Arizona.

De son côté, Pat Gelsinger, le patron d’Intel, le géant américain du secteur, a prédit que la pénurie risquait de se poursuivre jusqu’en 2023. Dans ce contexte, il a annoncé la construction à venir de deux usines de semi-conducteurs aux Etats-Unis et la formation d’une nouvelle division aux Etats-Unis et en Europe, baptisée Intel Foundry Services, une branche de services pour les fonderies spécialisées dans ces matériaux.

En septembre, lors du salon de l’automobile de Munich, Pat Gelsinger a annoncé qu’il pourrait investir jusqu’à 80 milliards d’euros en Europe au cours des dix prochaines années afin de développer les capacités de production de semi-conducteurs sur le continent. Son groupe devrait dévoiler d’ici à la fin de l’année l’emplacement de deux nouvelles grandes usines en Europe.

La Chine, elle aussi, s’en préoccupe : sans les puces américaines, ni Alibaba ni Huawei ne seraient devenus des géants mondiaux. La Chine produit 36 % de l’électronique mondiale, mais les entreprises chinoises ne fournissent que 7,6 % des semi-conducteurs vendus à travers le monde. Raison pour laquelle Xi Jinping place « l’indépendance technologique » au cœur de nombre de ses discours ainsi que du 14e plan quinquennal (2021-2025).

L’Union européenne (UE) étudie un European Chips Act », loi européenne sur les semi-conducteurs pour défendre sa souveraineté technologique : d’ici à 2030, l’UE ambitionne de produire 20 % des semi-conducteurs dans le monde, soit un doublement de sa part actuelle.

Emmanuel Macron pour la France a présenté un plan d’investissement de 30 milliards d’euros dont six milliards seront consacrés à développer une production nationale de composants-clés,

29/08/2024 Devrons nous laisser à la Chine le monopole des robots humanoïdes intelligents

Avec 1,412 milliard (2022) de Chinois, la Chine dépasse en termes démographiques toutes les puissancs mondiales, y compris l’Inde et les Etats-Unis. Cela lui donnerait un avantage indéniable en cas de conflit militaire.

Mais elle dispose aussi de la même supériorité dans le cas des robots humanoides dits intelligents. L’on dit qu’ils sont intelligents en ce sens qu’ils sont équipés des toutes dernières versions d’Intelligence Artificielle IA.

Comme le révèle un article du quotidien hongkongais South China Morning Post publié le 3 novembre 2023, le ministère chinois de l’Industrie et des Technologies de l’information (MIIT) a publié un rapport de neuf pages à destination des industries du pays. L’objectif est de les appeler à établir un système d’innovation pour les robots humanoïdes, réaliser des percées dans plusieurs technologies clés et garantir l’approvisionnement sûr et efficace des composants essentiels d’ici à 2025.

Ceci devrait, selon les responsables politiques, placer la Chine au premier rang mondial en matière de robots humanoïdes intelligents avant 2030. De plus, le MIIT a affirmé que les industries devront apporter un soin tout particulier au cerveau et aux membres de ces machines.

La volonté de la Chine de devenir un leader mondial dans le domaine des robots humanoïdes intelligents témoigne de son ambition technologique et de son désir de dominer un marché en pleine expansion. Si l’objectif immédiat est d’améliorer la sécurité et l’efficacité dans des secteurs tels que les services d’urgence, il est clair que ce projet pourrait avoir des implications bien plus vastes à long terme.

Les États-Unis et d’autres puissances mondiales devront surveiller de près ces développements, car ils pourraient redéfinir non seulement le futur du travail humain, mais aussi celui de la défense et de la sécurité mondiale.

L’évolution rapide de cette technologie soulève des questions cruciales sur les usages futurs et les régulations nécessaires pour encadrer ces nouvelles formes d’intelligence artificielle et de robotique.

Dans le domaine spatial et plus particulièrement dans le but d’établir des bases de longue durée sur la Lune et sur Mars le recours à de tels robots intelligents se révèle d’ores et déjà indispensable vu l’impossibilité de protéger durablement des cosmonautes humains des différents types de radiation.

28/08/2022 Les ondes gravitationnelles pourraient révéler le moment où le temps a commencé

Récemment, en utilisant des modèles mathématiques issus de la physique des plasmas, des chercheurs ont pu adapter leurs équations pour explorer comment les ondes gravitationnelles interagissent avec la matière. Cette approche a révélé que les interactions entre les ondes gravitationnelles et les particules pourraient fournir des indices précieux sur les conditions de l’Univers juste après le Big Bang.

Concrètement, les chercheurs ont découvert que bien qu’elles ne projettent pas d’ombre comme la lumière, les ondes gravitationnelles peuvent influencer la matière de manière mesurable. En étudiant comment ces ondes affectent la matière et le rayonnement que nous pouvons observer aujourd’hui, les scientifiques espèrent obtenir des informations indirectes sur les premières étapes de l’univers.

Ce travail théorique, publié dans le Journal of Cosmology and Astroparticle Physics, est encore en développement. Les formules mathématiques développées jusqu’à présent sont prometteuses, mais il faudra encore des efforts pour obtenir des résultats significatifs. Leur objectif sera de comprendre comment les ondulations de l’espace-temps ont interagi avec la matière primitive et comment ces interactions pourraient être détectées à travers les observations actuelles.

Référence

https://iopscience.iop.org/article/10.1088/1475-7516/2022/08/017

Gravitational wave modes in matter

Deepen Garg and I.Y. Dodin1

Published 10 August 2022 • 
Journal of Cosmology and Astroparticle PhysicsVolume 2022August 2022

Abstract

A general linear gauge-invariant equation for dispersive gravitational waves (GWs) propagating in matter is derived. This equation describes, on the same footing, both the usual tensor modes and the gravitational modes strongly coupled with matter. It is shown that the effect of matter on the former is comparable to diffraction and therefore negligible within the geometrical-optics approximation. However, this approximation is applicable to modes strongly coupled with matter due to their large refractive index. GWs in ideal gas are studied using the kinetic average-Lagrangian approach and the gravitational polarizability of matter that we have introduced earlier. In particular, we show that this formulation subsumes the kinetic Jeans instability as a collective GW mode with a peculiar polarization, which is derived from the dispersion matrix rather than assumed a priori. This forms a foundation for systematically extending GW theory to GW interactions with plasmas, where symmetry considerations alone are insufficient to predict the wave polarization.

28/00/2024 Réalisation aux États-Unis d’un nouveau matériau supraconducteur susceptible de bouleverser l’informatique quantique.

Vu l’importance qu’auront les ordinateurs quantiques dans tous les domaines des science et technologies, tant civiles que militaires,  on peut s’étonner de voir le peu de moyens que mettent les grandes puissances mondiales pour maitriser ce domaine.

En tout cas, une équipe de chercheurs de l’Université de Californie Riverside a fait un grand pas dans cette direction.. Elle a développé un nouveau matériau supraconducteur qui pourrait être utilisé à grande échelle dans les composants des calculateurs quantiques, quelle que soit leur taille .

Leur méthode repose l’utilisation de tellure trigonal, un matériau connu pour ses propriétés chirales (non superposable à son image dans un miroir plan) et non magnétiques, combiné à un supraconducteur à l’état de surface généré sur une fine couche d’or. Il en résulte une interface à deux dimensions et aux caractéristiques qui le distinguent des supraconducteurs conventionnels.

Ce matériau, qui pourrait fonctionner en tant que supraconducteur topologique (aucune résistance électrique et des propriétés uniques en fonction de sa forme), est ainsi six fois plus performant. De quoi générer des qubits en quantité !

Peng Wei, professeur agrégé de physique et d’astronomie et leader de l’équipe de recherche, déclare : “Notre matériau pourrait être un candidat prometteur pour développer des composants informatiques quantiques plus évolutifs et plus fiables.

 Les chercheurs s’en sont servis pour créer des résonateurs micro-ondes à faibles pertes. Ce sont ces pertes qui, à l’heure actuelle, constituent la première des difficiles à résoudre pour l’essor de l’informatique quantique.

Peng Wei précise être parvenu à ce résultat “en utilisant des matériaux beaucoup plus fins que ceux généralement utilisés dans l’industrie de l’informatique quantique. Les résonateurs micro-ondes à faibles pertes sont des composants essentiels de l’informatique quantique et pourraient conduire à des qubits supraconducteurs à faibles pertes”.

Référence

  • Signatures of a spin-active interface and a locally enhanced Zeeman field in a superconductor-chiral material heterostructure

Cliff Chen https://orcid.org/0009-0009-1424-2039Jason Tran https://orcid.org/0009-0007-4675-6320Anthony McFaddenRaymond Simmonds https://orcid.org/0000-0003-2217-2965Keisuke SaitoEn-De Chu https://orcid.org/0000-0002-2713-5234Daniel Morales https://orcid.org/0009-0004-0109-0025Varrick Suezaki https://orcid.org/0009-0005-9482-424XYasen Hou[…], and Peng Wei https://orcid.org/0000-0003-2289-6007 
+3 authors

Science Advances
23 Aug 2024
Vol 10, Issue 34

DOI: 10.1126/sciadv.ado4875

Abstract

A localized Zeeman field, intensified at heterostructure interfaces, could play a crucial role in a broad area including spintronics and unconventional superconductors. Conventionally, the generation of a local Zeeman field is achieved through magnetic exchange coupling with a magnetic material. However, magnetic elements often introduce defects, which could weaken or destroy superconductivity. Alternatively, the coupling between a superconductor with strong spin-orbit coupling and a nonmagnetic chiral material could serve as a promising approach to generate a spin-active interface. Here, we leverage an interface superconductor, namely, induced superconductivity in noble metal surface states, to probe the spin-active interface. Our results unveil an enhanced interface Zeeman field, which selectively closes the surface superconducting gap while preserving the bulk superconducting pairing. The chiral material, i.e., trigonal tellurium, also induces Andreev bound states (ABS) exhibiting spin polarization. The field dependence of ABS manifests a substantially enhanced interface Landé g-factor (geff ~ 12), thereby corroborating the enhanced interface Zeeman energy.

27/08/2024 Découverte de l’ADN d’un mammouth laineux gelé dans le permafrost

Pour la première fois, des scientifiques ont montré que l’architecture tridimensionnelle des chromosomes pouvait être préservée, il est vrai dans des conditions très particulières.

Cette découverte ouvre une fenêtre vers le passé, sur la biologie d’espèces éteintes.

Il y a cinquante-deux mille ans, une femelle mammouth, de l’espèce dite mammouth laineux, mourrait dans l’actuelle Sibérie. Son corps fut presque instantanément gelé, sous les températures de la dernière période glaciaire.

Cinquante-deux mille ans après, le 11 juillet 2020, sur l’écran de la revue scientifique Cell apparaît l’image numétique attribuée à des « chromosomes fosssiles ».

Pour réaliser cet exploit, il a fallu dix ans d’une aventure scientifique qui a fait se rencontrer deux familles de généticiens : des paléogénéticiens, qui analysent l’ADN ancien, et des spécialistes de la génomique structurelle.

Ces derniers étudient l’architecture du génome. Dans le noyau de nos cellules, les chromosomes, constitués d’ADN et de protéines, ne sont pas repliés de manière aléatoire. Des régions physiquement proches interagissent entre elles, alors même qu’elles peuvent être très éloignées sur la séquence génétique.

Connaître la structure tridimensionnelle du génome est suffisant pour avoir une image de l’activité des gènes », selon Marc Marti-Renom, chercheur spécialisé dans la génomique structurelle au Centre national d’analyse génomique, à Barcelone, et coauteur de l’étude.

Jusqu’ici, les paléogénéticiens étaient bloqués dans une dimension linéaire. Car l’ADN ancien se présente habituellement comme de toutes petites parcelles. Et son analyse consiste à observer les variations sur la séquence génétique, les mutations. « Ce que vous disent les mutations, c’est de quoi est capable votre génome, mais çela ne dit pas ce qu’il fait exactement», explique Régis Debruyne, ingénieur de recherche en paléogénétique au Muséum national d’histoire naturelle, à Paris.

Mais les auteurs de cette étude avaient une intuition : l’architecture tridimensionnelle des chromosomes pourrait être, dans certains cas, préservée. Et c’est cette femelle mammouth, retrouvé dans le permafrost, ce sol perpétuellement gelé, par une expédition scientifique en 2018, qui a permis de la confirmer.

Les chercheurs ont utilisé sur un échantillon de sa peau une technique d’analyse à haut débit de la conformation des chromosomes appelée Hi-C, qui permet d’isoler les zones de contact entre des séquences ADN qui sont géographiquement proches dans le noyau des cellules. Cette analyse leur a montré que la conformation des chromosomes était conservée, cinquante-deux mille ans après la mort de l’animal.l

Ils ont ensuite pu reconstituer le génome de la mammouth. En l’assemblant pièce par pièce, chacune étant composée de minuscules bouts de chromosomes collés, ils ont résolu un immense puzzle en 3D.

Cette méthode est une petite révolution dans la paléogénomique. Habituellement, chaque petit fragment d’ADN ancien est « aligné » sur un génome connu, celui de l’éléphant par exemple. Comme s’il fallait trouver où va cette petite pièce d’ADN de mammouth, dans un puzzle du génome d’éléphant, à plat. Résoudre un puzzle entier de mammouth en 3D est une première.

« Ce sont des choses qu’on rêvait de pouvoir faire depuis une quinzaine d’années, réagit Régis Debruyne, qui n’a pas participé à l’étude. Ouvrir des dimensions de la génomique qui, jusque-là, nous paraissaient inaccessibles. »

Les chercheurs ont pu enfin compter les chromosomes du mammouth : vingt-huit, comme l’éléphant. Ils avaient utilisé la même méthode pour reconstituer en 3D les génomes des éléphants d’Asie et d’Afrique. « Pour la première fois, on peut voir des différences dans la structure du génome entre une espèce éteinte et celle que l’on utilise comme référence. Cela ouvre des possibilités inédites ! », selon Michael Hofreiter, professeur de génomique évolutive à l’université de Potsdam, en Allemagne.

En comparant les génomes de ce mammouth laineux et de l’éléphant d’Asie, son plus proche cousin, les auteurs ont remarqué que deux régions diffèrent, non pas dans leur séquence, mais dans leur expression. Dans le livre du génome, deux chapitres sont lus chez l’un, et pas chez l’autre. Le premier contient le code pour faire pousser des poils. Le deuxième est une région impliquée dans l’adaptation au froid.

 « Cette technologie ouvre une fenêtre vers le passé. En nous permettant de mieux comprendre la régulation des gènes, lesquels étaient activés au moment où l’animal est mort », explique Marcela Sandoval-Velasco, ancienne post-doctorante au Centre d’hologénomique évolutive, à Copenhague. Elle ouvre un nouveau champ d’exploration de la biologie des espèces éteintes, comme plus généralement de l’évolution.

En fait on peut prévoir que cette publication pourrait ouvrir « un nouvel eldorado ». Une ruée vers des échantillons du permafrost révélerait de nouveaux chromosomes fossiles.

Ces résultats marquent aussi une avancée dans la connaissance du génome du mammouth. Une espèce emblématique, qui fait l’objet de projets controversés de « dé-extinction » ou de « réapparition » menés par des entreprises comme l’américaine Colossal Biosciences https://colossal.com/.

Pour comprendre comment la structure tridimensionnelle des chromosomes a pu être préservée dans la peau de ce mammouth, l’équipe s’est associée à des physiciens. Cette conservation exceptionnelle est liée à un phénomène de vitrification, une déshydratation par le froid, similaire à celle utilisée dans l’industrie agroalimentaire pour la conservation des aliments. Ils ont appelé cet état le « chromoglass », ou « verre de chromosomes ». Il fige les fragments de chromosomes, à l’échelle nanométrique, tels des milliers de voitures dans un embouteillage géant.

Ce « chromoglasss » peut-il être retrouvé dans d’autres restes d’espèces disparues ? Les auteurs l’espèrent, car ils ont pu reproduire leurs analyses sur un autre petit mammouth, datant de trente-neuf mille ans. Quant aux espèces fossiles, connues ou inconnus, elles pourraient se compter par milliers.

En fait on peut prévoir que cette publication pourrait ouvrir « un nouvel eldorado ». Une ruée vers des échantillons du permafrost révélerait de nouveaux chromosomes fossiles.

Ces résultats marquent aussi une avancée dans la connaissance du génome du mammouth. Une espèce emblématique, qui fait l’objet de projets controversés de « dé-extinction » ou de « réapparition » menés par des entreprises comme l’américaine Colossal Biosciences https://colossal.com/.

Il est certain que Colossal gardera un œil attentif, à l’avenir, à cette nouvelle dimension de la paléogénomique. Même si « déséteindre » une espèce reste, pour le moment, de la science-fiction.

Article adapté de

https://www.lemonde.fr/sciences/article/2024/07/11/le-genome-d-un-mammouth-laineux-reconstitue-en-3d-a-partir-de-chromosomes-fossiles_6248827_1650684.html

26/08/2924 Les enjeux du passage à l’hydrogène

Ces enjeux sont aujourd’hui nombreux. En résumant, on peut en citer trois  

L’hydrogène pour le stockage d’électricité et son injection dans les réseaux

Le stockage d’énergie sous forme d’hydrogène permet de pallier l’intermittence des énergies renouvelables (éolien et solaire) en optimisant la capacité de production électrique

Dans le cadre du développement d’un mix électrique renouvelable, l’électrolyse permet, quand le réseau est excédentaire (c’est-à-dire quand la production d’électricité est supérieure à sa consommation), de stocker de l’hydrogène sur un temps court ou long selon les besoins.

Dans le cas d’un réseau déficitaire au contraire, l’hydrogène disponible peut être réutilisé dans une pile à combustible pour fabriquer de l’électricité.   

L’hydrogène peut être également injecté directement dans les réseaux de gaz

  • par injection directe dans les réseaux gaziers pour combustion ;
  • par production de méthane de synthèse (selon le principe de méthanation) : conversion du monoxyde (CO) ou du dioxyde de carbone (CO2) en présence d’hydrogène, qui peut ensuite être transformé en chaleur, électricité ou carburant. 
L’hydrogène pour décarboner le secteur industriel 

L’hydrogène peut être utilisé dans le secteur industriel

  • d’une part pour alimenter en énergie décarbonée les unités industrielles concernées ; 
  • d’autre part pour contribuer à la décarbonation des procédés industriels concernés en substitution des énergies fossiles utilisées actuellement : c’est le cas par exemple de la fabrication d’acier qui résulte de la réduction des minerais de fer. Cette réduction opérée aujourd’hui via le charbon pourrait demain l’être en utilisant de l’hydrogène décarboné.
     

Le déploiement de l’hydrogène renouvelable est annoncé. Des projets de grande ampleur se montent comme NortH2, plus grand projet de production d’hydrogène vert d’Europe. Objectif : produire de l’hydrogène vert en utilisant de l’électricité renouvelable provenant de l’éolien offshore au large des Pays-Bas.

Lever les obstacles

Le déploiement de l’hydrogène décarboné est à envisager d’ici la fin de la décennie, son plein essor étant plutôt pour la suivante. Il nécessite de lever un certain nombre d’obstacles.

Faire baisser les coûts

L’hydrogène vert est encore cher et ne pourra se déployer qu’à la condition de réduire les coûts sur l’ensemble de la chaîne de valeur, à commencer par le coût de production de l’électricité renouvelable (solaire, éolien) mais également celui des électrolyseurs ou des piles à combustible.

Combien coûte l’hydrogène décarboné ?

Produire de l’hydrogène à partir de l’électrolyse coûte aujourd’hui 2 à 3 fois plus cher que le vaporeformage et 2 fois plus cher que le reformage avec captage du CO2. Cette voie est réservée aujourd’hui à des usages spécifiques comme l’électronique, qui requièrent un niveau élevé de pureté.

La complexité de la chaîne de valeur et les différentes transformations impliquent en outre des cascades de rendement, sources de pertes d’énergie, qui ont pour effet de renchérir les coûts de production.

En parallèle, un prix du CO2 relativement élevé permettrait de réduire l’écart de coût avec le reformage du gaz naturel. Cependant, la hausse de la fiscalité carbone doit être progressive et s’accompagner de politiques publiques de soutien pour les populations les plus démunies.

Construire les infrastructures

Le déploiement de l’hydrogène électrolytique nécessite la mise en place d’une infrastructure complexe comprenant, outre des capacités de production alimentées par des énergies renouvelables (fermes éoliennes ou solaires, connectées ou non au réseau électrique), un réseau de transport et de distribution connectant ces capacités de production aux sites d’utilisation, et un ensemble de capacités de stockage variées mises également en réseau. Le tout devra être géré par un système intelligent permettant d’optimiser l’adéquation de l’offre et de la demande à phases de temps quotidiennes à temporaires.

Il est en outre nécessaire de mutualiser la construction des infrastructures de captage, de transport et de stockage de CO2. En Europe, les premiers éléments de cette infrastructure seront opérationnels dès le milieu de la décennie.

Le déploiement des infrastructures de transport et de distribution nécessite des investissements importants et une durée de mise en œuvre relativement longue.
 

Source

Cet article est adapté de

https://www.ifpenergiesnouvelles.fr/enjeux-et-prospective/decryptages/energies-renouvelables/tout-savoir-lhydrogene#:~:text=G%C3%A9n%C3%A9ralement%2C%20il%20est%20produit%20%C3%A0,combustible%20ou%20par%20combustion%20directe.