05/07/2023 Fiche de lecture. We are electric par Sally Adee

Ce titre est un raccourci pour WE ARE ELECTRIC: Inside the 200-Year Hunt for Our Body’s Bioelectric Code, and What the Future Holds | By Sally Adee | 352 pp. | Hachette .

La journaliste scientifique germano-américaine Sally Adee vit actuellement à Londres. Son domaine d’intérêt est la bioélectricité. Ce terme encore mal connu désigne les différents courants électriques de très faible intensité qui parcourent les corps humains comme ceux de tous les êtres vivants, y compris les plantes. On parle souvent en ce cas d’énergie photosynthétique .

Dans ce livre, Sally Adee résume la découverte et l’histoire de la bioélectrité. Elle esquisse les promesses de cette discipline dans le domaine biomédical, depuis le combat contre les résistances aux antibiotiques , le nettoyage des artères et surtout la lutte contre la prolifération des cellules cancéreuses. Elle rappelle aussi les mensonges de générations de charlatans qui ont toujours prétendu guérir tout les maladies grâce à l’application de courants électriques.

Une partie importante de l’ouvrage est consacrée aux promesses des recherches scientifiques futures en matière de bio-électricité. Celles-ci sont encore trop négligées par les chercheurs.

Présentation par l’éditeur

You may be familiar with the idea of our body’s biome: the bacterial fauna that populate our gut and can so profoundly affect our health. In We Are Electric we cross into new scientific understanding: discovering your body’s electrome.

Every cell in our bodies—bones, skin, nerves, muscle—has a voltage, like a tiny battery. It is the reason our brain can send signals to the rest of our body, how we develop in the womb, and why our body knows to heal itself from injury. When bioelectricity goes awry, illness, deformity, and cancer can result. But if we can control or correct this bioelectricity, the implications for our health are remarkable: an undo switch for cancer that could flip malignant cells back into healthy ones; the ability to regenerate cells, organs, even limbs; to slow aging and so much more. The next scientific frontier might be decrypting the bioelectric code, much the way we did the genetic code.

Yet the field is still emerging from two centuries of skepticism and entanglement with medical quackery, all stemming from an 18th-century scientific war about the nature of electricity between Luigi Galvani (father of bioelectricity, famous for shocking frogs) and Alessandro Volta (inventor of the battery).

In We Are Electric, award-winning science writer Sally Adee takes readers through the thrilling history of bioelectricity and into the future: from the Victorian medical charlatans claiming to use electricity to cure everything from paralysis to diarrhea, to the advances helped along by the giant axons of squids, and finally to the brain implants and electric drugs that await us—and the moral implications therein. 

The bioelectric revolution starts here.

03/07/2023 Emeutes urbaines et Internet

Des émeutes urbaines se sont toujours produites. Elles traduisent dans l’ensemble la révolte des populations dites les moins favorisées devant les avantages des classes dominantes. Celles-ci disposent d’emplois suffisamment rémunérateurs pour pouvoir accéder aux quartiers favorisés des villes, des banlieues et aujourd’hui des campagnes. Leurs enfants peuvent bénéficier de formations permettant l’accès aux emplois les plus valorisants.

Aujourd’hui cependant les émeutes urbaines bénéficient des chambres d’échos que permet la généralisation de l’internet. D’une part des images d’immeubles en feu et d’une police souvent impuissante sont diffusées dans l’ensemble de la société. D’autre part les réseaux dits sociaux mis en place par les GAFAS ou géants de l’informatique, relayés par les téléphones portables dont disposent chaque manifestant, permettent de transformer les opposants en de véritables groupes armés, d’une grande mobilité.

Ceux-ci sont le plus souvent anonymes. De plus, s’ils n’ont pas accès en France aux armes léthales dite aussi armes par nature, ils ne manquent pas d’armes par destination, ce terme désignant un objet assimilé à une arme, qui présente un danger pour les personnes en ce qu’il est utilisé pour menacer, blesser ou tuer une autre personne comme le sont par exemple les voitures-dites béliers. L’usage de telles armes est encore exceptionnel, mais on peut craindre qu’il ne se généralise au sein des bandes d’émeutiers les plus agressives.

Dans les démocraties libérales telles qu’en France, un nombre croissant d’organisations politiques demande une prévention et le cas échéant une répression accrue de ces émeutes urbaines. Mais pour qu’au delà des mots soient organisées de telle préventions et répressions, manquent les effectifs de police et de juges nécessaires. Quant aux prisons, elles sont depuis longtemps saturées, sans parler du fait qu’elles sont devenues des foyers d’endoctrinement.

Dans des pays tels que la Russie ou l’Iran, parallèlement à la police, c’est l’armée qui est appelée à réprimer les émeutes supposées représenter un danger pour les systèmes politiques. Mais les forces armées émanant le plus souvent des classes sociales populaires d’où proviennent les manifestants font preuve d’un manque d’enthousiasme évident pour réprimer ces derniers.

Dans les démocraties, les gouvernements européens n’interviennent pas systématiquement, comptant sur la lassitude des émeutiers pour qu’ils trouvent d’autres formes d’expression. Mais les électeurs feront-ils longtemps montre de cette sagesse ?

02/07/2023 En attendant la fusion nucléaire, une nouvelle stratégie pour la fission

« La demande électrique est susceptible d’être multipliée par 4 d’ici 2050, du fait de l’hyper consommation due à la numérisation des société et à la croissance démographique. Parallèlement, la durabilité de notre planète Terre exige aujourd’hui que la production de cette énergie ne repose plus sur le charbon ou le pétrole ,non plus que sur la seule exploitation des ressources naturelles  que sont l’éolien et l’hydraulique,

C’est ce que souligne Jean-Luc Alexandre, président fondateur de Naarea qui travaille depuis 2005 sur une solution pour produire de l’énergie électrique reposant sur des mini-réacteurs adaptables à des espaces géographiques réduits, des zones isolées, des sites où l’accès à l’eau est limité.

Ce réacteur  dit de 4e génération, fait suite aux EPR (European Pressurised Reactor ou réacteur pressurisé européen) pour en améliorer la durabilité, la sûreté et la compétitivité. Parmi les 6 technologies qui la composent, Naarea est la seule à avoir opté pour les sels fondus fonctionnant sous pression atmosphérique, où se produit une réaction de fission intrinsèquement auto-régulée à haute température (environ 700 °C).

Le micro-générateur Naarea est intégralement contrôlable et pilotable à distance 24h/24h, 7j/7j et ne nécessite pas de maintenance lourde sur place. Il utilise des  combustibles nucléaires usagés, ce qui ferme ainsi complètement le cycle du combustible nucléaire.  Certains composants vont aussi avoir une 3e vie industrielle par exemple pour la radioscopie médicale

Utiliser les matières radioactives usagées permet de limiter l’exploitation des mines, de réduire le recours aux ressources naturelles et d’apporter une solution au traitement des déchets nucléaires de longue durée de vie actuellement entreposés. Ceux ci offrent une réserve pour plusieurs centaines d’années au moins.

Reste à acquérir l’acceptabilité par la population et c’est pour cette raison que Naarea s’entoure d’un comité d’orientation social et sociétal, « pour faire participer la population à notre réflexion et qu’elle en comprenne tout l’intérêt pour elle comme pour la Planète », espère Jean-Luc Alexandre.

Est-ce à dire que cette technologie va remplacer toutes les autres dans les années à venir ? Selon Jean-Luc Alexandre, « c’est un élément complémentaire du mix énergétique. Des solutions d’énergie existent mais leur grande taille comme le nucléaire conventionnel, leur dépendance à l’égard des réseaux de transport d’énergie ou leur intermittence comme les énergies renouvelables n’en font qu’une réponse partielle et insuffisante au regard de la demande immense qui ne cesse de croître ».

C’est une solution qui répond en tout cas au « trilemme », défini par le Conseil mondial de l’énergie qui doit être durable, pour lutter contre le dérèglement climatique ; équitable, pour un accès universel au développement ; sûre, pour la souveraineté des territoires et des nations.

Une stratégie validée par France 2030

Naarea a d’ailleurs été lauréate de l’appel à projets « Réacteurs Nucléaires Innovants » du plan d’investissement France 2030. Ce dont se félicite Jean-Luc Alexandre car cela « valide notre stratégie de projet industriel, nous a apporté encore plus de crédibilité auprès de nos partenaires et représente aussi une formidable opportunité d’avoir une collaboration privilégiée avec le CEA ».

Pour en savoir plus
https://www.naarea.fr/

02/07/2023 Le nouveau visage de l’armée russe

L’armée russe disposait déjà depuis plusieurs mois de missiles hypersoniques de type kinjal pouvant être envoyés avec précision sur des objectifs ennemis. Il s’agit d’armes redoutables mais pour avoir un effet pratique dans l’actuelle guerre avec l’armée ukrainienne, constamment réarmée par les Etats-Unis, elles doivent être suffisamment nombreuses. Ce qui n’est pas le cas aujourd’hui.

Par contre, à la mi-2023, on constate que l’armée russe a appris à utiliser des drones de manière très efficace. Les pénuries de drones qu’elle a pu connaître au début de la guerre ont été compensées par une production largement accrue provenant du complexe militaro-industriel russe mais aussi par ce que l’on pourrait appeler une production artisanale provenant de PME récemment crées pour ce faire ou même par des assemblages improvisés à proximité des lignes de combat.

Au départ, ces drones étaient largement importés, notamment d’Iran. Aujourd’hui, ils sont produits en grande partie par les Russes. L’armée russe utilise désormais des drones d’observation et des drones dits kamikazes dotés d’une tête explosive de forte puissance capables de détruire des chars ou des abris en tranchées. Les militaires russes ont perfectionné la coordination de ces deux types de drones pour combattre à la fois les équipements lourds les plus récents de l’OTAN et les équipements soviétiques plus anciens dont Kiev disposait.

Les télévisions russes diffusent aujourd’hui des rapports et des images vidéo montrant la destruction d’un véhicule blindé de transport de troupes Bradley fourni par les Américains par un char russe T-80 à une distance de 10 kilomètres. Celui-ci utilise des drones d’observation en tandem pour localiser la cible cachée, fournir des coordonnées pour un tir de canon précis et enregistrer l’explosion du véhicule cible. Il s’agit bien évidemment d’une toute nouvelle méthode de guerre qui nécessite un personnel compétent en informatique et des communications très sophistiquées.

Outre les drones, l’armée russe utilise désormais des hélicoptères d’attaque, principalement les «Alligators», pour détruire le matériel lourd ukrainien sur le champ de bataille. Les risques de tirs au sol ou de missiles attaquant les hélicoptères ont été atténués par une variété de nouveaux dispositifs de guerre électronique qui semblent être très efficaces dans la pratique. Les Russes utilisent également la guerre électronique pour désorienter et neutraliser les drones ukrainiens.

Dans le même temps, l’armée russe déploie actuellement des bombardiers furtifs dans la zone de guerre. Les premiers vols ont démontré leur capacité à opérer au-dessus du territoire contrôlé par l’Ukraine sans être détectés. Si cette pratique se généralise, les Russes bénéficieront de la supériorité aérienne qui caractérise les opérations de guerre des États-Unis et de l’OTAN depuis plus de trente ans.

01/07/2023 Mission spatiale européenne Euclid

Le télescope spatial européen Euclid a décollé samedi 7 juillet 2023de Cap Canaveral (Floride), pour être placé à 1,5 million de km de la Terre.

Sa mission : étudier l’énergie sombre et la matière noire, qui composent 95% de l’univers mais dont nous ne savons quasiment rien.

EUCLID observera donc des milliards de galaxies et l’évolution des grandes structures de l’univers à travers les âges jusqu’à 10 milliards d’années dans le passé, dans le domaine visible et proche infrarouge (longueur d’onde de 550 à 2000 nm). Pour ce faire, il est prévu de déterminer les décalages spectraux vers le rouge (appelé redshift et noté z) des sources observées par des méthodes spectrométriques et photométriques issues de mesures instrumentales et complémentées, pour les mesures photométriques, par l’assistance de télescopes terrestres pour des mesures dans le domaine visible.

Avec son immense couverture céleste et ses catalogues de milliards d’étoiles et de galaxies, l’intérêt scientifique des données de la mission dépasse le cadre de la cosmologie. Cette base de données abondera en sources l’ensemble de la communauté astronomique mondiale pour des décennies et constituera un réservoir d’objets astronomiques nouveaux pour des observations avec les télescopes le JWST, l’E-ELT, le TMT, ALMA, SKA ou le Vera C. Rubin Observatory.

Pour réaliser ce colossal travail de cartographie, EUCLID aura à son bord 2 instruments, un spectrophotomètre proche infrarouge appelé l’instrument NISP (Near Infrared Spectro Photometer) et un imageur travaillant dans le domaine visible, l’Instrument VIS (VISible Instrument), développés par un consortium international dirigé par la France, plus précisément par l’Institut d’Astrophysique de Paris (IAP/CNRS). Le consortium EUCLID regroupe plus de 2 200 personnes (dont 425 en France) réparties dans environ 250 laboratoires (dont 40 en France) de 16 pays. 

EUCLID est la 2ème mission M2 (dite moyenne) du programme scientifique obligatoire Cosmic Vision de l’ESA, une mission d’astronomie et d’astrophysique sélectionnée au SPC du 04 octobre 2011, puis adoptée au SPC du 20 juin 2012. C’est une mission principalement dédiée à la cosmologie, c’est-à-dire à l’étude de l’origine, de la nature, de la structure et de l’évolution de l’Univers qui va essayer d’accroître nos connaissances sur deux composantes encore mystérieuses de notre univers, l’énergie noire et la matière noire.

Le satellite EUCLID, dont la maîtrise d’œuvre (Prime Contractor) a été confiée à Thales Alenia Space Italie (Turin), quittera la Terre au cours de mars 2023du troisième semestre 2023. L’objectif de cette mission est de cartographier tout un pan de l’Univers pour essayer d’avancer un peu plus sur notre connaissance des origines et de l’évolution de l’Univers. La mission a principalement deux buts. Le premier est de comprendre pourquoi l’expansion de l’Univers s’accélère sous l’effet de cette mystérieuse « énergie noire », (ou « sombre »). Le second est de cartographier la non moins mystérieuse « matière noire » (ou « sombre »), puisque bien qu’invisible directement à nos yeux et aux instruments, elle participe, avec la matière visible (étoiles, nébuleuses, …etc) aux effets de gravitation qui lient entre elles les étoiles au sein des galaxies et les galaxies au sein des amas. En observant toujours plus loin, donc en remontant plus loin dans le temps, Euclid tentera de reconstruire l’évolution de notre univers au cours des 10 derniers milliards d’années sous les effets antagonistes de la matière noire et de l’énergie noire.

Au cours de sa mission nominale de 6 ans, EUCLID doit observer à peu près un tiers de la voûte céleste, soit un peu moins de 15 000 degrés², le reste étant occulté par le plan galactique (disque dans lequel tournent les galaxies de la Voie Lactée) et par le plan de l’écliptique (disque dans lequel tournent les planètes de notre système solaire). À ce relevé s’ajouteront des observations environ 10 fois plus profondes pointant vers trois champs situés près des pôles écliptiques, un au nord couvrant 20 degrés² et 2 au sud couvrant chacun 10 degrés². Ils seront visités régulièrement pendant toute la durée de la mission, et serviront de données d’étalonnage et de contrôle de stabilité des performances du télescope et des instruments, ainsi que de données scientifiques pour l’observation des galaxies et des quasars les plus lointains de l’Univers.

EUCLID observera donc des milliards de galaxies et l’évolution des grandes structures de l’univers à travers les âges jusqu’à 10 milliards d’années dans le passé, dans le domaine visible et proche infrarouge (longueur d’onde de 550 à 2000 nm). Pour ce faire, il est prévu de déterminer les décalages spectraux vers le rouge (appelé redshift et noté z) des sources observées par des méthodes spectrométriques et photométriques issues de mesures instrumentales et complémentées, pour les mesures photométriques, par l’assistance de télescopes terrestres pour des mesures dans le domaine visible.

Avec son immense couverture céleste et ses catalogues de milliards d’étoiles et de galaxies, l’intérêt scientifique des données de la mission dépasse le cadre de la cosmologie. Cette base de données abondera en sources l’ensemble de la communauté astronomique mondiale pour des décennies et constituera un réservoir d’objets astronomiques nouveaux pour des observations avec les télescopes le JWST, l’E-ELT, le TMT, ALMA, SKA ou le Vera C. Rubin Observatory.

Pour réaliser ce colossal travail de cartographie, EUCLID aura à son bord 2 instruments, un spectrophotomètre proche infrarouge appelé l’instrument NISP (Near Infrared Spectro Photometer) et un imageur travaillant dans le domaine visible, l’Instrument VIS (VISible Instrument), développés par un consortium international dirigé par la France, plus précisément par l’Institut d’Astrophysique de Paris (IAP/CNRS). Le consortium EUCLID regroupe plus de 2 200 personnes (dont 425 en France) réparties dans environ 250 laboratoires (dont 40 en France) de 16 pays. 

  • On sait que l’univers est en expansion, c’est-à-dire qu’il s’étire, chaque astre s’éloignant des autres. Mais on ignore encore pourquoi, et aussi pourquoi cette expansion accélère sous l’effet d’une mystérieuse énergie sombre. Dans cet univers en expansion, comment se forment et évoluent les grandes structures sous l’influence de la gravitation ?

Pourquoi la gravitation générée par la matière composant gaz et galaxies de ces structures ne suffit-elle pas ? Existe-t-il une matière invisible à nos yeux, à nos instruments, une matière sombre ?

C’est ce que tentera de mettre en évidence Euclid, une mission inédite de l’Agence spatiale européenne (ESA), qui quittera la Terre le 1e juillet 2023 et sur laquelle la France assure un rôle majeur. La mission Euclid regroupe un consortium de plus de 1 600 personnes, dont 350 en France, réparties dans 250 laboratoires de dix-sept pays.

Remonter le temps pour comprendre l’expansion de l’Univers

Euclid imagera des milliards de galaxies, images qui voyagent à la vitesse de la lumière. Les galaxies seront vues telles qu’elles étaient au moment où leur lumière a été émise, c’est-à-dire dans le passé : plus elles sont éloignées, plus l’image reçue est ancienne. L’expansion, l’allongement de la trame de l’univers provoque également un étirement des spectres de lumière vers les grandes longueurs d’onde, et pour la lumière visible vers le rouge, voire l’infrarouge.

Ce « décalage vers le rouge » permet de déterminer la distance à laquelle se trouve la source et donc indirectement de situer l’époque à laquelle la lumière a été émise (en utilisant par exemple le « diagramme de Hubble »). Euclid déterminera donc les décalages vers le rouge des galaxies qu’il imagera, pour reconstruire l’évolution de notre univers au cours des dix derniers milliards d’années.



Ainsi, en observant la distribution des galaxies formant les grandes structures de l’univers à différentes époques, Euclid nous aidera à comprendre pourquoi la trame de l’univers est en expansion (et donc pourquoi les objets célestes s’éloignent les uns des autres), mais aussi pourquoi cette expansion accélère sous l’effet d’une mystérieuse « énergie sombre ».

Peut-on voir la matière noire ?

Euclid va aussi nous permettre d’aborder le deuxième grand mystère cosmologique, celui de la « matière noire ». Cette matière inhabituelle est introduite dans les théories astrophysiques pour rendre compte de différentes observations (masses des galaxies et amas de galaxies, fluctuations du fond diffus cosmologique). En d’autres termes, sans matière noire, on n’arrive pas à prédire ce que l’on voit, même avec les théories les plus sophistiquées dont nous disposions sur l’Univers.

Mais la caractéristique principale de la matière noire est qu’elle interagit très peu avec la matière et la lumière (d’où son nom) : comment, dans ces conditions, peut-on espérer la détecter ? Euclid propose de détecter et localiser la matière sombre de manière indirecte en étudiant son effet gravitationnel sur l’image des galaxies. Pour ce faire, Euclid utilisera le phénomène lentilles gravitationnelles qui « courbent » les rayons lumineux passant dans un champ de gravitation, et ainsi déforment l’image des galaxies le traversant. C’est en étudiant ces déformations d’image qu’il sera possible de reconstituer la matière sombre présente.

Ainsi, Euclid permettra de cartographier la non moins mystérieuse « matière sombre » qui participe, avec la matière visible des étoiles et des nébuleuses, aux effets de gravitation qui lient entre elles les étoiles au sein des galaxies et les galaxies au sein des amas.

Euclid observera depuis l’espace pour éviter de regarder à travers l’atmosphère terrestre. En effet, celle-ci est turbulente, ce qui trouble les images et affecte leur résolution ; et le rayonnement infrarouge est très absorbé par les molécules d’eau et de gaz carbonique principalement présentes dans l’atmosphère, ce qui limite fortement la possibilité de réaliser des images et des spectres dans ce domaine de longueurs d’onde. Il imagera tout ce qu’il est possible de voir au-delà de la Voie lactée, soit environ un tiers de la voûte céleste, le reste étant occulté par le plan galactique (disque dans lequel tournent les étoiles de notre galaxie) et par le plan de l’écliptique (disque dans lequel tournent les planètes de notre système solaire).

Le télescope et ses instruments

Le satellite est équipé d’un télescope de type Korsch à 3 miroirs qui offre un grand champ de vue, équivalent à deux fois et demi la surface du disque lunaire. Il a été réalisé par Airbus Defence and Space à Toulouse, entièrement en carbure de silicium (SiC), un matériau thermiquement très. Il est maintenu à une température de -140 °C et intègre deux instruments, le NISP et le VIS.

Le NISP (pour near infrared spectro photometer) est un spectro-photomètre infrarouge réalisant en même temps les images des galaxies tout en dispersant leur lumière pour réaliser des spectres. Son grand plan focal de 66 millions de pixels, travaillant dans le proche infrarouge (0,9 à 2 micromètres) et refroidi à -180 °C, offre le plus grand champ de vue infrarouge jamais réalisé pour une mission spatiale. La partie opto-mécanique de l’instrument est également réalisée en SiC. Le NISP est de responsabilité française, réalisé sous la maîtrise d’œuvre du Laboratoire d’astrophysique de Marseille.

Pour suivre l’évolution des structures à différentes époques, les distances seront déterminées par la « méthode des BAO » (oscillations acoustiques de baryons), une méthode permettant d’obtenir une règle standard, un étalon dimensionnel pour mesurer des distances. L’objectif est de traiter 35 millions de galaxies.

Le VIS (visible instrument) est une caméra réalisant des images dans les longueurs d’onde visibles (0,55 à 0,9 micromètre), de responsabilité anglaise, sur laquelle sont présentes 3 contributions françaises, en particulier son immense plan focal totalisant environ 600 millions de pixels (équivalent à 300 téléviseurs HD), le deuxième plus grand jamais réalisé pour une mission spatiale après Gaia, permettant sur une même image de visualiser et de caractériser 50 000 galaxies.

Il est également réalisé en SiC et maintenu à une température de -120 °C. La déformation de certaines images de galaxies sous l’effet de lentilles gravitationnelles faibles induite par les effets de gravitation dus à la présence de matière entre ces galaxies et le télescope permettra de mettre en évidence et de localiser la matière sombre. L’objectif est de traiter un milliard et demi de galaxies.

Les distances seront déterminées en mesurant le « décalage vers le rouge » de chaque source observée par des méthodes spectrométriques (instrument NISP) et photométriques (instrument VIS) issues de mesures de luminosité réalisées à bord et complémentées par l’assistance de télescopes au sol.

Les deux instruments génèreront chaque jour environ 850 Gb de données à transmettre sur Terre. Le satellite intègre une mémoire de masse de 4Tbit stockant données scientifiques et données de télémétrie liées au fonctionnement des instruments. Il envoie chaque jour pendant quatre heures ces données vers la station sol de Cebreros en Espagne qui ensuite les transmet vers le Centre d’Opérations Mission situé au Centre ESOC de l’ESA à Darmstadt en Allemagne.

Cumulé sur les six ans de mission, le volume de donnée à traiter est impressionnant, de l’ordre de 170 millions de gigaoctets. Cela représente plusieurs centaines de milliers de disques durs d’ordinateurs personnels. Le traitement sera réalisé dans neuf centres de traitement, huit en Europe et un aux États-Unis. Pour la France, le centre de calcul de l’Institut national de physique nucléaire et de physique des particules, à Villeurbanne réalisera à lui seul le traitement de 30 % des données.


Les laboratoires français impliqués dans le développement d’Euclid sont le Centre de Physique des Particules de Marseille, l’Institut de Physique des 2 Infinis de Lyon, le Laboratoire AstroParticules et Cosmologie, le Laboratoire de Physique Subatomique et de Cosmologie, l’Institut d’Astrophysique Spatiale, l’Institut d’Astrophysique de Paris, l’Institut de Recherche en Astrophysique et Planétologie, le Laboratoire Joseph-Louis Lagrange, le Laboratoire Astrophysique Instrumentation et Modélisation, le Laboratoire d’Etude du Rayonnement et de la Matière en Astrophysique, le Laboratoire d’Astrophysique de Marseille, l’Institut de Recherche sur les lois fondamentales de l’Univers et le Centre de Calcul de l’Institut National de Physique Nucléaire et de Physique des Particules.

01/07/2023 L’hydrogène est lui-aussi un gaz à effet de serre.

D’après une nouvelle étude parue dans la revue scientifique Communications Earth & Environment  rejeter 1 tonne d’hydrogène dans l’atmosphère équivaut à relâcher près de 13 tonnes de dioxyde de carbone. Soit des conséquences climatiques deux fois plus élevées que les premières estimations, qui remontent au début des années 2000.

Une mauvaise nouvelle pour les industriels et les gouvernements. Plusieurs secteurs de l’industrie lourde et des transports — routier, ferroviaire, maritime et même l’aviation — comptaient sur ce gaz qui ne rejette pas de CO2 lorsqu’il est consommé, pour atteindre leurs objectifs de réduction des émissions de carbone.

Or aujourd’hui,  la quasi-totalité de l’hydrogène consommé dans le monde est fabriquée à partir de ressources fossiles, en particulier via le procédé très polluant de « vaporeformage de méthane », qui requiert du gaz naturel. Pour que l’hydrogène présente un intérêt en matière de transition énergétique, le premier défi consiste à déployer en un temps record une nouvelle filière industrielle hydrogène dont la production serait bas carbone. On parle d’hydrogène vert, l’hydrogène produit par le biais d’électricité renouvelable.

Dans les faits, ceci nécessitera la mise en place de nombreuses infrastructures pour produire, transporter, stocker et utiliser cet hydrogène . Or, comme pour tout gaz industriel, une petite partie de l’hydrogène produit s’échappera des différents équipements qui composent la chaîne de production « D’autant plus que l’hydrogène est une petite molécule, qui se diffuse facilement, selon Christophe Coutanceau, professeur à l’université de Poitiers et membre de la Fédération hydrogène du Centre national de la recherche scientifique (CNRS). D’où l’intérêt de cette étude, qui nous rappelle qu’il faut limiter le plus possible les fuites de l’hydrogène, de la production à l’utilisation de ce gaz

L’hydrogène, dont la durée de vie est d’à peine deux ans et demi dans l’atmosphère, n’est pas un gaz à effet de serre comme les autres : « Il s’agit d’un gaz à effet de serre indirect : il perturbe la concentration et la durée de vie des autres gaz à effet de serre, il faut donc l’estimer via un modèle de chimie atmosphérique ».

En effet, l’hydrogène, même produit grâce à des énergies renouvelables, contribue au réchauffement en modifiant la concentration de méthane (CH4) qui, lui, provoque directement un puissant effet de serre. La molécule de dihydrogène s’oxyde en effet dans l’atmosphère en réagissant avec le radical hydroxyle (OH). Par conséquent, il reste un peu moins de OH pour détruire les molécules de méthane.  L’oxydation de l’hydrogène réagit aussi avec l’acide atmosphérique, ce qui contribue à produire de l’ozone troposphérique, un autre gaz à effet de serre. Enfin, le méthane, dont la durée de vie dans l’atmosphère augmente avec la présence d’hydrogène, génère lui-même de l’ozone et de la vapeur d’eau dans la stratosphère

Selon l’Agence internationale de l’énergie, lorsque les fuites sont comprises entre 1 et 3 % de l’hydrogène produit, transporté et utilisé, le recours à l’hydrogène « vert », c’est-à-dire produit par le biais d’électricité renouvelable, permet d’éviter 90 à 99 % des émissions de CO2  par rapport à l’utilisation d’énergies fossiles.

Par contre, l’intérêt climatique de l’hydrogène « bleu », produit par le procédé très polluant de vaporeformage de méthane (la production d’hydrogène à partir de gaz naturel qui se pratique actuellement) associé à une usine de captage et de séquestration de carbone, est discutable.

Dans le scénario où 60 % de l’hydrogène utilisé est « bleu » et le gros tiers restant est produit à partir d’électricité renouvelable, la quantité d’émissions de CO2 évitée par la filière considérée atteint seulement 3 à 61 % par rapport à l’utilisation de ressources fossiles, toujours pour un taux de fuite d’hydrogène compris entre 1 et 3 %. En cause : les fuites de méthane, inhérentes à la production d’hydrogène par vaporeformage de méthane.

  • Référence
Climate benefit of a future hydrogen economy

volume3, Article number: 295 (2022) 

Published: 26 November 2022

  • Abstract

Hydrogen is recognised as an important future energy vector for applications in many sectors. Hydrogen is an indirect climate gas which induces perturbations of methane, ozone, and stratospheric water vapour, three potent greenhouse gases. Using data from a state-of-the-art global numerical model, here we calculate the hydrogen climate metrics as a function of the considered time-horizon and derive a 100-year Global Warming Potential of 12.8 ± 5.2 and a 20-year Global Warming Potential of 40.1 ± 24.1. The considered scenarios for a future hydrogen transition show that a green hydrogen economy is beneficial in terms of mitigated carbon dioxide emissions for all policy-relevant time-horizons and leakage rates. In contrast, the carbon dioxide and methane emissions associated with blue hydrogen reduce the benefit of a hydrogen economy and lead to a climate penalty at high leakage rate or blue hydrogen share. The leakage rate and the hydrogen production pathways are key leverages to reach a clear climate benefit from a large-scale transition to a hydrogen economy.

30/06/2023 La Terre a rencontré récemment un sursaut gamma potentiellement destructeur

La rencontre, passée inaperçue sauf de certains radio-astronomes, a eu lieu le 9 octobre 2022. Ce sursaut désigné du nom de GRB 221009A a été surnommé le BOAT, le plus brillant de tous les temps, the Brightest Of All Time , autrement dit l’explosion la plus énergétique jamais observée dans l’histoire du Cosmos.. Sans doute les humains n’en rencontreront-ils jamais de semblables dans les prochains siècles.

Un sursaut gamma  survient lorsque une étoile massive en fin de vie s’effondre et que son centre se transforme en trou noir. Des rayons X dits aussi en l’espèce rayons gamma sont relâchés alors que l’onde de choc entre en collision avec le gaz rejeté par l’explosion initiale de l’étoile.

GRB 221009A provient de la constellation du Sagittaire et se produisit il y a environ 1,9  milliard d’années, soit aujourd’hui à une distance de 2,4 milliards d’années-lumière de la Terre compte tenu de l’expansion de l’univers. Lorsque l’ étoile origine s’effondre pour devenir un trou noir, elle génère à partir des pôles deux puissants champs magnétiques dans lesquels la matière de l’étoile est projetée à une vitesse proche de celle de la lumière. Ceci produit une lumière si forte qu’ elle peut être détectée à des distances de plusieurs milliards d’années-lumière.

Cependant les mécanismes à l’origine d’un GRB aussi puissant sont mal connus et méritent d’être mieux étudiés. Un récent article publié dans Science Advances dont on trouvera ci-dessous les références et l’abstract propose des réponses.

Pour en savoir plus
https://www.esa.int/Space_in_Member_States/Belgium_-_Francais/Sommes-nous_a_l_abri_des_sursauts_gamma

Référence

SCIENCE ADVANCES
7 Jun 2023
Vol 9, Issue 23
DOI: 10.1126/sciadv.adi140
Abstract
Long-duration gamma-ray bursts (GRBs) are powerful cosmic explosions, signaling the death of massive stars. Among them, GRB 221009A is by far the brightest burst ever observed. Because of its enormous energy (Eiso ≈ 1055 erg) and proximity (z ≈ 0.15), GRB 221009A is an exceptionally rare event that pushes the limits of our theories. We present multiwavelength observations covering the first 3 months of its afterglow evolution. The x-ray brightness decays as a power law with slope ≈t−1.66, which is not consistent with standard predictions for jetted emission. We attribute this behavior to a shallow energy profile of the relativistic jet. A similar trend is observed in other energetic GRBs, suggesting that the most extreme explosions may be powered by structured jets launched by a common central engine.

29/06/2033 Un bruit de fond de l’univers a été entendu pour la première fois

Après 20 ans de recherche, ce bruit émis par le tourbillon de gigantesques trous noirs a été identifié grâce à une technique inédite de détection des ondes gravitationnelles.

Le bruit de fond émis par un tourbillon de gigantesques trous noirs a été identifié grâce à une technique inédite de détection des ondes gravitationnelles, selon des recherches publiées simultanément dans plusieurs revues scientifiques, jeudi 29 juin.

Ces résultats sont le fruit d’une vaste collaboration des plus grands radiotélescopes du monde, faisant partie du consortium International Puslar Timing Array (IPTA). Ils ont réussi à capter cette vibration de l’univers avec « la précision d’une horloge », selon les auteurs des travaux.

Prédites par Einstein en 1916 et détectées cent ans plus tard, les ondes gravitationnelles sont d’infimes déformations de l’espace-temps, semblables à des ondulations de l’eau à la surface d’un étang. Ces oscillations, qui se propagent à la vitesse de la lumière, naissent sous l’effet d’événements cosmiques violents, tels que la collision de deux trous noirs. Elles ont beau être liées à des phénomènes massifs, leur signal est extrêmement ténu.

« Une nouvelle fenêtre sur l’univers »

En 2015, les détecteurs d’ondes gravitationnelles Ligo (Etats-Unis) et Virgo (Europe)  dont certains pensaient qu’ils ne serviraient à rien, ont révolutionné l’astrophysique en détectant le frémissement ultra-bref – moins d’une seconde – de collisions entre des trous noirs.

Cette fois-ci, un signal bien plus étiré dans le temps a été reçu. Il trahit des ondes gravitationnelles générées par des trous noirs de « plusieurs millions à plusieurs milliards de fois la masse du Soleil », selon Gilles Theureau, astronome à l’Observatoire de Paris-PSL, qui a coordonné les travaux côté français.

Pour détecter ces ondes, les scientifiques ont utilisé un outil inédit : des pulsars de la Voie lactée. Ultra-compactes, ces étoiles tournent sur elles-mêmes à grande vitesse. A chaque tour, les pulsars envoient des « bip » réguliers, qui en font de « remarquables horloges naturelles », explique Lucas Guillemot, du Laboratoire de physique et de chimie de l’environnement et de l’espace (LPC2E) d’Orléans. Les scientifiques ont répertorié des groupes de pulsars, pour obtenir un « maillage céleste » dans les méandres de l’espace-temps. Cela leur a permis mesurer un infime dérèglement dans ce tic-tac, caractéristique des ondes gravitationnelles.

Quelle est la source de ces ondes ? L’hypothèse privilégiée envisage des couples de trous noirs supermassifs  prets à se percuter, développe Gilles Theureau. Un bruit de fond en continu que Michael Keith, du réseau européen EPTA (European Pulsing Timing Array), compare à un « restaurant bruyant avec beaucoup de gens parlant autour de vous ». Les mesures ne permettent pas encore de dire si ce bruit trahit la présence de quelques couples de trous noirs, ou de toute une population. « Nous ouvrons une nouvelle fenêtre sur l’univers », se félicite Gilles Theureau. Ces études, qui devront être approfondies, pourraient notamment éclaircir le mystère de la formation des trous noirs supermassifs.

Référence

The second data release from the European Pulsar Timing Array III. Search for gravitational wave signals

https://inspirehep.net/literature/2672722

Jun 28, 2023

Abstract: (arXiv)

We present the results of the search for an isotropic stochastic gravitational wave background (GWB) at nanohertz frequencies using the second data release of the European Pulsar Timing Array (EPTA) for 25 millisecond pulsars and a combination with the first data release of the Indian Pulsar Timing Array (InPTA). We analysed (i) the full 24.7-year EPTA data set, (ii) its 10.3-year subset based on modern observing systems, (iii) the combination of the full data set with the first data release of the InPTA for ten commonly timed millisecond pulsars, and (iv) the combination of the 10.3-year subset with the InPTA data. These combinations allowed us to probe the contributions of instrumental noise and interstellar propagation effects. With the full data set, we find marginal evidence for a GWB,  gravitational wave background , with a Bayes factor of four and a false alarm probability of 4% 4%. With the 10.3-year subset, we report evidence for a GWB, with a Bayes factor of 60 60 and a false alarm probability of about 0.1% 0.1% (≳3� ≳3σ significance).

The addition of the InPTA data yields results that are broadly consistent with the EPTA-only data sets, with the benefit of better noise modelling. Analyses were performed with different data processing pipelines to test the consistency of the results from independent software packages. The inferred spectrum from the latest EPTA data from new generation observing systems is rather uncertain and in mild tension with the common signal measured in the full data set. However, if the spectral index is fixed at 13/3, the two data sets give a similar amplitude of (2.5±0.7)×10−15 2.5±0.7)×10−15 at a reference frequency of 1 yr−1 1yr−1. By continuing our detection efforts as part of the International Pulsar Timing Array (IPTA), we expect to be able to improve the measurement of spatial correlations and better characterise this signal in the coming years.

29/06/2023. Lutte contre le changement climatique. Rapport du HCC


France
Le Haut Conseil pour le climat (HCC) a publié, mercredi 28 juin, son cinquième rapport annuel. Celui-ci, intitulé « Acter l’urgence, engager les moyens » dresse une analyse des impacts du changement climatique et des limites de la prévention et de la gestion de crise en France, du suivi des émissions de gaz à effet de serre et des politiques associées, des budgets carbone, des leviers pour l’action climatique nationale et internationale, et présente la nouvelle méthode d’évaluation de l’action publique en France du Haut conseil pour le climat, ainsi que ses recommandations pour améliorer l’action publique en matière de climat.

Rapport complet https://www.hautconseilclimat.fr/wp-content/uploads/2023/06/HCC_RA_2023_.pdf

Nous en extrayons les points suivants

Partout sur le globe, les effets du dérèglement climatique se font ressentir. En janvier 2023, la synthèse de six grands jeux de données internationales réalisée par l’Organisation météorologique mondiale (OMM) montre que, sous l’effet de l’augmentation constante des concentrations de gaz à effet de serre et de la chaleur accumulée, les huit dernières années ont été les plus chaudes jamais enregistrées au niveau mondial. Le changement climatique n’attend pas. Il est temps d’agir.

Depuis les années 1800, les effets du changement climatique s’intensifient sur l’ensemble du globe. Les activités humaines influent tragiquement sur les concentrations de gaz à effet de serre de plus en plus massives qui atteignent leur niveau le plus élevé depuis deux millions d’années.

Ainsi, l’une des conséquences directes est l’augmentation de la température à la surface du globe. Actuellement, elle est supérieure de 1,1 °C par rapport à la température enregistrée dans les années 1800. On considère également que la dernière décennie (2011-2020) est la plus chaude jamais enregistrée.

Pourtant, lors de rendez-vous internationaux dédiés au climat, scientifiques et évaluateurs gouvernementaux ont convenu de l’importance de contenir la hausse de la température globale à 1,5 °C afin de mieux prévenir les effets climatiques. Malgré cela, et sur la base des plans climatiques nationaux actuels, le réchauffement de la planète devrait atteindre 2,8 °C d’ici la fin du siècle.

Ainsi, d’un pôle à l’autre, on distingue chaque année un nombre de plus en plus important de catastrophes climatiques, qui sont également de plus en plus répétitives et de plus en plus destructrices pour les hommes et la biodiversité.

Essentiellement liées aux activités humaines, les causes du changement climatique sont multiples : hausse de la consommation de combustibles fossiles comme le charbon, le pétrole et le gaz, l’agriculture intensive, les engrais contenant de l’azote, la déforestation intensive, la surproduction…

Si de nombreuses personnes pensent que les effets du changement climatique se traduisent par des températures plus élevées, il est primordial de comprendre que les conséquences sont bien plus larges et plus graves. En effet, la Terre est un système où tout est lié, chaque changement a un impact à court ou long terme.

Ainsi, les conséquences du changement climatique se traduisent le plus souvent par des épisodes climatiques graves et de plus en plus longs sur l’ensemble du globe : sécheresses intenses, pénuries d’eau, incendies, élévation du niveau de la mer, inondations, fonte des glaces polaires, tempêtes catastrophiques et déclin de la biodiversité mais également des phénomènes migratoires importants souvent liés à des problématiques alimentaires ou des conflits pour la gestion des ressources naturelles.

Les 2 pôles en première ligne des bouleversements climatiques

Selon une étude réalisée par le CNRS, les régions polaires sont au cœur du changement climatique qui touche l’ensemble de la planète. En effet, c’est dans ces régions que les bouleversements climatiques sont les plus forts.

Diminution de la surface de la banquise, de son épaisseur, les effets visibles à l’œil nu sont importants. Chaque année, des millions de kilomètres carrés disparaissent.

L’amplification polaire du changement climatique, qui conduit les hautes latitudes à se réchauffer près de deux fois plus vite que les régions tempérées, entraîne la diminution progressive de certaines zones englacées.

Si l’on s’intéresse de plus près à la banquise arctique, les scientifiques se posent la question de savoir si celle-ci disparaîtra complètement dans la prochaine décennie. Les impacts vont plus loin : le réchauffement touche également en permanence les sols gelés. Habituellement gelés sur plusieurs centaines de mètres, ils dégèlent désormais même en dehors de la saison “chaude” sur un mètre de profondeur environ et présentent depuis quelques années des effondrements très nets, signes de dégel plus profond.

Pourquoi l’Afrique paie déjà le prix du dérèglement climatique

Alors que l’Afrique ne représente qu’environ 2 à 3 % des émissions mondiales de gaz à effet de serre, elle en subit les conséquences de manière disproportionnée.

En effet, les pays africains sont parmi les plus fragiles face au dérèglement climatique. Manque d’infrastructures, gestion de l’eau complexe, stress hydrique, système d’alerte insuffisant, insécurité alimentaire et déplacements de population importants sont autant de causes qui font que l’Afrique paie déjà le prix fort face aux impacts du dérèglement climatique.

Le rapport «État du climat en Afrique 2021» illustre comment les phénomènes météorologiques extrêmes

https://www.one.org/fr/infos/

Des estimations montrent ainsi que le stress hydrique touche environ 250 millions de personnes sur le continent africain et pourrait entraîner le déplacement de 700 millions de personnes d’ici à 2030. De plus, d’ici à 2030, et selon toute probabilité, quatre pays africains sur cinq ne disposeront pas de ressources en eau gérées de manière durable afin de faire face à ces conséquences terribles.

Quels pays en font le moins pour lutter contre le changement climatique ?

Selon les chiffres publiés en 2023 du Climate Change Performance Index (CCPI), la France a été rétrogradée à la 28e place du classement. Elle fait moins bien que le Danemark, le Maroc ou l’Égypte dans la lutte contre le changement climatique. Ce classement annuel international de l’indice de protection climatique des principaux pays émetteurs des gaz à effet de serre analyse les données de 59 pays, Union Européenne comprise, responsables d’environ 90 % des émissions dans le monde.

On observe également que des pays comme l’Arabie Saoudite, les Etats-Unis, la Russie, l’Australie, la Chine sont parmi les moins appliqués pour lutter contre le changement climatique.

28/06/2023. Six galaxies surprenantes

En février 2023, des astronomes ont annoncé que parmi les galaxies les plus éloignées observées par le Telescope spatial James Webb (JWST), il s’en trouvaient six qui apparaissaient plus brillantes et par conséquent plus étendues et plus anciennes que celles qu’ils pensaient trouver. L’une de celle-ci, estimée s’être formée 700 millions d’années après le Big Bang, contenait plus de 100 milliards d’étoiles, à peu près autant que la Voie Lactée n’en avait accumulé en 12 milliards d’années. Ceci n’avait pas de sens.

Faut-il remettre en cause les scénarios actuels intéressant l’évolution de l’Univers. Il ne s’était pas écoulé suffisamment de temps depuis les origines pour que tant de matière se forme et se transforme en étoiles. Le modèle standard de la cosmologie, initialisé par la théorie de la relativité générale d’Einstein, devait-il être repensé ?

Déjà avec l’introduction de la matière noire et de l’énergie noire, celle-ci responsable de l’accélération de la vitesse d’expansion de l’univers, le modèle standard avait du être adapté. Avec le concept de Cold Dark Matter ou CDM, la matière noire froide (ou CDM, de l’anglais Cold dark matter) serait une forme de matière  noire hypothétique dont les particules se déplacent lentement par rapport à la vitesse de la lumière  (d’où le qualificatif de froide) qui interagit faiblement avec la matière ordinaire et le rayonnement électromagnétique (noire).

Mais les six galaxies qui venaient d’être découvertes auraient du former beaucoup plus d’étoiles si elles avaient respecté le modèle standard, même adapté . Pour résoudre les contradictions actuelles, il va falloir poursuivre les observations du Télescope James Webb et simultanément affiner les modèles théoriques concernant la formation de l’univers. Ainsi va la science.

Voir https://www.syfy.com/syfy-wire/jwst-spies-hulking-galaxies-near-the-dawn-of-the-universe