29/08/2024 Devrons nous laisser à la Chine le monopole des robots humanoïdes intelligents

Avec 1,412 milliard (2022) de Chinois, la Chine dépasse en termes démographiques toutes les puissancs mondiales, y compris l’Inde et les Etats-Unis. Cela lui donnerait un avantage indéniable en cas de conflit militaire.

Mais elle dispose aussi de la même supériorité dans le cas des robots humanoides dits intelligents. L’on dit qu’ils sont intelligents en ce sens qu’ils sont équipés des toutes dernières versions d’Intelligence Artificielle IA.

Comme le révèle un article du quotidien hongkongais South China Morning Post publié le 3 novembre 2023, le ministère chinois de l’Industrie et des Technologies de l’information (MIIT) a publié un rapport de neuf pages à destination des industries du pays. L’objectif est de les appeler à établir un système d’innovation pour les robots humanoïdes, réaliser des percées dans plusieurs technologies clés et garantir l’approvisionnement sûr et efficace des composants essentiels d’ici à 2025.

Ceci devrait, selon les responsables politiques, placer la Chine au premier rang mondial en matière de robots humanoïdes intelligents avant 2030. De plus, le MIIT a affirmé que les industries devront apporter un soin tout particulier au cerveau et aux membres de ces machines.

La volonté de la Chine de devenir un leader mondial dans le domaine des robots humanoïdes intelligents témoigne de son ambition technologique et de son désir de dominer un marché en pleine expansion. Si l’objectif immédiat est d’améliorer la sécurité et l’efficacité dans des secteurs tels que les services d’urgence, il est clair que ce projet pourrait avoir des implications bien plus vastes à long terme.

Les États-Unis et d’autres puissances mondiales devront surveiller de près ces développements, car ils pourraient redéfinir non seulement le futur du travail humain, mais aussi celui de la défense et de la sécurité mondiale.

L’évolution rapide de cette technologie soulève des questions cruciales sur les usages futurs et les régulations nécessaires pour encadrer ces nouvelles formes d’intelligence artificielle et de robotique.

Dans le domaine spatial et plus particulièrement dans le but d’établir des bases de longue durée sur la Lune et sur Mars le recours à de tels robots intelligents se révèle d’ores et déjà indispensable vu l’impossibilité de protéger durablement des cosmonautes humains des différents types de radiation.

28/08/2022 Les ondes gravitationnelles pourraient révéler le moment où le temps a commencé

Récemment, en utilisant des modèles mathématiques issus de la physique des plasmas, des chercheurs ont pu adapter leurs équations pour explorer comment les ondes gravitationnelles interagissent avec la matière. Cette approche a révélé que les interactions entre les ondes gravitationnelles et les particules pourraient fournir des indices précieux sur les conditions de l’Univers juste après le Big Bang.

Concrètement, les chercheurs ont découvert que bien qu’elles ne projettent pas d’ombre comme la lumière, les ondes gravitationnelles peuvent influencer la matière de manière mesurable. En étudiant comment ces ondes affectent la matière et le rayonnement que nous pouvons observer aujourd’hui, les scientifiques espèrent obtenir des informations indirectes sur les premières étapes de l’univers.

Ce travail théorique, publié dans le Journal of Cosmology and Astroparticle Physics, est encore en développement. Les formules mathématiques développées jusqu’à présent sont prometteuses, mais il faudra encore des efforts pour obtenir des résultats significatifs. Leur objectif sera de comprendre comment les ondulations de l’espace-temps ont interagi avec la matière primitive et comment ces interactions pourraient être détectées à travers les observations actuelles.

Référence

https://iopscience.iop.org/article/10.1088/1475-7516/2022/08/017

Gravitational wave modes in matter

Deepen Garg and I.Y. Dodin1

Published 10 August 2022 • 
Journal of Cosmology and Astroparticle PhysicsVolume 2022August 2022

Abstract

A general linear gauge-invariant equation for dispersive gravitational waves (GWs) propagating in matter is derived. This equation describes, on the same footing, both the usual tensor modes and the gravitational modes strongly coupled with matter. It is shown that the effect of matter on the former is comparable to diffraction and therefore negligible within the geometrical-optics approximation. However, this approximation is applicable to modes strongly coupled with matter due to their large refractive index. GWs in ideal gas are studied using the kinetic average-Lagrangian approach and the gravitational polarizability of matter that we have introduced earlier. In particular, we show that this formulation subsumes the kinetic Jeans instability as a collective GW mode with a peculiar polarization, which is derived from the dispersion matrix rather than assumed a priori. This forms a foundation for systematically extending GW theory to GW interactions with plasmas, where symmetry considerations alone are insufficient to predict the wave polarization.

28/00/2024 Réalisation aux États-Unis d’un nouveau matériau supraconducteur susceptible de bouleverser l’informatique quantique.

Vu l’importance qu’auront les ordinateurs quantiques dans tous les domaines des science et technologies, tant civiles que militaires,  on peut s’étonner de voir le peu de moyens que mettent les grandes puissances mondiales pour maitriser ce domaine.

En tout cas, une équipe de chercheurs de l’Université de Californie Riverside a fait un grand pas dans cette direction.. Elle a développé un nouveau matériau supraconducteur qui pourrait être utilisé à grande échelle dans les composants des calculateurs quantiques, quelle que soit leur taille .

Leur méthode repose l’utilisation de tellure trigonal, un matériau connu pour ses propriétés chirales (non superposable à son image dans un miroir plan) et non magnétiques, combiné à un supraconducteur à l’état de surface généré sur une fine couche d’or. Il en résulte une interface à deux dimensions et aux caractéristiques qui le distinguent des supraconducteurs conventionnels.

Ce matériau, qui pourrait fonctionner en tant que supraconducteur topologique (aucune résistance électrique et des propriétés uniques en fonction de sa forme), est ainsi six fois plus performant. De quoi générer des qubits en quantité !

Peng Wei, professeur agrégé de physique et d’astronomie et leader de l’équipe de recherche, déclare : “Notre matériau pourrait être un candidat prometteur pour développer des composants informatiques quantiques plus évolutifs et plus fiables.

 Les chercheurs s’en sont servis pour créer des résonateurs micro-ondes à faibles pertes. Ce sont ces pertes qui, à l’heure actuelle, constituent la première des difficiles à résoudre pour l’essor de l’informatique quantique.

Peng Wei précise être parvenu à ce résultat “en utilisant des matériaux beaucoup plus fins que ceux généralement utilisés dans l’industrie de l’informatique quantique. Les résonateurs micro-ondes à faibles pertes sont des composants essentiels de l’informatique quantique et pourraient conduire à des qubits supraconducteurs à faibles pertes”.

Référence

  • Signatures of a spin-active interface and a locally enhanced Zeeman field in a superconductor-chiral material heterostructure

Cliff Chen https://orcid.org/0009-0009-1424-2039Jason Tran https://orcid.org/0009-0007-4675-6320Anthony McFaddenRaymond Simmonds https://orcid.org/0000-0003-2217-2965Keisuke SaitoEn-De Chu https://orcid.org/0000-0002-2713-5234Daniel Morales https://orcid.org/0009-0004-0109-0025Varrick Suezaki https://orcid.org/0009-0005-9482-424XYasen Hou[…], and Peng Wei https://orcid.org/0000-0003-2289-6007 
+3 authors

Science Advances
23 Aug 2024
Vol 10, Issue 34

DOI: 10.1126/sciadv.ado4875

Abstract

A localized Zeeman field, intensified at heterostructure interfaces, could play a crucial role in a broad area including spintronics and unconventional superconductors. Conventionally, the generation of a local Zeeman field is achieved through magnetic exchange coupling with a magnetic material. However, magnetic elements often introduce defects, which could weaken or destroy superconductivity. Alternatively, the coupling between a superconductor with strong spin-orbit coupling and a nonmagnetic chiral material could serve as a promising approach to generate a spin-active interface. Here, we leverage an interface superconductor, namely, induced superconductivity in noble metal surface states, to probe the spin-active interface. Our results unveil an enhanced interface Zeeman field, which selectively closes the surface superconducting gap while preserving the bulk superconducting pairing. The chiral material, i.e., trigonal tellurium, also induces Andreev bound states (ABS) exhibiting spin polarization. The field dependence of ABS manifests a substantially enhanced interface Landé g-factor (geff ~ 12), thereby corroborating the enhanced interface Zeeman energy.

27/08/2024 Découverte de l’ADN d’un mammouth laineux gelé dans le permafrost

Pour la première fois, des scientifiques ont montré que l’architecture tridimensionnelle des chromosomes pouvait être préservée, il est vrai dans des conditions très particulières.

Cette découverte ouvre une fenêtre vers le passé, sur la biologie d’espèces éteintes.

Il y a cinquante-deux mille ans, une femelle mammouth, de l’espèce dite mammouth laineux, mourrait dans l’actuelle Sibérie. Son corps fut presque instantanément gelé, sous les températures de la dernière période glaciaire.

Cinquante-deux mille ans après, le 11 juillet 2020, sur l’écran de la revue scientifique Cell apparaît l’image numétique attribuée à des « chromosomes fosssiles ».

Pour réaliser cet exploit, il a fallu dix ans d’une aventure scientifique qui a fait se rencontrer deux familles de généticiens : des paléogénéticiens, qui analysent l’ADN ancien, et des spécialistes de la génomique structurelle.

Ces derniers étudient l’architecture du génome. Dans le noyau de nos cellules, les chromosomes, constitués d’ADN et de protéines, ne sont pas repliés de manière aléatoire. Des régions physiquement proches interagissent entre elles, alors même qu’elles peuvent être très éloignées sur la séquence génétique.

Connaître la structure tridimensionnelle du génome est suffisant pour avoir une image de l’activité des gènes », selon Marc Marti-Renom, chercheur spécialisé dans la génomique structurelle au Centre national d’analyse génomique, à Barcelone, et coauteur de l’étude.

Jusqu’ici, les paléogénéticiens étaient bloqués dans une dimension linéaire. Car l’ADN ancien se présente habituellement comme de toutes petites parcelles. Et son analyse consiste à observer les variations sur la séquence génétique, les mutations. « Ce que vous disent les mutations, c’est de quoi est capable votre génome, mais çela ne dit pas ce qu’il fait exactement», explique Régis Debruyne, ingénieur de recherche en paléogénétique au Muséum national d’histoire naturelle, à Paris.

Mais les auteurs de cette étude avaient une intuition : l’architecture tridimensionnelle des chromosomes pourrait être, dans certains cas, préservée. Et c’est cette femelle mammouth, retrouvé dans le permafrost, ce sol perpétuellement gelé, par une expédition scientifique en 2018, qui a permis de la confirmer.

Les chercheurs ont utilisé sur un échantillon de sa peau une technique d’analyse à haut débit de la conformation des chromosomes appelée Hi-C, qui permet d’isoler les zones de contact entre des séquences ADN qui sont géographiquement proches dans le noyau des cellules. Cette analyse leur a montré que la conformation des chromosomes était conservée, cinquante-deux mille ans après la mort de l’animal.l

Ils ont ensuite pu reconstituer le génome de la mammouth. En l’assemblant pièce par pièce, chacune étant composée de minuscules bouts de chromosomes collés, ils ont résolu un immense puzzle en 3D.

Cette méthode est une petite révolution dans la paléogénomique. Habituellement, chaque petit fragment d’ADN ancien est « aligné » sur un génome connu, celui de l’éléphant par exemple. Comme s’il fallait trouver où va cette petite pièce d’ADN de mammouth, dans un puzzle du génome d’éléphant, à plat. Résoudre un puzzle entier de mammouth en 3D est une première.

« Ce sont des choses qu’on rêvait de pouvoir faire depuis une quinzaine d’années, réagit Régis Debruyne, qui n’a pas participé à l’étude. Ouvrir des dimensions de la génomique qui, jusque-là, nous paraissaient inaccessibles. »

Les chercheurs ont pu enfin compter les chromosomes du mammouth : vingt-huit, comme l’éléphant. Ils avaient utilisé la même méthode pour reconstituer en 3D les génomes des éléphants d’Asie et d’Afrique. « Pour la première fois, on peut voir des différences dans la structure du génome entre une espèce éteinte et celle que l’on utilise comme référence. Cela ouvre des possibilités inédites ! », selon Michael Hofreiter, professeur de génomique évolutive à l’université de Potsdam, en Allemagne.

En comparant les génomes de ce mammouth laineux et de l’éléphant d’Asie, son plus proche cousin, les auteurs ont remarqué que deux régions diffèrent, non pas dans leur séquence, mais dans leur expression. Dans le livre du génome, deux chapitres sont lus chez l’un, et pas chez l’autre. Le premier contient le code pour faire pousser des poils. Le deuxième est une région impliquée dans l’adaptation au froid.

 « Cette technologie ouvre une fenêtre vers le passé. En nous permettant de mieux comprendre la régulation des gènes, lesquels étaient activés au moment où l’animal est mort », explique Marcela Sandoval-Velasco, ancienne post-doctorante au Centre d’hologénomique évolutive, à Copenhague. Elle ouvre un nouveau champ d’exploration de la biologie des espèces éteintes, comme plus généralement de l’évolution.

En fait on peut prévoir que cette publication pourrait ouvrir « un nouvel eldorado ». Une ruée vers des échantillons du permafrost révélerait de nouveaux chromosomes fossiles.

Ces résultats marquent aussi une avancée dans la connaissance du génome du mammouth. Une espèce emblématique, qui fait l’objet de projets controversés de « dé-extinction » ou de « réapparition » menés par des entreprises comme l’américaine Colossal Biosciences https://colossal.com/.

Pour comprendre comment la structure tridimensionnelle des chromosomes a pu être préservée dans la peau de ce mammouth, l’équipe s’est associée à des physiciens. Cette conservation exceptionnelle est liée à un phénomène de vitrification, une déshydratation par le froid, similaire à celle utilisée dans l’industrie agroalimentaire pour la conservation des aliments. Ils ont appelé cet état le « chromoglass », ou « verre de chromosomes ». Il fige les fragments de chromosomes, à l’échelle nanométrique, tels des milliers de voitures dans un embouteillage géant.

Ce « chromoglasss » peut-il être retrouvé dans d’autres restes d’espèces disparues ? Les auteurs l’espèrent, car ils ont pu reproduire leurs analyses sur un autre petit mammouth, datant de trente-neuf mille ans. Quant aux espèces fossiles, connues ou inconnus, elles pourraient se compter par milliers.

En fait on peut prévoir que cette publication pourrait ouvrir « un nouvel eldorado ». Une ruée vers des échantillons du permafrost révélerait de nouveaux chromosomes fossiles.

Ces résultats marquent aussi une avancée dans la connaissance du génome du mammouth. Une espèce emblématique, qui fait l’objet de projets controversés de « dé-extinction » ou de « réapparition » menés par des entreprises comme l’américaine Colossal Biosciences https://colossal.com/.

Il est certain que Colossal gardera un œil attentif, à l’avenir, à cette nouvelle dimension de la paléogénomique. Même si « déséteindre » une espèce reste, pour le moment, de la science-fiction.

Article adapté de

https://www.lemonde.fr/sciences/article/2024/07/11/le-genome-d-un-mammouth-laineux-reconstitue-en-3d-a-partir-de-chromosomes-fossiles_6248827_1650684.html

26/08/2924 Les enjeux du passage à l’hydrogène

Ces enjeux sont aujourd’hui nombreux. En résumant, on peut en citer trois  

L’hydrogène pour le stockage d’électricité et son injection dans les réseaux

Le stockage d’énergie sous forme d’hydrogène permet de pallier l’intermittence des énergies renouvelables (éolien et solaire) en optimisant la capacité de production électrique

Dans le cadre du développement d’un mix électrique renouvelable, l’électrolyse permet, quand le réseau est excédentaire (c’est-à-dire quand la production d’électricité est supérieure à sa consommation), de stocker de l’hydrogène sur un temps court ou long selon les besoins.

Dans le cas d’un réseau déficitaire au contraire, l’hydrogène disponible peut être réutilisé dans une pile à combustible pour fabriquer de l’électricité.   

L’hydrogène peut être également injecté directement dans les réseaux de gaz

  • par injection directe dans les réseaux gaziers pour combustion ;
  • par production de méthane de synthèse (selon le principe de méthanation) : conversion du monoxyde (CO) ou du dioxyde de carbone (CO2) en présence d’hydrogène, qui peut ensuite être transformé en chaleur, électricité ou carburant. 
L’hydrogène pour décarboner le secteur industriel 

L’hydrogène peut être utilisé dans le secteur industriel

  • d’une part pour alimenter en énergie décarbonée les unités industrielles concernées ; 
  • d’autre part pour contribuer à la décarbonation des procédés industriels concernés en substitution des énergies fossiles utilisées actuellement : c’est le cas par exemple de la fabrication d’acier qui résulte de la réduction des minerais de fer. Cette réduction opérée aujourd’hui via le charbon pourrait demain l’être en utilisant de l’hydrogène décarboné.
     

Le déploiement de l’hydrogène renouvelable est annoncé. Des projets de grande ampleur se montent comme NortH2, plus grand projet de production d’hydrogène vert d’Europe. Objectif : produire de l’hydrogène vert en utilisant de l’électricité renouvelable provenant de l’éolien offshore au large des Pays-Bas.

Lever les obstacles

Le déploiement de l’hydrogène décarboné est à envisager d’ici la fin de la décennie, son plein essor étant plutôt pour la suivante. Il nécessite de lever un certain nombre d’obstacles.

Faire baisser les coûts

L’hydrogène vert est encore cher et ne pourra se déployer qu’à la condition de réduire les coûts sur l’ensemble de la chaîne de valeur, à commencer par le coût de production de l’électricité renouvelable (solaire, éolien) mais également celui des électrolyseurs ou des piles à combustible.

Combien coûte l’hydrogène décarboné ?

Produire de l’hydrogène à partir de l’électrolyse coûte aujourd’hui 2 à 3 fois plus cher que le vaporeformage et 2 fois plus cher que le reformage avec captage du CO2. Cette voie est réservée aujourd’hui à des usages spécifiques comme l’électronique, qui requièrent un niveau élevé de pureté.

La complexité de la chaîne de valeur et les différentes transformations impliquent en outre des cascades de rendement, sources de pertes d’énergie, qui ont pour effet de renchérir les coûts de production.

En parallèle, un prix du CO2 relativement élevé permettrait de réduire l’écart de coût avec le reformage du gaz naturel. Cependant, la hausse de la fiscalité carbone doit être progressive et s’accompagner de politiques publiques de soutien pour les populations les plus démunies.

Construire les infrastructures

Le déploiement de l’hydrogène électrolytique nécessite la mise en place d’une infrastructure complexe comprenant, outre des capacités de production alimentées par des énergies renouvelables (fermes éoliennes ou solaires, connectées ou non au réseau électrique), un réseau de transport et de distribution connectant ces capacités de production aux sites d’utilisation, et un ensemble de capacités de stockage variées mises également en réseau. Le tout devra être géré par un système intelligent permettant d’optimiser l’adéquation de l’offre et de la demande à phases de temps quotidiennes à temporaires.

Il est en outre nécessaire de mutualiser la construction des infrastructures de captage, de transport et de stockage de CO2. En Europe, les premiers éléments de cette infrastructure seront opérationnels dès le milieu de la décennie.

Le déploiement des infrastructures de transport et de distribution nécessite des investissements importants et une durée de mise en œuvre relativement longue.
 

Source

Cet article est adapté de

https://www.ifpenergiesnouvelles.fr/enjeux-et-prospective/decryptages/energies-renouvelables/tout-savoir-lhydrogene#:~:text=G%C3%A9n%C3%A9ralement%2C%20il%20est%20produit%20%C3%A0,combustible%20ou%20par%20combustion%20directe.

26/08/2024 Moins de pétrole. Place à l’hydrogène

Le Texas, célèbre pour ses puits de pétrole, pourrait donner l’exemple de la nouvelle révolution énergétique en préparation. Oublions l’or noir, place à l’hydrogène vert ! Un grand projet, baptisé « Hydrogen City », est en cours de développement dans le sud de l’État, plus précisément sur le dôme salin de Piedras Pintas. L’objectif ? Produire 280 000 tonnes d’hydrogène vert par an,

Ce projet, fruit d’un partenariat entre Green Hydrogen International (GHI) et Inpex Corporation, vise à répondre à la demande croissante en carburants propres. L’hydrogène vert, produit à partir d’énergies renouvelables comme le solaire et l’éolien, est considéré comme une alternative propre aux combustibles fossiles. Il peut être utilisé dans de nombreux secteurs, du transport à la production d’électricité, en passant par l’industrie.

L’une des particularités d’Hydrogen City réside dans son système de stockage. Le dôme salin de Piedras Pintas, une formation géologique souterraine, pourrait stocker jusqu’à 6 TWh d’énergie, l’équivalent de la consommation annuelle de plusieurs millions de foyers. Cette solution innovante permettrait de pallier l’intermittence des énergies renouvelables et d’assurer une production d’hydrogène stable et continue.

———————————————-

Hydrogène City ne sera que l’un des nombreux exemple de production et d’utilisation de l’hydrogène dans le monde actuel. Il faut rappeler à ce sujet un certain nombre de points encore mal perçus par les opinions publiques

Qu’est-ce que l’hydrogène et où le trouve-t-on?

Comme l’électricité, le dihydrogène H2 (hydrogène) est principalement 
un vecteur énergétique et non une énergie en tant que telle, car il est produit au moyen d’une réaction chimique à partir d’une ressource primaire.
Actuellement, pour des raisons économiques, l’hydrogène est issu 
à 95 % de la transformation d’énergies fossiles, dont pour près de la moitié à partir du gaz naturel.

Où se trouve l’hydrogène ?

Les ressources principales permettant aujourd’hui de produire le dihydrogène H2 ou hydrogène, sont l’eau et les hydrocarbures (le charbon, le pétrole ou le gaz). 

En effet, chaque molécule d’eau est le fruit de la combinaison entre un atome d’oxygène et deux atomes d’hydrogène, suivant la formule H2O.

Les hydrocarbures sont issus de la combinaison d’atomes de carbone et d’hydrogène. C’est par exemple le cas du méthane, constituant principal du gaz naturel dont la formule est CH4, l’une des combinaisons les plus simples pour les hydrocarbures.

L’hydrogène existe aussi à l’état naturel. Les premières sources naturelles d’hydrogène ont été découvertes au fond des mers dans les années 70 et plus récemment à terre. Si les connaissances concernant l’hydrogène ont fortement progressé ces dernières années, il reste encore à évaluer le potentiel que représente cette ressource pour la transition énergétique : quels volumes existants ?  Quelles réserves éventuelles ? Quelles méthodes de production ? De même, la compréhension des  mécanismes de formation, de migration et d’accumulation de l’hydrogène dans le sous-sol , qui permettraient de mieux organiser l’exploration, suscitent encore un certain nombre de questionnements. Une production à l’échelle industrielle à l’horizon 2035/2040 nécessite de financer plus lourdement la R&D sur ce sujet. 

Techniques de production

– le reformage du gaz naturel à la vapeur d’eau est la technique la plus répandue. Il s’agit de faire réagir du méthane avec de l’eau pour obtenir un mélange contenant de l’hydrogène et du CO2. Le CO2 émis par ce procédé pourrait éventuellement être capté et stocké pour produire un hydrogène décarboné. En lieu et place du gaz naturel, l’utilisation du biométhane (méthane issu de la fermentation de la biomasse) constitue aussi une solution pour produire un hydrogène décarboné ;

– l’hydrogène peut aussi être produit à partir d’eau et d’électricité, c’est l’électrolyse de l’eau. L’électrolyseur sépare une molécule d’eau en hydrogène  et en oxygène. Cette voie est encore peu répandue car nettement plus coûteuse (2 à 3 fois plus chère que le reformage du gaz naturel) et réservée aujourd’hui à des usages spécifiques, comme l’électronique, qui requièrent un niveau élevé de pureté ;

-la gazéification permet de produire, par combustion, un mélange de CO et d’H2 à partir de charbon (solution qui émet beaucoup de CO2) ou de biomasse.

Aujourd’hui, 95 % de l’hydrogène est produit à partir d’hydrocarbures (pétrole, gaz naturel et charbon), solution la moins coûteuse. Cependant, ce processus est, sauf pour la pyrolyse, émetteur de CO2, gaz à effet de serre. Pour produire de l’hydrogène faiblement carboné, trois options s’offrent aux industriels : capter le CO2 émis lors de la production par transformation des énergies fossiles, puis le transporter pour le stocker géologiquement, pyrolyser du méthane et séparer le carbone sous forme solide, enfin, le produire via l’électrolyse de l’eau, l’électrolyse étant opérée à partir d’une électricité peu carbonée fournie par de l’énergie nucléaire, éolienne ou solaire. L’enjeu reste toutefois pour cette dernière option, le coût de ce mode de production, plus onéreux à ce jour que celui du reformage du gaz naturel , même en considérant le surcoût lié au captage du CO2.

Hydrogène vert, gris, bleu et jaune : de quoi parle-t-on ?

– L’hydrogène vert est fabriqué par électrolyse de l’eau à partir d’électricité provenant uniquement d’énergie renouvelable ;

– L’hydrogène gris est fabriqué par procédés thermochimiques avec comme matières premières des sources fossiles (charbon ou gaz naturel) ;

 L’hydrogène bleu est fabriqué de la même manière que l’hydrogène gris, à la différence que le CO2 émis lors de la fabrication sera capté pour être réutilisé ou stocké ;

– L’hydrogène jaune, plus spécifique à la France, est fabriqué par électrolyse comme l’hydrogène vert mais l’électricité provient essentiellement de l’énergie nucléaire.  Il s’agira d’une solution idéale pour la France surtout quand elle pourra accéder au nucléaire de fusion (ITER) en complément du nucléaire de fission

L’Ademe https://www.ademe.fr/en/frontpage/ a récemment suggéré de changer la terminologie. L’hydrogène qui était jusqu’ici appelé « vert » est désormais appelé « renouvelable », l’hydrogène « gris » devient « fossile », et enfin, les hydrogènes « bleu » et « jaune » sont regroupés sous l’appellation « bas-carbone »

Une fois fabriqué, cet hydrogène doit être stocké, puis transporté jusqu’à son lieu de distribution et d’utilisation.

Comment est stocké l’hydrogène ?

Le dihydrogène possède une très grande densité massique d’énergie (1 kg d’hydrogène contient autant d’énergie qu’environ 3 kg de pétrole) mais une très faible densité volumique. Il faut le transformer pour pouvoir le stocker dans un volume utilisable. 
–    en le comprimant à 700 bar : 7 litres d’hydrogène peuvent contenir ainsi autant d’énergie qu’1 litre d’essence ;
–    en le liquéfiant pour le comprimer davantage à une température de – 253 °C : 4 litres d’hydrogène liquide équivalent alors à 1 litre d’essence.  

Densifier l’hydrogène permet d’opérer à des pressions plus faibles mais réclame plus d’énergie, ce qui le rend plus coûteux. 

Les modalités de stockage sont multiples (batteries, stockage massif en cavités salines) selon l’usage que l’on veut en faire.  

Comment se transporte l’hydrogène ?

L’hydrogène est généralement transporté sous forme comprimée via un réseau de pipelines relativement étendu, avec un total de plus de 4 500 km dans le monde, dont 1 600 km en Europe et 2 500 km aux États-Unis.

Des pays comme le Japon envisagent également d’importer de l’hydrogène, qui serait alors transporté par bateau depuis l’Australie par exemple.

Comment s’utilise l’hydrogène aujourd’hui ?

Actuellement, l’hydrogène a deux utilisations principales : d’une part, il sert de matière de base pour la production d’ammoniac (engrais) et de méthanol ; d’autre part, il est utilisé comme réactif dans les procédés de raffinage des bruts en produits pétroliers, carburants et biocarburants. 

Les usages qu’il est possible d’en faire sont néanmoins nombreux, et l’hydrogène est prometteur pour décarboner un certain nombre de secteurs et accompagner la transition énergétique. 

—————————————————– 

L’HYDROGÈNE DANS LA TRANSITION ÉNERGÉTIQUE

Récupérer de l’énergie à partir du dihydrogène renouvelable ou bas-carbone préalablement stocké se fait de deux façons :

  • soit sous forme de chaleur via sa combustion directe avec le dioxygène ;
  • soit sous forme d’électricité via une pile à combustible (PaC). 

Dans les deux cas la réaction globale ne produit que de l’eau et l’énergie produite peut être diversement valorisée. L’hydrogène se voit assigner trois objectifs essentiels pour réussir la transition énergétique. 

L’hydrogène pour décarboner les transports 

En France le transport émet 27 % des émissions de GES globales, ce qui en fait le premier secteur émetteur. Les enjeux sur la mobilité sont donc considérables, car la solution hydrogène appliquée à la mobilité « propre » en utilisant la combustion directe ou la pile à combustible, permet de réduire considérablement les émissions. 

Un véhicule diesel produit entre 40 et 45 tonnes de CO2 sur l’ensemble de sa durée de vie, un véhicule hydrogène produit par reformage un peu plus de 35 tonnes, et un véhicule hydrogène produit par électrolyse renouvelable moins de 15 tonnes.

Les voitures alimentées en hydrogène ont au mieux un impact carbone 74 % moindre que les véhicules thermiques traditionnels (Source : Carnot ARTS).

La voiture à hydrogène

Les caractéristiques physico-chimiques de l’hydrogène en font un bon candidat pour une utilisation comme carburant dans un moteur à allumage commandé de type « essence ». Le principal avantage réside dans le bilan environnemental

Combinée à l’oxygène, la combustion de l’hydrogène produit essentiellement de l’eau et de la chaleur et ne rejette que des oxydes d’azote (NOx). Cependant, cette solution nécessite des adaptations spécifiques pour obtenir un très haut rendement et de très faibles émissions de NOx. Il faut notamment exploiter différentes propriétés de l’hydrogène comme sa capacité à brûler rapidement en mélange très pauvre.

L’utilisation de l’hydrogène dans un moteur à combustion interne peut bénéficier des dernières avancées du moteur thermique et du couplage avec une chaîne de traction hybride. Ainsi, en se basant sur des technologies plus robustes et matures que celles utilisées actuellement pour les piles à combustible, il serait possible d’atteindre un rendement supérieur à 50 %.

Ce pourrait être une solution de transition vers la pile à combustible puisqu’elle permet de commencer la validation de toute la filière de production et de distribution de l’hydrogène en utilisant les outils industriels de production existants.

La pile à combustible dans les voitures électriques

Pour le long terme, les constructeurs automobiles s’intéressent aussi aux piles à combustible (ou Fuel Cell), comme générateurs d’électricité pour les véhicules électriques. Ceci afin de compléter les solutions de véhicules électriques à batteries, souffrant aujourd’hui de la limitation en autonomie et du temps de recharge de ces batteries.

L’hydrogène sert alors à alimenter une pile à combustible — laquelle produit de l’électricité — pour permettre le fonctionnement du moteur électrique qui fait avancer le véhicule. L’hydrogène est un des meilleurs vecteurs d’énergie pour les piles à combustible aujourd’hui en termes de performances énergétiques et d’émissions. Leur rendement est globalement supérieur à 50 % sur une large plage de fonctionnement, ce qui représente un avantage intéressant par rapport à un moteur thermique essence actuel. 

Alimentée par un mélange d’air et d’hydrogène, la pile convertit l’énergie chimique de l’hydrogène en énergie électrique suivant le principe inverse de l’électrolyse. En faisant réagir de l’hydrogène avec de l’oxygène de l’air sur les électrodes (de fines membranes recouvertes d’un catalyseur, le platine), les piles à combustible permettent de produire de l’électricité sans autre émission que de la vapeur d’eau. Le principe date de 1839 ! Il est utilisé depuis longtemps pour produire de l’électricité à bord des fusées.

Le train et l’avion à hydrogène

Le train à hydrogène . Le plan français en faveur de l’hydrogène compte parmi ses objectifs la mise en service d’un premier train à hydrogène en France en 2022. À la suite de l’Allemagne, la France fait ses premiers pas dans la mobilité ferroviaire à hydrogène, la SNCF et les Régions ayant lancé le projet TER H2 qui vise à mettre en place la toute première flotte de trains hydrogène régionaux dans plusieurs régions françaises pilotes.

https://www.groupe-sncf.com/en/innovation/decarbonization-trains/hydrogen-ter

L’avion à hydrogène ou « avion propre » et de sécuritéDans ce type d’avion, l’hydrogène est brulé dans les turbines à gaz du moteur au niveau de chambres de combustion. Puis, grâce à une pile à combustible, l’énergie dégagée se transforme en énergie électrique qui alimente ensuite le moteur.

Au sein de l’avion, l’hydrogène peut être stockée sous forme gazeuse ou liquide à -235 degrés. Comme il dispose d’une faible densité par rapport au kérosène actuel, les structures des avions pourront être modifiées dans le futur sans difficulté. Enfin, comme l’hydrogène ne pollue pas, il s’agit d’une opportunité à saisir pour atteindre le zéro émissions d’ici 2050.

Source

Cet article est adapté de

https://www.ifpenergiesnouvelles.fr/enjeux-et-prospective/decryptages/energies-renouvelables/tout-savoir-lhydrogene#:~:text=G%C3%A9n%C3%A9ralement%2C%20il%20est%20produit%20%C3%A0,combustible%20ou%20par%20combustion%20directe.

25/08/2024 De gigantesques soleils noirs se formeraient au cœur des galaxies




On donne depuis presque 50 ans le nom de soleil noir à ce qui se produit lorsqu’une étoile passe trop près d’un trou noir supermassif. Le phénomène ne peut pas être observé directement mais a donné lieu à des simulations informatiques dont certaines des prédictions ont vérifiées, mais dont d’autres ne l’ont pas encore été. Une nouvelle simulation pourrait apporter la clé de l’énigme en montrant qu’il se formerait une enveloppe de matière chaude quasi sphérique autour de ces astres compacts se trouvant au cœur des galaxies, produisant ce que l’on peut appeler des soleils noirs.

Daniel Price, professeur d’astrophysique à l’université Monash en
Australie a écrit un article dans lequel il explique les résultats
qu’il a obtenus avec des collègues. L’article est en accès libre
sur arXiv.  Nous en donnons ici un résumé.

______________________________________

L’article précise la description de ce que l’on nomme  Tidal disruption event (ou TDE), ce qui peut se traduire par « évènement de rupture par effet de
marée ». Un TDE se produit avec une étoile dont la trajectoire
est trop rapprochée d’un trou noir supermassif. Les forces de marée du trou noir compriment l’étoile jusqu’à produire ce que l’on a nommé une crêpe stellaire en raison de la forme de la déformation causée par ces forces. L’étoile peut finir par exploser et ses débris sont avalés par le trou noir.

Les TDE ont été théorisés pour la première fois par Jack G. Hills, Juhan Frank et Martin Rees au cours des années 1970 sur une idée de Lynden-Bell (1969) qui voulait en faire la source d’énergie des quasars et des noyaux actifs des galaxies de Seyfert.

Mais il a fallu attendre le début des années 1980 pour que des investigations sérieuses conduisant à des modèles et des simulations numériques précises soient entreprises. À cet égard, on peut considérer que Jean-Pierre Luminet et Brandon Carter, tous deux à l’Observatoire de Paris à cette époque, en sont les pionniers, comme le montre une publication dans le journal Nature en 1982, suivie d’une autre dans Astronomy & Astrophysics en 1983. Les deux astrophysiciens relativistes ont montré dans cet article qu’un TDE avec un trou noir supermassif conduisait les forces de marée à comprimer l’étoile jusqu’à produire « une crêpe stellaire ». Un TDE peut aussi donner lieu à un processus de « spaghettification ».

Les crèpes stellaires

Mais, regardons de plus près ce qu’est le phénomène des crêpes stellaires. Pour mieux le comprendre, on peut commencer par remonter aux travaux d’Édouard Roche, le mathématicien et astronome français à l’origine de la limite de Roche. Elle exprime le fait qu’il existe une distance limite d’approche d’un petit corps céleste au voisinage d’un corps plus grand.

L’écrasement d’une étoile par les forces de marée d’un trou noir géant se traduit par la déformation progressive de l’étoile dans son plan orbital puis dans la direction perpendiculaire (vue par la tranche). Initialement, les forces de marée sont faibles et l’étoile reste pratiquement sphérique. Puis l’étoile pénètre dans le rayon de marée et est dès lors condamnée. Sa configuration se rapproche d’abord de celle d’un cigare, puis d’une crêpe. Plus loin, sur son orbite, l’étoile finit par se dissocier en fragments gazeux.

En deçà, les forces de marée du corps principal sont si importantes qu’elles disloquent le petit corps, incapable de maintenir sa cohésion sous sa propre gravité. Originellement limitée aux planètes, la notion de limite de Roche a été étendue à la stabilité des amas globulaires et des petites galaxies approchant des grandes – on parle alors de rayon de marée. Cette même notion de rayon de marée est utilisée aussi lorsqu’une étoile approche d’un trou noir.

On peut estimer qu’il se produit environ un TDE par galaxie tous les 100 ans, ce qui veut dire qu’avec ses capacités à surveiller un grand nombre de galaxies à la recherche d’événements transitoires, comme des supernovae, le Large Synoptic Survey Telescope (LSST) – qui a récemment été rebaptisé en Observatoire Vera-C.-Rubin (Vera C. Rubin Observatory) – pourrait en voir quelques milliers par an dans le domaine visible.

Toutefois, selon Daniel Price, un article de Martin Rees en 1988 allait plus tard conduire à une énigme : « la théorie de Rees prévoyait que la moitié des débris de l’étoile resteraient liés au trou noir, entrant en collision avec lui-même pour former un tourbillon de matière chaude et lumineuse connu sous le nom de disque d’accrétion. Le disque serait si chaud qu’il devrait émettre une quantité abondante de rayons X.

Mais, à la surprise générale, la plupart des plus de 100 événements de perturbation par marée potentiels découverts à ce jour se sont révélés briller principalement dans les longueurs d’onde visibles, et non dans les rayons X. Les températures observées dans les débris ne sont que de 10 000 degrés Celsius. C’est comme la surface d’une étoile modérément chaude, non pas les millions de degrés attendus du gaz chaud autour d’un trou noir supermassif.

La taille déduite de la matière brillante autour du trou noir est encore plus étrange : plusieurs fois plus grande que notre Système solaire   et s’étendant rapidement loin du trou noir à quelques pour cent de la vitesse de la lumière

Sachant qu’un trou noir d’une masse d’un million de masses solaires est à peine plus grand que notr Soleil, la taille énorme de la boule de matière brillante déduite des observations a été une surprise totale.

Les astrophysiciens ont émis l’hypothèse que le trou noir devait être en quelque sorte étouffé par la matière lors de la perturbation pour expliquer l’absence d’émission de rayons X, mais jusqu’à présent personne n’a été en mesure de montrer comment cela se produit réellement. C’est là que nos simulations entrent en jeu ».

Price et ses collègues ont donc décidé d’utiliser l’un des superordinateurs les plus puissants d’Australie pour y voir plus clair en ce qui concerne le processus d’accrétion de la matière de l’étoile subissant un TDE. Il leur a fallu  plus d’un an de calculs pour obtenir des réponses. Les images extraites de la simulation montrent ce qui se passe sur une année lorsqu’une étoile de la masse du Soleil subit un TDE avec un trou noir supermassif de Kerr en rotation, contenant de l’ordre du million de masses solaires et décrit dans le cadre de la théorie de la relativité générale

Il apparaît maintenant que 1 % seulement de la matière qui tombe vers le trou noir génère tellement de chaleur que cela alimente un flux de rayonnement extrêmement puissant et presque sphérique. En conséquence, ce n’est pas vraiment un disque d’accrétion qui se forme mais l’équivalent de l’enveloppe d’une étoile autour d’un corps qui serait un trou noir

Ce qui fait dire à Daniel Price que « la nouvelle simulation révèle pourquoi les TDE ressemblent en réalité à une étoile de la taille du Système solaire qui se dilate à quelques pourcents de la vitesse de la lumière, alimentée par un trou noir à l’intérieur. En fait, on pourrait même l’appeler un soleil-trou noir ».

Dans le film obtenu, c’est encore une étoile d’une masse solaire qui s’approche d’un trou noir sur une orbite marginalement liée (parabolique). La moitié de l’étoile se retrouve liée au trou noir. L’étoile s’étire encore en une longue ligne fine qui alimente le trou noir. Le résultat de cette alimentation est une boule de matière optiquement épaisse qui grandit autour du trou noir.

Ici, la visualisation montre une vue  de la bulle en expansion, avec la densité et la température à la dernière surface de diffusion. C’est plus ou moins ce qui est observé par les télescopes dans le visible : une boule de matière optiquement épaisse en expansion de 10 à 100 UA (unité astronomique) avec une température photosphérique d’environ 10 000 K et qui s’étend à des vitesses d’environ 10 000 km/s. La simulation permet donc d’expliquer certains des mystères clés de la raison pour laquelle les TDE sont observés principalement aux longueurs d’onde dans le visible.

D

Reference

[Subr2F2RENCEmitted on 14 Apr 2024 (v1), last revised 10 Jul 2024 (this version, v2)]

https://arxiv.org/abs/2404.09381

Eddington envelopes: The fate of stars on parabolic orbits tidally disrupted by supermassive black holes

 Wed, 10 Jul 2024 00:05:31 UTC (5,232 KB)

Daniel J. Price (Monash), David Liptai (Monash), Ilya Mandel (Monash), Joanna Shepherd (Monash), Giuseppe Lodato (Univ. Milano), Yuri Levin (Columbia)

Stars falling too close to massive black holes in the centres of galaxies can be torn apart by the strong tidal forces. Simulating the subsequent feeding of the black hole with disrupted material has proved challenging because of the range of timescales involved. Here we report a set of simulations that capture the relativistic disruption of the star, followed by one year of evolution of the returning debris stream. These reveal the formation of an expanding asymmetric bubble of material extending to hundreds of astronomical units — an outflowing Eddington envelope with an optically thick inner region. Such envelopes have been hypothesised as the reprocessing layer needed to explain optical/UV emission in tidal disruption events, but never produced self-consistently in a simulation. Our model broadly matches the observed light curves with low temperatures, faint luminosities, and line widths of 10,000–20,000 km




Cite as:arXiv:2404.09381 [astro-ph.HE]
 (or arXiv:2404.09381v2 [astro-ph.HE] for this version)
  https://doi.org/10.48550/arXiv.2404.09381


[v2] Wed, 10 Jul 2024 00:05:31 UTC (5,232 KB)


25/08/2024 Le Bayesian coule au mouillage. Que n’était-il enregistré aux Glénans ?

Les milliardaires feraient mieux de se tenir éloignés des choses de la mer. Ils n’ont aucun besoin de se faire construire de yachts. S’ils le font, pour impressionner les médias, ils n’ont aucun besoin de s’en servir. S’ils néanmoins ils veulent naviguer à l’occasion, ils doivent passer par une école de voile pour apprendre le minimum nécessaire à la conduite d’un voilier, tant à la mer qu’au mouillage. Compter sur un équipage salarié pour prendre des décisions incombant à un skipper ne provoquera que des catastrophes.

Dernier point : un bateau de plaisance, quelle que soit sa taille, ne doit être équipé que de petits hublots, pouvant être fermés hermétiquement, à la moindre menace de mauvais temps, tant à la mer qu’au mouillage.

NB : l’auteur de ces lignes a été plusieurs années propriétaire d’un voilier, cotre des Glénans type 1 sans moteur, mouillé au Havre (France). Merci à Hélène Vianney

Référence :

. article de Euronews https://fr.euronews.com/my-europe/2024/08/21/naufrage-du-yatch-bayesian-en-sicile-le-point-sur-ce-drame-deux-corps-retrouves

. Les Glénans. Site https://fr.wikipedia.org/wiki/Les_Gl%C3%A9nans

. Le cotre des Glénans type 1 https://fr.wikipedia.org/wiki/Cotre_des_Gl%C3%A9nans_type_I

25/08/2024 Après le réchauffement, le refroidissement

Il y a 56 millions d’années, les volcans ont relâché d’importantes quantités de dioxyde de carbone dans l’atmosphère. La Planète s’est alors réchauffée rapidement lors de cette période appelée le Maximum Thermique du passage Paléocène-Eocène (PETM). Les scientifiques comparent souvent cette période difficile pour la vie sur Terre, avec des extinctions de masse, du type de celle qui nous attend dans le futur, si les humains continuent à émettre autant de gaz à effet de serre.

L’université de l’Arizona a publié une étude dans la revue Proceedings of the National Academy of Sciences qui permet de visualiser avec précision sur un globe terrestre le niveau des températures et des précipitations durant cette période de Maximum Thermique. L’objectif est de montrer à quel point le climat est sensible aux émissions de dioxyde de carbone, des émissions qui sont actuellement en hausse continue depuis 250 ans.

Selon l’université, le PETM est un bon indicateur de ce qui attend l’humanité dans le futur si elle ne modifie pas drastiquement son comportement envers la Planète. Sans être non plus l’équivalent à 100 % du climat futur, car d’autres paramètres climatiques étaient différents à l’époque, le PETM rejoint tout de même beaucoup les prévisions futures alarmantes envisagées par le Giec dans son dernier rapport. Ces deux périodes, le PETM et notre climat futur, ont toutes les deux en commun un réchauffement plus rapide des pôles que le reste du monde appelé l’amplification polaire, des moussons plus pluvieuses sur les régions du monde concernées, des tempêtes hivernales plus fortes, moins de pluie sur les Tropiques.

Mais comment les paléoclimatologues ont-ils réussi à connaître le niveau des températures d’il y a plus de 50 millions d’années et les phénomènes météo de cette époque ? En analysant des fossiles tout d’abord, puis en effectuant des calculs et simulations sur les modèles de prévision climatique. Ils ont ainsi pu recréer une carte climatique de la Terre il y a 56 millions d’années, tout en prenant en compte la différence de localisation des continents à l’époque.

Les chercheurs estiment qu’à l’époque le niveau de dioxyde de carbone dans l’atmosphère était compris entre 850  ppm et 3.000 ppm. En comparaison, le niveau présent aujourd’hui est de 420 ppm, alors qu’il n’était que de 280 ppm avant la Révolution Industrielle. Pendant la période du PETM, les températures étaient 5 à 6 °C plus élevées sur le globe que celles de la période juste avant, ce qui montre à quel point l’augmentation du dioxyde de carbone a conduit à un réchauffement global rapide en l’espace de quelques milliers d’années.

Le dernier rapport du Giec prévoit un réchauffement du climat actuel de 2 à 5 °C si nos émissions de carbone doublent, une trajectoire vers laquelle nous nous dirigeons. L’étude des émissions de carbone au cours du PETM tend vers une évolution encore plus grave en cas de doublement de ce gaz à effet de serre : 5,7 à 7,4 °C de plus. L’étude montre finalement que le réchauffement climatique sera donc encore plus rapide que prévu si nos émissions de carbone continuent à augmenter au rythme actuel.

24/08/2024 Fusion nucléaire. Le vrai, le faux et l’incertain

Nous reprenons les principaux passages d’une étude du Breakthrough Institute

https://www.polytechnique-insights.com/tribunes/energie/fusion-nucleaire-le-vrai-le-faux-et-lincertain/

En bref
Cette énergie est susceptible de devenir essentielle pour le monde, mais il est difficile de savoir quand et comment cela se produira.

La croissance démographique et la demande d’énergie augmentant considérablement, les sources d’énergie propres représentent un vaste marché potentiel.

Aujourd’hui, la fusion nucléaire peut générer de l’énergie, mais elle n’est pas encore « rentable », car elle consomme plus d’énergie qu’elle n’en produit.

L’énergie de fusion nucléaire a le potentiel de fournir une énergie propre et pratiquement illimitée, mais avant que ce mode de production d’énergie puisse être déployé, de nombreuses avancées scientifiques sont encore nécessaires.

La fusion nucléaire nécessitera une surveillance appropriée et complète, et l’AIEA aura donc un rôle vital à jouer dans la supervision de ce développement.

Nous savons comment produire de l’énergie grâce à la fusion nucléaire

Vrai – La fusion nucléaire peut générer une énergie positive nette dans un cadre limité.

Le Laboratoire national Lawrence Livermore – National Ignition Facility (NIF), en Californie, l’a prouvé en 2022 avec son dispositif de fusion par allumage laser. L’installation NIF utilise 192 des lasers les plus puissants au monde pour envoyer jusqu’à 4 millions de joules d’énergie ultraviolette sur une cible de deutérium et de tritium.

Cette cible fait la taille approximative d’un grain de poivre et elle est suspendue dans un petit « four » à rayons X appelé Hohlraum. Ce dernier peut atteindre une température d’environ 3 millions de degrés Celsius lorsqu’il est touché par ces lasers surpuissants. Cette action fait l’imploser du combustible, créant ainsi les conditions nécessaires à la fusion nucléaire. Le 5 décembre 2022, le NIF a atteint le gain de cible, ce qui signifie que les 2,05 mégajoules d’énergie laser délivrés sur la cible ont généré 3,15 mégajoules d’énergie de fusion. La cible a produit plus d’énergie qu’elle n’en a absorbée. Ce point, appelé « allumage », a constitué une réelle avancée scientifique.

Cette réaction a créé de l’énergie, mais elle est loin d’être suffisante pour alimenter l’installation.

Faux. Dans l’ensemble, ce dispositif de fusion par allumage laser a subi une perte d’énergie nette substantielle. Pour donner une idée de l’échelle, les 1,1 mégajoules d’énergie nette de la cible représentent environ 0,306 kWh. À titre de comparaison, un foyer aux États-Unis consomme typiquement plus de 3 000 fois cette quantité d’énergie chaque mois. De plus, les scientifiques du NIF estiment que le fonctionnement de l’installation laser du NIF nécessite environ 100 fois plus d’énergie que la quantité d’énergie fournie par le laser à la cible elle-même.

On ne sait pas quand ni comment ce point crucial, appelé « gain d’ingénierie », sera atteint.

Vrai. À ce stade, les ingénieurs doivent s’efforcer de rendre ce dispositif encore plus efficace, afin de s’assurer qu’il produise plus d’énergie qu’il n’en consomme. L’un des moyens d’y parvenir serait de réduire la consommation d’énergie du dispositif par rapport à sa production, en fabriquant des composants moins énergivores, tels que des lasers ou des supraconducteurs.

Des changements tels que l’amélioration de l’isolation thermique ou la mise en place de commandes IA pourraient faire fonctionner les systèmes plus rapidement qu’un humain, ce qui serait très utile. D’autres gains d’énergie peuvent être réalisés : améliorer les matériaux et les composants de la machine pour permettre au système de fonctionner à des niveaux de puissance plus élevés. Pour ce faire, les ingénieurs pourraient inclure des matériaux capables de résister à des températures extrêmes et concevoir des aimants encore plus puissants afin de mieux confiner et contrôler le plasma utilisé dans les réactions de fusion. Une autre approche consiste à améliorer le processus qui capture et convertit l’énergie de la réaction de fusion en électricité.

La fusion nucléaire deviendra une source d’énergie propre et illimitée

Vrai – La fusion nucléaire est généralement considérée comme une énergie « propre ».

Elle produit beaucoup moins de « déchets » radioactifs que la fission. Toutefois, grâce aux technologies émergentes, il est possible de réutiliser les déchets de la fusion et de la fission. Néanmoins, comme les autres fissions nucléaires, la fusion nucléaire nécessitera une surveillance appropriée et complète. L’une des principales préoccupations est que la réaction pourrait être utilisée pour produire des matières fossiles utilisables dans des armes. Les machines de fusion nucléaire et les réactions connexes ne produisent pas directement de matières utiles pour les armes. La réaction crée cependant une énorme quantité de neutrons.

Par contre, ces neutrons pourraient contribuer à produire davantage de combustible pour la réaction de fusion – de nombreux modèles prévoient d’incorporer une « couverture de reproduction », c’est-à-dire une couche de matériaux qui sert d’isolant thermique, mais qui est également recouverte de matériaux capables de capturer les neutrons pour créer davantage de tritium. 

L’uranium ou le thorium pourraient également être placés dans certaines couvertures de reproduction. Le problème est que ces matériaux, une fois irradiés, pourraient générer de l’uranium 235 utilisable dans des armes nucléaires. Il existe des moyens physiques d’empêcher ce processus, notamment en exigeant l’utilisation de lithium 6 dans les modules de couverture. L’AIEA (Agence internationale de l’énergie atomique) aura un rôle primordial dans la surveillance ainsi que dans la mise en place de garanties de non-prolifération.

L’énergie de fusion peut être presque illimitée, mais cela ne se traduit pas nécessairement par une énergie inépuisable.

Faux . Certaines technologies d’énergie de fusion nucléaire en cours de développement pourraient, théoriquement, produire plus de combustibles qu’elles n’en consomment. Par conséquent, elles pourraient être pratiquement illimitées. Mais cela ne signifie pas qu’elles fourniraient l’énergie dont la société a besoin. La plupart des chercheurs s’attendent à ce que la construction et l’exploitation des premières centrales de fusion nucléaire soient très coûteuses. La question de savoir si la société serait disposée à payer pour faire fonctionner des réacteurs de fusion dispendieux dépendra de la manière dont la fusion nucléaire s’intégrera aux autres systèmes d’énergie propre. 

On ne sait toujours pas quand la fusion nucléaire commencera à alimenter le monde en énergie.

Incertain. La fusion nucléaire finira par fournir de l’énergie propre, au moins à certaines parties du monde. Cependant, il est peu probable que cette technologie soit prête à soutenir entièrement la transition vers l’abandon des combustibles à base de carbone. Ce retard pourrait la désavantager par rapport à d’autres produits adoptés très tôt et qui pourraient être déployés à plus grande échelle. Néanmoins, nous pourrions assister à une cascade d’avancées scientifiques et technologiques qui accélérerait rapidement les progrès de la fusion nucléaire. Il se peut aussi que nous devions attendre longtemps avant que la prochaine avancée n’émerge.

Les start-ups sont prêtes à se lancer sur le marché avec la fusion

Vrai – Les start-ups se disent prêtes à construire des installations pilotes commerciales. Plusieurs d’entre ont annoncé des calendriers très ambitieux. Helion, par exemple, a promis de commencer à produire de l’énergie à partir d’une centrale de fusion nucléaire d’ici 20281. Dans son rapport de 2023, la Fusion Industry Association a constaté que beaucoup pensent qu’une centrale de fusion nucléaire fournira de l’électricité au réseau avant 2035.

Les entreprises spécialisées dans la fusion nucléaire ont en effet réalisé des progrès itératifs et avancent vers le succès. Le NIF, qui a prouvé l’allumage de la fusion nucléaire, a fourni des données cruciales qui permettront d’orienter les programmes de recherche, en particulier ceux de fusion par allumage laser. Certaines entreprises ont également commencé à utiliser l’IA pour optimiser leur approche de la fusion nucléaire, et ont montré des résultats intéressants. Toutefois, progresser n’est pas la même chose que de disposer d’un produit fini.

Aucune start up n’a prouvé qu’elle avait atteint le stade de développement nécessaire pour lancer la fusion nucléaire sur le marché à court terme.

Vrai. Les start-ups doivent encore démontrer le gain énergétique net et le gain technique global de leurs systèmes. Elles doivent également apprendre à faire fonctionner leur réaction de fusion nucléaire à des échelles susceptibles de générer un profit. Et même si les entreprises de fusion nucléaire souhaitent fixer un calendrier pour la réalisation de ces étapes technologiques, il s’agit d’avancées scientifiques et technologiques qui ne peuvent pas être programmées.

Il y a aussi une affaire commerciale délicate à résoudre. La fusion nucléaire reste un investissement à très haut risque, car la technologie n’a pas encore fait ses preuves. Ce n’est pas comme investir dans les cellules solaires il y a 15 ans, lorsqu’elles avaient déjà un rendement de 20 %. C’est plutôt comme investir dans les cellules solaires il y a 40 ans, lorsqu’elles avaient un rendement de 1 % et que leur déploiement était très limité.

Les entreprises en phase de démarrage devront construire des installations pilotes pour prouver leur concept. Il sera probablement difficile de réunir suffisamment de capitaux pour construire ces installations. Les stations de première génération seront probablement onéreuses et peu fiables, mais cela fait partie de l’innovation.

Cependant, en supposant que nous nous éloignons des combustibles fossiles, que la croissance démographique augmente considérablement et que la demande d’énergie des pays en développement continue de croître, il existe un vaste marché potentiel pour toutes les sources d’énergie propres à l’avenir.

Marianne Guenot