26/12/2023 La sonde SurfMoG H2 de la société 45-8 Energy : à la recherche de l’hydrogène blanc

Hydrogène blanc, hydrogène naturel et hydrogène géologique désignent le même produit. Il s’agit de l’hydrogène qui s’échappe de la croûte terrestre, le plus souvent mêlé à un autre gaz comme l’hélium. La société 45-8 Energy recherche des gisements pour ces 2 éléments. Concernant l’hydrogène blanc, elle a développé la sonde SurfMoG H2 

C’est cette sonde qui a permis la récente découverte du gisement d’Hydrogène blanc de Folschwiller en Lorraine.

SurfMoG H2 est le fruit de l’expertise et de l’union d’une entreprise française, 45-8 ENERGY, et d’une société suisse, SOLEXPERTS.

45-8 ENERGY est spécialisée dans l’exploration du sous-sol à des fins de production de gaz industriels écoresponsables tels que l’hélium et l’hydrogène.
SOLEXPERTS base son cœur de métier sur la mécanique des sols et développe des instruments géotechniques, hydrogéologiques et de monitoring de classe mondiale.

26/12/2023 Consultation gouvernementale sur la nouvelle stratégie française pour le déploiement de l’hydrogène décarboné (hydrogène blanc)

Pour la première fois en France, le gouvernement a autorisé un projet de recherches d’hydrogène blanc. Ce combustible naturellement présent dans le sous-sol pourrait largement participer à la réduction des émissions de gaz à effet de serre de l’industrie et des transports.

C’est dans les souterrains du bassin minier du puits Folschviller, en Moselle, qu’une gigantesque réserve d’hydrogène blanc a été découverte. La plus grande au monde . Selon les travaux menés par de nombreux géologues, non seulement l’ hydrogène blanc – ou hydrogène naturel – existerait, mais il semblerait en plus qu’il soit produit continuellement par la Terre et en grande quantité. Il ne faudrait donc plus parler de réserve, comme pour les énergies fossiles, mais de flux.

En Moselle, les experts auraient découvert une source continue d’hydrogène estimée à  46 millions de tonnes. Suffisamment donc pour couvrir les besoins de la France à horizon 2050, estimés à environ 3 millions de tonnes par an par le cabinet Asterès. De quoi faire de l’Hexagone “un des pays pionniers dans cette énergie du futur”, a assuré Emmanuel Macron après avoir annoncé des “financements massifs pour explorer le potentiel d’hydrogène naturel”.

Pour atteindre ses objectifs de transition énergétique, la France s’intéresse de très près à la production et à l’utilisation de l’hydrogène bas-carbone et renouvelable. En ce sens, l’hydrogène blanc représente une source d’espoir inestimable. Naturellement présent dans les sols et probablement renouvelable (l’hypothèse restant à confirmer), sa production ne s’accompagne d’aucune émission de dioxyde de carbone. Elle ne produit que de l’eau.

Si les hypothèses avancées jusqu’alors venaient à se confirmer, la France pourrait entrer dans une nouvelle ère énergétique dans les années à venir. Le gouvernement vient quant à lui de donner de nouveaux détails sur la révision de sa stratégie hydrogène, via un document publié sur le site du Ministère de la Transition Energétique, le 19 décembre dernier et faisant écho aux annonces du Président de la république. Dans le cadre de France 2030, l’État entend ainsi lancer une “étude exploratoire sur l’hydrogène naturel”, afin d’évaluer d’ici à 2025,,les potentiels d’extraction en France, mais également les intérêts économiques et impacts environnementaux.

_________________________________

Le Gouvernement a publié le 15 décembre 2023, pour consultation, ses nouvelles orientations stratégiques pour le développement de l’hydrogène décarboné en France. Un Conseil national de l’hydrogène se réunira début 2024 pour entériner cette révision de la stratégie hydrogène française.

La stratégie proposée repose sur différentes briques :

  • Un objectif : installer une capacité de production électrolytique d’hydrogène bas-carbone de 6,5 GW en 2030 et de 10 GW en 2035. Cette production sera alimentée par le mix électrique français, bas-carbone, ou par des installations de production d’électricité nucléaire ou renouvelable, en fonction des choix d’approvisionnement de chaque installation, et en cohérence avec le principe de neutralité technologique entre hydrogène renouvelable et bas-carbone.
  • Le déploiement en France de l’hydrogène décarboné et de ses infrastructures de transport. La priorité sera donnée au développement d’un réseau au sein de hubs hydrogène (infrastructures dites « intra-hubs »), notamment les hubs de Fos-sur-Mer, Dunkerque, Havre-Estuaire de la Seine, et Vallée de la chimie, et de leur connexion aux infrastructures de stockage. En complément, les déploiements locaux resteront nécessaires, y compris pour alimenter les usages intensifs de mobilité.
  • Un soutien sans équivoque du Gouvernement en faveur du déploiement de la production d’hydrogène décarboné sur le territoire national en assurant aux industriels le modèle économique nécessaire pour accélérer leur décarbonation, grâce notamment à un mécanisme de soutien de 4 Md€ sécurisant sur 10 ans la compétitivité de l’hydrogène décarboné par rapport à l’hydrogène fossile.
  • Une stratégie ouverte sur le monde, accompagnant la filière française dans son développement commercial à l’international, et assumant l’émergence d’un marché mondial de l’hydrogène et ses dérivés.
  • Une attention portée à la maîtrise de l’ensemble des équipements de l’hydrogène et de ses technologies pour assurer l’industrialisation des projets précédemment soutenus, renforcer l’intégration de l’écosystème autour des fleurons français et assurer la couverture de l’ensemble des produits et technologies clés de la chaîne de valeur.
  • Faire du déploiement de l’hydrogène une opportunité pour flexibiliser notre système énergétique en améliorant la capacité d’effacement des électrolyseurs et en développant des capacités de stockage.
  • Garantir les conditions cadres nécessaires au développement de la filière hydrogène française, que ce soit en matière d’accès aux compétences, d’accès au foncier, de délais des procédures, de raccordement au réseau électrique, ou encore de développement d’un cadre réglementaire complet, lisible et stable.

Voir https://fr.wikipedia.org/wiki/Hydrog%C3%A8ne_natif

https://news.cnrs.fr/articles/a-gigantic-hydrogen-deposit-in-northeast-france

https://www.rfi.fr/fr/podcasts/chronique-des-mati%C3%A8res-premi%C3%A8res/20231226-le-m%C3%A9gaprojet-gazier-russe-lng-2-d%C3%A9sert%C3%A9-par-les-investisseurs-%C3%A9trangers

25/12/2023 Une tempête solaire responsable du dernier âge glacial

La plus puissante tempête solaire dont la Terre ait conservé des traces s’est produite il y a 14000 ans. On l’ appris par l’étude de troncs de pins fossiles retrouvés dans les Alpes et endommagés ou abattus et brûlés à cette occasion

https://royalsocietypublishing.org/doi/10.1098/rsta.2022.0206

On a peine à imaginer les destructions que le renouvellement d’un tel phénomène produirait aujourd’hui sur l’ensemble des réseaux, y compris satellitaires, qui sont devenus indispensables aux terriens. Le dommage durerait des mois, le temps que soient faites, à l’aveugle, les réparations.

Avant cela et depuis les traces de tels événements, dits Myake events  avaient été trouvées, mais nulle part avec l’ampleur de celui mentionné ici. Ces tempêtes résultent de l’éjection ponctuelle à partir de la surface du soleil, de particules électriquement chargées accompagnées de plasma magnétisé et de rayons gamma .

Un phénomène analogue, mais d’une force infiniment moindre, dit Carrington event s’était produit en 1859 et avait fortement perturbé les communications télégraphiques

A radiocarbon spike at 14 300 cal yr BP in subfossil trees provides the impulse response function of the global carbon cycle during the Late Glacial

Edouard Bard

… See all authors 

Published:09 October 2023

https://doi.org/10.1098/rsta.2022.0206

Abstract

We present new 14C results measured on subfossil Scots Pines recovered in the eroded banks of the Drouzet watercourse in the Southern French Alps. About 400 new 14C ages have been analysed on 15 trees sampled at annual resolution. The resulting Δ14C record exhibits an abrupt spike occurring in a single year at 14 300–14 299 cal yr BP and a century-long event between 14 and 13.9 cal kyr BP. In order to identify the causes of these events, we compare the Drouzet Δ14C record with simulations of Δ14C based on the 10Be record in Greenland ice used as an input of a carbon cycle model. The correspondence with 10Be anomalies allows us to propose the 14.3 cal kyr BP event as a solar energetic particle event. By contrast, the 14 cal kyr BP event lasted about a century and is most probably a common Maunder-type solar minimum linked to the modulation of galactic cosmic particles by the heliomagnetic field. We also discuss and speculate about the synchroneity and the possible causes of the 14 cal kyr BP event with the brief cold phase called Older Dryas, which separates the Bølling and Allerød millennium-long warm phases of the Late Glacial period.

This article is part of the Theo Murphy meeting issue ‘Radiocarbon in the Anthropocene’.

Voir aussi Could a solar storm ever destroy Earth?

24/11/2023 Les Réseaux neuronaux profonds (Deep Neural Networks DNN)

Un réseau neuronal est une suite d’algorithmes ou étapes de travail inspirés du cerveau humain. Son but est de simuler (reproduire) l’activité de celui-ci dans la reconnaissance des formes et la transmission des informations correspondantes entre les différentes couches de connexions interneuronales.

Un réseau neuronal profond (Deep neural network ou DNN) est composé d’au moins deux couches (layer) de neurones. Ceci permet d’introduire de la complexité dans le traitement des données et notamment de faire appel à des modèles mathématiques avancés.

En général un DNN comporte 3 couches, une couche d’entrée, une couche de sortie et une couche intermédiaire. Plus il y a de couches, plus le traitement des données est efficace. Chaque couche intervient dans des tâches spécifiques de reconnaissance et de catégorisation dites “feature hierarchy“.

Le DNN reçoit les données fournies par des capteurs on directement injectées par le programme. Il peut s’agir de textes, d’images ou même de sons qui sont converties en valeurs numériques. Celles-ci, couche par couche, sont traduites en probabilités de prédictions, jusqu’à obtenir un résultat aussi proche de la réalité perçue que possible.

Pour imiter au mieux le cerveau humain dans l’exercice de ces tâches, un DNN est entrainé par des procédures relevant du Deep Learning ou Apprentissage profond, un sous-domaine de l’Intelligence Artificielle https://fr.wikipedia.org/wiki/Apprentissage_profond

23/11/2023. Faut-il avoir peur d’éventuels robots conscients ?

Même si les chercheurs en sciences cognitives ont du mal à expliquer ce qu’est la conscience chez les humains, ils peuvent plus facilement comprendre pourquoi certaines personnes perdent conscience ou sont incapables de conscience.

Différents facteurs favorables à l’émergence de la conscience chez un individu sont d’ordre anatomique. Il doit posséder un cerveau doté d’un nombre suffisant de neurones pour se donner des représentations de lui-même dans une représentation de son environnement. D’autres sont psychologiques. Il doit dès avant la naissance, par un dialogue in utero avec sa mère, apprendre à partager avec celle-ci les états de conscience que celle-ci éprouve. Plus tard, il doit apprendre à partager avec ses semblables puis plus tard éventuellement à refuser les langages par lesquels se forme la conscience sociale. D’autres enfin sont sociologiques. Il doit grandir puis exercer une activité productive dans des sociétés qui valorisent les prises de conscience chez les individus plutôt qu’encourager l’obéissance passive voire réprimer la manifestation des faits de conscience.

Aujourd’hui, les recherches en robotique, ou du moins certaines d’entre elles, cherchent à améliorer les capacités de prise de conscience des robots et simultanément les capacités qu’auraient ces robots augmentés de partager des états de conscience avec des humains. Inutile de dire que la tâche sera difficile, dans la mesure où comme nous venons de le rappeler, l’on ne sait trop encore en quoi consiste la conscience chez l’homme. Cependant de nombreuses pistes prometteuses apparaissent.

Il ne s’agira pas d’emblée d’obtenir des robots conscients et capables de communiquer avec les hommes. Il s’agira plutôt, comme l’a fait la nature au fil des millénaires, de réaliser des robots et des sociétés de robots capables à leur niveau de débuts de prises de conscience. Plusieurs facteurs seront à explorer. Le premier sera de concevoir des robots capables d’évoluer par auto-apprentissage. Pour cela ils devront être dotés de neurones artificiels capables de former des ensembles interactifs plus complexes et significatifs que les neurones individuels.

Ils devront également au lieu d’être constitués entièrement de métaux rigides, comporter des parties plastiques éventuellement gonflables en relation avec des capteurs sensoriels différents qui commanderont les formes et les gestes les plus adaptés. On parle de « soft robotics ».

Une autre exigence essentielle consistera à pouvoir se grouper à plusieurs, voire former des meutes pour explorer des milieux différents. Des robots de taille différente pourront être associés à cette fin, soit robots de grande taille en matière par exemple d’exploration spatiale, soit de très petite taille afin d’opérer dans un corps vivant humain sans le détruire.

Quant aux langages de communication, tant entre robots qu’avec les humains, ce ne sera pas contrairement à ce l’on pense parfois, l’enjeu le plus difficile. Ainsi d’ores et déjà la communication entre un avion de combat comportant des dizaines de petits robots et son pilote se fait déjà bien, dans les deux sens.

Voir dans Paris Match

https://www.parismatch.com/actu/insolite/un-ovni-en-forme-de-tic-tac-filme-depuis-un-avion-un-autre-detecte-par-une-ia-223816



22/11/2023. Le recul des dinosaures

Les dinosaures sont un groupe de reptiles apparu il y a 230 à 240 millions d’années au Trias, durant le Mésozoïque.  Ils sont issus d’une population d’archosaures, les « lézards régnants » qui se partageaient la Terre avec de nombreux reptiles.

Or dix millions d’années avant la chute fatale de l’astéroide, les dinosaures étaient déjà sur le recul. C’est la conclusion d’une équipe franco-anglo-canadienne menée par Fabien Condamine, chercheur du CNRS à l’Institut des sciences de l’évolution de Montpellier, qui a analysé l’évolution au cours du Crétacé de six grandes familles, dont celles des tyrannosaures, des triceratops et des hadrosaures à bec de canard.

Il s’agissait de la cinquième extinction de masse de l’histoire du vivant. Il y a 66 millions d’années disparaissaient brutalement 75% des espèces, dont les dinosaures non aviens, emportés par l’impact brutal d’un objet céleste dans le Yucatán (un astéroïde ? un fragment de comète ?) et un regain d’activité volcanique.

Une nouvelle étude parue fin juin dans la revue Nature Communications  dont on trouvera ci-dessous les références et l’abstract avance qu’ils étaient déjà mal en point avant le coup fatal : 10 millions d’années auparavant, ils étaient sur le déclin.

« Nous avons examiné les familles de dinosaures les plus abondantes pendant toute la durée du Crétacé, soit de 150 à 66 millions d’années, précise l’auteur dans un communiquéEt nous avons constaté qu’elles évoluaient toutes, qu’elles se développaient et qu’elles étaient manifestement prospères. Puis, il y a 76 millions d’années, elles ont connu un brusque ralentissement. Le nombre d’extinctions a augmenté et, dans certains cas, l’apparition de nouvelles espèces a chuté. »

Pourquoi ce phénomène ? Il est probablement lié à un refroidissement global survenu vers la fin du Crétacé (la température moyenne de la planète a alors baissé de 7 à 8°C) et à la diminution de la diversité des herbivores. Ceci a pu déséquilibrer les écosystèmes et conduire à des extinctions en cascades.

Pour les auteurs, nul doute que le déclin des dinosaures est dû à ces facteurs environnementaux survenus bien avant le coup de grâce porté par un possible astéroïde.

https://www.geo.fr/animaux/le-declin-des-dinosaures-avait-commence-bien-avant-leur-disparition-brutale-selon-une-nouvelle-etude-205315

Référence

Dinosaur biodiversity declined well before the asteroid impact, influenced by ecological and environmental pressures

Nature Communications 

volume12, Article number: 3833 (2021) 

Abstract

The question why non-avian dinosaurs went extinct 66 million years ago (Ma) remains unresolved because of the coarseness of the fossil record. A sudden extinction caused by an asteroid is the most accepted hypothesis but it is debated whether dinosaurs were in decline or not before the impact. We analyse the speciation-extinction dynamics for six key dinosaur families, and find a decline across dinosaurs, where diversification shifted to a declining-diversity pattern ~76 Ma. We investigate the influence of ecological and physical factors, and find that the decline of dinosaurs was likely driven by global climate cooling and herbivorous diversity drop. The latter is likely due to hadrosaurs outcompeting other herbivores. We also estimate that extinction risk is related to species age during the decline, suggesting a lack of evolutionary novelty or adaptation to changing environments. These results support an environmentally driven decline of non-avian dinosaurs well before the asteroid impact.

22/12/2023 ChatGPT et consorts pris la main dans le sac

La famille de Léon Gautier, qui faisait partie des 177 Français du commando Kieffer ayant débarqué en Normandie le 6 juin 1944, va porter plainte contre une biographie truffée d’erreurs. C’est ce que rapporte France Bleu Normandie.

De leur côté, des journalistes du  Monde  indiquent que le site Amazon est confronté à une déferlante de « faux livres » générés par intelligence artificielle. Amazon a du réduire à trois le nombre de livres publiés chaque jour sur sa plate-forme Kindle Direct Publishing par un  unique et prétendu « auteur » :  « Nos règles relatives au contenu Kindle Direct Publishing imposent désormais aux auteurs et éditeurs de signaler si leur contenu a été généré par intelligence artificielle »,  précise Amazon.

L’agence Reuters recensait déjà sur Amazon Kindle Direct Publishing aux États-Unis, en février dernier, plus de deux cents ouvrages écrits par ChatGPT, le chatbot d’OpenAI. Autant des romans que des manuels techniques ou des livres pour enfants, dont nul ne vérifiait jamais les contenus .

Ce phénomène risque si rien n’est fait d’enlever toute crédibilité à l’édition, au journalisme et à l’information par audiovisuel. Ainsi le Hamas prétend-il actuellement que la dénonciation de ses « crimes » par Israël repose sur des images fausses. Qui vérifiera ?

On dira que le phénomène n’est pas nouveau. Lors des deux dernières guerres mondiales on parlait en France de « bobards ». Ce qui est nouveau sera l’ampleur du phénomène. Chacun d’entre nous vivra bientôt dans une infosphère à laquelle il ne pourra accorder le moindre crédit, étant par lui même incapable de distinguer le vrai du faux.

Elon Musk et autres savaient cela depuis longtemps. Ils n’ont rien fait pour prévenir le phénomène. Si des responsables devaient être poursuivis, ce devrait être eux.


Voir aussi https://www.lemonde.fr/economie/article/2023/01/21/openai-dans-la-tete-des-createurs-de-chatgpt_6158745_3234.html

21/12/2023 Fonte rapide du glacier Antarctique dit Pine Island glacier 

On dit que les glaciers épais de plusieurs centaines de mètres composant le west Antarctic ice sheet ne ressentent pas encore les effets du réchauffement climatique. Ce n’est pas le cas comme le montre la fonte rapide de la couverture de glace de la taille des 3/4 de la Grande Bretagne qui recouvre cette partie du continent.

Le mouvement s’est amorcé il y a quelques décennies. Aujourd’hui il s’accentue rapidement contribuant plus que la fonte des autres glaciers à une remontée de plusieurs mètres du niveau de la mer. Des modélisations montrent que le glacier reculera rapidement jusqu’à disparaître presque totalement.

(voir https://tc.copernicus.org/articles/17/3761/2023/ )

De précédentes montées du niveau de la mer, ne dépassant pas quelques cms s’étaient produites dans les siècles précédents. Elles avaient sans doute été dues à un phénomène dit de la“marine ice sheet instability”. Quand dans l’ouest antarctique à la suite de saisons un peu plus chaudes qu’en moyenne, les glaciers perdent quelques centimètres, ils ne regagnent jamais toute leur hauteur antérieure.

Ceci parce que le nouveau refroidissement devrait être légèrement supérieur au réchauffement précédent afin de compenser la totalité de la masse perdue. Sinon le poids du glacier n’ayant pas fondu pèsera par gravité sur le glacier en train de se refroidir et l’empêchera de regagner son niveau antérieur.

Si de tels phénomènes se reproduisaient à l’avenir la hausse global du niveau des mers pourrait être de plusieurs mètres.

21/12/2023 Des qu-bits réalisés pour la première fois à partir de molécules intriquées

Des physiciens américains de l’Université de Princeton ont réussi pour la première fois à provoquer et contrôler une intrication quantique entre deux molécules. Ce phénomène d’intrication quantique se manifeste quand deux particules (ou groupes de particules) sont liées de manière à ce que l’état quantique de l’une influence instantanément l’état quantique de l’autre, indépendamment de la distance qui les sépare.

Cette caractéristique, initialement considérée comme irréelle par Einstein, est désormais reconnue comme un principe fondamental de la physique quantique.

Une telle capacité d’interaction à distance entre molécules, et non plus simplement entre atomes, ouvre la voie vers des applications pratiques révolutionnaires, notamment dans le développement d’ordinateurs quantiques plus puissants.

Les molécules, contrairement aux atomes, possèdent une structure complexe et donc plus de degrés de liberté dans le contexte quantique. Cela signifie qu’elles peuvent exister dans un plus grand nombre d’états quantiques différents. Cette complexité moléculaire permettra des méthodes innovantes pour le stockage et le traitement de l’information quantique .

En effet, les molécules ont la capacité de vibrer et de tourner dans plusieurs modes différents. Chacun de ces modes peut être utilisé pour représenter différents états quantiques via des bits quantiques (qubits) – les unités fondamentales de l’information dans un ordinateur quantique. Cette polyvalence offrirait une richesse de configurations pour coder l’information, bien au-delà des possibilités offertes par les atomes seuls.

Les chercheurs précités ont utilisé des faisceaux laser très focalisés pour piéger et contrôler des particules extrêmement petites, telles que les molécules. Il s’agit de « pinces optiques ». Le principe de fonctionnement des pinces optiques repose sur la pression de radiation – la pression exercée par la lumière sur les objets physiques. En ajustant les propriétés du faisceau laser, telles que son intensité et sa focalisation, les scientifiques peuvent positionner avec précision et maintenir en place des molécules individuelles.

L’utilisation des pinces optiques pour refroidir les molécules à des températures ultrabasses est essentielle. A ces températures, les molécules sont moins susceptibles d’être perturbées par l’énergie thermique environnante. Cela permet aux chercheurs de les placer dans des états quantiques spécifiques nécessaires pour les expériences d’intrication.

De plus, les chercheurs utilisent des impulsions micro-ondes pour induire des interactions contrôlées entre les molécules. Les micro-ondes, en agissant sur les molécules piégées, permettent de modifier leurs états quantiques de manière cohérente et contrôlée. Cette cohérence est essentielle pour l’intrication, car elle assure que les états quantiques des molécules sont liés de manière prévisible et répétable.

L’intrication réalisée avec cette méthode est un élément fondamental pour le développement de l’informatique quantique . Les ordinateurs quantiques basés sur des molécules présenteraient en effet une caractéristique unique par rapport à ceux utilisant des qubits traditionnels, comme les ions ou les photons.  En informatique quantique, les qubits sont des unités d’information qui peuvent exister dans une superposition d’états quantiques |0⟩ et |1⟩. Les qutrits, en revanche, sont une unité d’information quantique qui peut exister dans une superposition de trois états quantiques orthogonaux, souvent dénotés |0⟩, |1⟩, et |2⟩. Cette capacité à opérer avec trois états quantiques, plutôt que deux, offre une plus grande complexité et flexibilité dans le traitement de l’information quantique, par rapport aux qubits.

Hannah Williams, physicienne à l’Université de Durham, met en lumière l’importance de telles avancées dans un article de Nature référencé ci-dessous. Elle souligne que le rythme rapide des progrès dans l’utilisation des molécules pour la simulation quantique indique que cette approche pourrait bientôt devenir une plate-forme de choix dans ce domaine. Les molécules offrent une flexibilité et une capacité de modélisation qui pourraient surpasser les plates-formes quantiques actuelles, rendant possible l’exploration de domaines de la physique et de la chimie jusqu’alors hors de portée.

Un autre groupe de recherche, mené par John Doyle, Kang-Kuen Ni et Wolfgang Ketterle, a obtenu des résultats similaires, confirmant l’importance de ces découvertes.

Référence

nature  

https://www.nature.com/articles/d41586-023-03943-1

news  

Quantum-computing approach uses single molecules as qubits for first time
Platforms based on molecule

Physicists have taken the first step towards building quantum computers out of individual molecules trapped with laser devices called optical tweezers. Two teams report their results in Nature and Science on 7 December . In both cases they made pairs of calcium monofluoride molecules interact so that they became entangled — a crucial effect for quantum computing.

Accès payant pour la suite

20.12.2023 ITER, un bon projet mais des contre-performances françaises à la réalisation

La France, en retard dans de nombreux domaines scientifico-industriels sur les Etats-Unis , la Russie et bientôt la Chine, pouvait se féliciter de ses performances dans l’électro-nucléaire. En matière de fission, ses centrales regroupent un total de 56 réacteurs dont 32 produisent chacun une puissance électrique de 900 MWe, 20 réacteurs de 1300 MWe, tandis que les quatre derniers délivrent 1450 MWe. Elle avait pris quelques retards à Flamanville, mais celui-ci est en voie de rattrapage.

En matière de fusion, le programme international ITER  International Thermonuclear Experimental Reactor, est un prototype de réacteur à fusion nucléaire en construction en France à Cadarache depuis 2006. Il s’agit d’une collaboration entre 35 pays dans laquelle les équipes françaises jouent un rôle encore dominant. D’autres expériences de fusion entreprises à l’étranger annoncent aujourd’hui avoir réussi le processus, mais il s’agit quasiment encore de réalisations de laboratoire.

Or aujourd’hui le journal Scientific American confirme ce que l’on commençait à savoir en France. Le programme ITER éprouve de grands difficultés
https://www.scientificamerican.com/article/worlds-largest-fusion-project-is-in-big-trouble-new-documents-reveal/

Qui plus est , ces difficultés ne sont pas liées à des questions de fond comme il s’en découvre inévitablement . Il s’agit essentiellement de problèmes de chaudronnerie.

Selon le 4e directeur général d’ITER l’italien Pietro Barabaschi, deux problèmes techniques se sont annoncés. Des « non-conformités dimensionnelles » sur trois secteurs du tokamak (qui en comporte neuf au total), livrés par la Corée du Sud : jusqu’à deux centimètres d’écart entre deux parties devant être soudées Deux centimètres !!!. Il fallait vraiment avoir les yeux dans les poches pour ne pas s’en apercevoir avant recette.

Un des secteurs ayant déjà été installé dans la fosse, il devra être retiré. Cette soudure est nécessaire pour la « chambre à vide », (19 mètres de diamètre pour 11 mètres de hauteur) où se produirait la réaction de fusion.

Second problème, des traces de corrosion sur « l’écran thermique », censé protéger de la chaleur générée par la fusion. C’est un défaut de fabrication de la pièce, pouvant engendrer des fuites d’hélium, qu’il faut donc réparer ou changer.

Au-delà du respect du calendrier, l’impact financier est très important . Le coût a déjà quadruplé par rapport aux premières estimations, avoisinant les 20 milliards d’euros. Ce chiffre va de façon certaine être amené à augmenter en fonction des problèmes techniques découverts. De plus les réparations pourraient prendre des années.

De nationalité italienne, Pietro Barabaschi est le quatrième directeur général d’ITER Organization, après les Japonais Kaname Ikeda (2006-2010) et Osamu Motojima (2010-2015), et le Français Bernard Bigot (2015-2022).

A l’origine, ITER visait à réaliser son premier plasma en 2025 et d’autres tests en 2035. Aujourd’hui, aucune prévision n’est désormais crédible

Inévitablement se pose la question de la responsabilité des directeurs généraux successifs et de leurs collaborateurs. Leur rôle n’était-il pas de vérifier depuis longtemps si la Corée du Sud et autres sous-traitants imposés sans doute pour des raisons diplomatiques s’acquittaient convenablement de leurs tâches.

Pour en savoir plus

https://www.boursorama.com/actualite-economique/actualites/fusion-nucleaire-le-programme-iter-mine-par-des-problemes-de-soudure-des-annees-de-retard-en-vue-1ce9e294db42a879ee199b90aa9a187e

https://fr.euronews.com/next/2023/12/19/reacteur-iter-reproduire-le-pouvoir-du-soleil-pour-alimenter-la-terre-en-energie