14/04/2025 Les bénéfices à attendre de guerres bien destructrices

Après quelques décennies de calme relatif, le monde se prépare désormais à des affrontements militaires dont les dégâts tant humains que matériels, s’annoncent comme considérables.

La crainte de voir les principaux belligérants recourir en première frappe ou en frappe de retour à des armes nucléaires de grande puissance a disparu, depuis la mise en service d’armes atomiques distribuées dont les dégâts, bien que considérables, peuvent être limités.

Quant aux autres armes de destruction massive, à l’exemple des armes chimiques et biologiques, elles ne font pas peur, même si elles peuvent se révéler aussi dangereuses pour l’envoyeur que pour le destinataire. Les mettre au point sera une occasion de profit à laquelle nul ne voudra renoncer

Par ailleurs, les armes traditionnelles, terrestres, aériennes ou navales peuvent désormais être fabriquées en grandes quantités et à moindre coût, grâce notamment à la robotisation des chaînes de production. Elles sont génératrices de progrès continus dans les technologies et modes d’emploi.

Un char lourd tel que le Panzerkampfwagen VIII Maus allemand ou le Rafale F5 français et son escorte de drones seront, tant à la fabrication qu’ à l’emploi, de véritables laboratoires auxquels aucune grande puissance ne voudrait renoncer et que toutes les puissances ascendantes voudront acquérir.

Tant pis pour les morts qu’entrainera leur généralisation, dans les forces armées comme de plus en plus chez civils. En période de sous-emploi, de nouveaux recrutement de remplacement seront les bienvenus.

Quant à l’espace suborbital dans lequel circulent aujourd’hui plus de 900 satellites actifs chargés de réseaux civils et militaires pour la communication, la navigation, la météo ou l’agriculture, une bonne solution à terme sera adoptée par les grandes puissances, mettre au point des satellites tueurs pour détruire les satellites civils puis en renvoyer d’autres en remplacement, ceci indéfiniment. Tant pis pour les pluies de débris qui en résulteront.

13/04/2025 Possibilité de production d’oxygène noir (sombre) sur la planète Mars

L’atmosphère de Mars, extrémisent fine et ténue, ne contient pas naturellement d’oxygène. Ceci veut dire que des humains ne pourraient pas procéder à des séjours sur Mars sans apporter leur propre oxygène, dans des bouteilles ou avec des méthodes du même genre. A défaut, il leur faudra faire appel à des robots .

Cependant d’autres solutions sont actuellement étudiées. Parmi celles-ci, la production d’ « oxygène sombre »

(voir notre article précédent 13/04/2025 La formation de l’oxygène sombre dans les profondeurs océaniques

Sur la Terre, cet oxygène est produit par des nodules polymétalliques via l’électrolyse naturelle dans les fonds marins terrestres. Obtenir de l’oxygène sombre sur Mars est une idée intéressante, mais elle pose plusieurs défis et dépend de conditions spécifiques qui ne sont pas naturellement présentes chez notre voisine.

Sur Terre, l’oxygène sombre r est produit par des nodules polymétalliques dans l’eau de mer, où ces minéraux agissent comme des « géobatteries » générant un faible courant électrique pour électrolyser l’eau (H₂O) en oxygène (O₂) et hydrogène (H₂).

Cela nécessite la présence :- d’eau liquide L’électrolyse se produit dans l’eau de mer non gelé – de conditions environnementales favorables, soit un milieu stable, riche en ions (comme l’eau salée), pour faciliter le processus.

Or Mars présente des obstacles majeurs pour reproduire un tel milieu:

Elle manque d’eau liquide abondante. La surface de Mars est principalement sèche, avec des traces d’eau sous forme de glace dans les calottes polaires ou sous la surface. Il n’existe pas d’océans ou de masses d’eau liquide stables comme sur Terre.

Sa composition minérale est différente . Bien que Mars possède des minéraux riches en fer, magnésium et autres métaux, la présence de nodules polymétalliques similaires à ceux des fonds marins terrestres n’a pas été confirmée. Les sols martiens sont riches en oxydes de fer (d’où sa couleur rouge), mais pas nécessairement en structures minérales capables de générer un courant électrique naturel.

Atmosphère et pression. y sont différentes L’atmosphère martienne est très fine (moins de 1 % de la pression terrestre) et composée principalement de dioxyde de carbone (CO₂). Cela rend difficile le maintien d’un environnement propice à l’électrolyse naturelle sans intervention technologique.

Possibilité de recréer artificiellement l’oxygène noir

Pour produire de l’oxygène sur Mars en s’inspirant du phénomène de l’oxygène noir, il faudrait :

– Créer un environnement artificiel . Introduire de l’eau liquide (par exemple, en faisant fondre la glace martienne) dans un système contenant des minéraux ou des électrodes imitant les nodules polymétalliques.

– Fournir une source d ‘énergie abondante, au mieux provenant de l’énergie solaire.

– Synthétiser des matériaux adaptés. Si les minéraux martiens ne suffisent pas, il faudrait transporter ou fabriquer des catalyseurs spécifiques (comme des alliages métalliques) pour reproduire le processus

Comparaison avec les technologies existantes

La production d’oxygène sur Mars est déjà envisagée via des technologies comme MOXIE (Mars Oxygen In-Situ Resource Utilization Experiment), testée avec succès par la mission Perseverance de la NASA. MOXIE extrait l’oxygène du CO₂ atmosphérique par électrolyse à haute température.

Ce procédé est plus simple et mieux adapté à l’environnement martien que la tentative de recréer un système inspiré de l’oxygène noir, car il utilise une ressource abondante (le CO₂ atmosphérique).-Il ne dépend pas de la présence d’eau liquide ou de minéraux rares. – Il est déjà technologiquement viable à petite échelle.

Conclusion

Créer de l’oxygène noir sur Mars est théoriquement possible, mais peu pratique avec les connaissances et ressources actuelles. Il faudrait recréer artificiellement un environnement marin terrestre (eau liquide, minéraux spécifiques, conditions électrochimiques), ce qui serait complexe et coûteux comparé à des technologies comme MOXIE.

À l’avenir, si des nodules polymétalliques ou des minéraux similaires sont découverts sur Mars, ou si des techniques avancées permettent de synthétiser ce processus, cela pourrait devenir une option. Pour l’instant, des méthodes plus directes comme l’électrolyse du CO₂ ou de l’eau extraite de la glace martienne sont plus prometteuses pour produire de l’oxygène sur place.


    13/04/2025 La formation de l’oxygène sombre dans les profondeurs océaniques

    L’océan et la photosynthèse de ses organismes végétaux (le phytoplancton notamment) absorbent le CO2 et produisent de l’oxygène (O2).

    L’océan absorbe ainsi 30% du CO2 de la planète et produit entre 50% et 75% de l’oxygène que nous respirons, selon les sources et les zones géographiques.

    Des chercheurs de l’Académie des Sciences de Pékin viennent de découvrir que des bactéries se trouvant à grande profondeur sur des fonds océaniques produisent des quantités significatives d’oxygène. Qui plus est, dans ce processus, des nodules métalliques sont formés dans le cadre d’un mécanisme encore inconnu. Ceux-ci peuvent relâcher une partie de cet l’oxygène s’ils sont remontés à la surface. Cet oxygène a été nommé « oxygène sombre «  ou « dark oxygene »

    Vu la profondeur et l’absence de lumière, cet oxygène n’est pas le produit d’une quelconque photosynthèse résultant de l’action de la lumière sur des organismes végétaux marins proches de la surface.

    Par contre, les années précédentes, il avait été observé que des bactéries marines et des archées peuvent produire de l’oxygène dans l’obscurité en présence de nitrates océaniques, mais en des quantités si faibles que le phénomène avait été considéré comme négligeable.

    C’est alors que des océanographes écossais découvrirent une production importantes d’oxygène dans les profondeurs abyssales. Ils publièrent un article controversé montrant que de l’oxygène était produit en profondeur dans la mer par des écosystèmes locaux. Ils suggérèrent également que ce mécanisme avait joue un rôle dans l’évolution de la vie sur la Terre et qu’il pourrait même être introduit sur des planètes telles que Mars qui seraient riches en nitrate afin d’y produire de l’oxygène.

    Le risque de ces recherches tient au fait qu’aujourd’hui des compagnies minières sont déjà intéressées par l’exploitation de nodules océaniques. Afin de les remonter elles utilisent des méthodes de dragage si brutales qu’elles risquent d’éliminer toutes les formes de vie océanique pour des centaines d’années.

    Référence

    Nitrate-driven dark oxygen

    https://www.biorxiv.org/content/10.1101/2025.03.10.642362v2#https://www.biorxiv.org/content/10.1101/2025.03.10.642362v2

    Rikuan Zheng, Chong Wang, Hongliang Wang, Haibin Qi,

    doi: https://doi.org/10.1101/2025.03.10.642362

    This article is a preprint and has not been certified by peer review

    Abstract

    To date, only three biotic pathways for light-independent oxygen production (i.e., dark oxygen) have been reported: chlorate dismutation, nitric oxide dismutation, and methanobactin-dependent water lysis. Oxygen has been shown to be produced and consumed in dark and anoxic environments, as evidenced by its prevalence in deep-sea surface sediments. However, the microbial communities and pathways driving deep-sea dark oxygen production (DOP) remain poorly understood. Here we identify a novel DOP pathway driven by dissimilatory nitrate reduction to ammonium (DNRA) in two deep-sea Deferribacterota strains. The DOP activity of these Deferribacterota strains potentially promotes the formation of manganese nodules and influences the growth and metabolism of both aerobic and anaerobic microbes, underscoring the significant role of microbial DOP in shaping deep-sea geological and ecological systems. We also cultured several deep-sea DOP-capable microorganisms from the Campylobacterota, Deinococcota, and Pseudomonadota phyla, which generate dark oxygen through unidentified nitrate-driven pathways. Combined with previous geological evidence, our results suggest that nitrate-driven dark oxygen, alongside photosynthetic oxygen, jointly contributed to early Earth’s oxygenation, driving the Great Oxidation Event. Overall, our findings provide novel insights into deep-sea oxygen sources, shed light on the origins of early Earth’s oxygen, and expand perspectives on the potential for terraforming other planets.

    12/05/2025 Le big bang pourrait ne pas être le début de l’univers

    Le terme de big bang signifie que toutes les équations que nous utilisons pour décrire l’espace temps ne conduisent plus à rien quand nous les faisons tourner en sens inverse. Elles aboutissent à une singularité, c’est-à-dire à rien que nous puissions décrire en termes cosmologiques.

    Cependant aujourd’hui, le big bang pour les physiciens ne signifie pas le commencement de quelque chose. Il n’y a même pas eu de commencement, au sens où l’on entend traditionnellement ce terme.

    Il y a eu deux changements dans la façon dont les physiciens considèrent l’espace temps cosmologique. Les modèles inflationnistes qui présentent une expansion exponentielle de l’espace-temps, indiquent que l’inflation peut être un processus éternel. En ce sens l’univers n’aurait pas eu de commencement , nous vivrions dans un univers éternellement en expansion. Pour les mathématiciens, ce scénario serait le plus convenable, si du moins il y avait inflation….

    Par ailleurs, aujourd’hui, de plus en plus de scientifiques utilisent le terme de “hot big bang” ou « big bang chaud » pour désigner une période de temps, plutôt qu’un évènement unique. Ceci signifierait qu’initialement ce que nous nommons l’univers visible était très chaud et dense. Il était empli d’une bouillie énergétique de laquelle des atomes pouvaient initialement émerger et s’agréger éventuellement en matière (y compris en matière noire) puis sous la forme des structures que l’on observe aujourd’hui, galaxies, étoiles, planètes…et finalement humains comme nous.

    Traduit avec simplification de

    Why the big bang may not have been the beginning of the universe
    https://www.newscientist.com/article/mg25033400-200-why-the-big-bang-may-not-have-been-the-beginning-of-the-universe/

    By Chanda Prescod-Weinstein

    23 June 2021

    Le big bang désigne-t-l le début dT

    La principale raison de la domination des dinosaures

    Les premiers dinosaures étaient très petits, mesurant à peine 2 mètres de la tête à la queue. L’examen de leurs déjections fossilisées a montré qu’ils se répartissaient entre herbivores et carnivores, parmi de nombreuses autres espèces de reptiles.

    Puis subitement, il y a environ 200 millions d’années, vers le début du Jurassique, les dinosaures grandirent et dominèrent l’ensemble de la planète, en éliminant tous les autres reptiles dans ce qui a été nommé l’extinction de masse de la fin du Triasique. Ils se répartirent alors entre herbivores et carnivores de plus en plus grands, ceux-ci tels le Tyranosaurus Rex bien connu dans les média se nourrissant des herbivores qu’ils chassaient

    Des chercheurs de l’Université d’Uppsala, en Suède, ont cherché à comprendre les raisons de ce phénomène, en examinant les restes de fèces de dinosaures, dites bromalites et les marques de pied que ceux-ci avant laissé en piétinant dans ces rejets. Ces restes fossilisés ont été récemment découverts en Pologne et sont conservés à l’Institut Géologique de Pologne.. Les chercheurs purent ainsi distinguer d’après leur régime alimentaire les herbivores et les carnivores, tout en mesurant leur tailles approximatives en relation avec la taille de leurs déjections.

    Mais pourquoi dans le même temps la taille des dinosaures s’était- elle accrue au point d’en faire des géants du monde animal? .Les chercheurs suédois attribuent ce phénomène à un changement climatique avec augmentation de l’humidité, qui provoqua l’apparition et la survie de végétaux eux-mêmes géants. Ceux-ci encouragèrent l’agrandissement de la taille des dinosaures herbivores puis de celles des carnivores dont les premiers constituaient t le régime alimentaire;

    Source

    Nature, doi.org/nt3w

    11/04/2025 Contribuer à la remise en eau de la mer d’Aral

    Contribuer à ce projet pourrait être un objectif de l’Union européenne néenne, plutot que financer des dépenses militaires en vue d’une improbable guerre avec la Russie, dont même Donald Trump se désintéresse

    Source

    Wikipedia

    La mer d’Aral est un lac d’eau salée d’Asie centrale situé entre 43° et 47° de latitude nord et entre 58° et 62° de longitude est, occupant la partie basse de la dépression touranienne ou aralo-caspienne au milieu d’espaces désertiques. Elle est partagée entre le Kazakhstan au nord et l’Ouzbékistan au sud.

    Elle comprend un bassin oriental peu profond et souvent à sec, et le petit lac de Barsakelmes.

    Six pays se partagent le bassin de la mer d’Aral : Kazakhstan, Ouzbékistan, Tadjikistan, Kirghizistan, Turkménistan et Afghanistan. Alimenté par deux affluents principaux, l’Amou-Daria et le Syr-Daria, le bassin versant de ce lac d’eau salée est alimenté par le bassin-versant des glaciers en particulier du massif du Pamir[9].

    Dans sa forme actuelle, la mer d’Aral est apparue il y a environ 10 000 ans. Auparavant, à l’époque glaciaire, une période particulièrement sèche, il n’y avait dans cette région que quelques marécages et étangs hypersalés[10], mis à part au plus fort des glaciations quaternaires lorsque les glaces de la mer de Kara bloquaient le cours de l’Ob et forçaient les eaux de la Sibérie occidentale à s’écouler vers la mer Caspienne en passant par le bassin de l’Aral[11]. Cela s’est produit pour la dernière fois il y a près de 90 000 ans et elle atteignait une taille de 100 000 km2[12].

    Après la dernière glaciation, la mer d’Aral s’est formée lorsque le Syr-Daria a commencé à remplir une dépression creusée par l’érosion éolienne. Ces eaux auxquelles viennent bientôt s’ajouter celles de l’Amou-Daria ne sont donc pas encore salées et la faune aquatique provient d’abord de ces fleuves. Il y a 5000 ans, la mer d’Aral atteint sa plus grande extension, son niveau atteint l’altitude de 58-60 m et elle s’étend jusqu’au lac Sary Kamysh. Ses eaux s’écoulent alors dans la mer Caspienne par l’intermédiaire de l’Ouzboï ce qui permet sa colonisation par les poissons venus de la Caspienne[10]. Ce maximum est lié à un climat plus chaud et plus humide ; les fleuves ont alors un débit trois fois plus élevé qu’au début du XXe siècle et apportent alors 150 km3 d’eau par an[13].

    Plus tard, le climat redevient plus sec et le niveau de la mer va varier en fonction des apports de l’Amou-Daria qui pouvait soit alimenter la mer d’Aral, soit s’orienter vers le lac Sary Kamysh et l’Ouzboï. Les reconstitutions paléogéographiques laissent penser que ce deuxième cheminement a été préféré entre -1800 et -1200 puis entre +100 et +500 et de 1200 à 1550 faisant pratiquement disparaître la mer d’Aral à ces périodes[

    La mer d’Aral couvrait, au début des années 1960, une superficie de 66 458 km2 (soit plus de 2 fois la superficie de la Belgique) dont 2 345 km2 occupés par des îles. Longue de 428 km, large de 284 km, elle se localisait dans une des parties les plus basses de la dépression touranienne affaissée depuis la fin de l’ère tertiaire (pliocène supérieur) par les mouvements alpins qui ont affecté l’Asie moyenne. Située à +52 m au-dessus du niveau moyen de la mer, la mer d’Aral est caractéristique de l’endoréisme de cette région du monde. C’était un espace lacustre peu profond (sur plus du tiers de sa superficie, la profondeur ne dépassant pas −10 m). Toutefois, cette profondeur était dissymétrique, la partie occidentale de la mer d’Aral (en rebord du plateau d’Oust-Ourt) voyait les fonds descendre jusqu’à −68 m alors que moins de 10 % de ces derniers dépassaient les −10 m dans la partie orientale[14].

    Les rives de la mer d’Aral étaient variées même si elles présentaient, par leur caractère désertique, un point commun. La rive orientale était caractérisée par son relief sablonneux formé de basses crêtes longitudinales indentées par une série de longues baies étroites parsemées d’îlots. Elle s’opposait ainsi au littoral occidental, d’un profil rectiligne, dominé par de hautes falaises (hautes de 190 m pour les plus élevées) battues par les flots. La rive septentrionale correspondait à la limite sud du plateau argilo-sableux de Tourgaï, s’élevant jusqu’à 178 m au-dessus du rivage et découpé de baies profondes. Entre ses diverses parties, au nord-est et au sud, les vastes deltas du Syr-Daria et de l’Amou-Daria, prenaient l’aspect de vastes espaces plans qui progressaient rapidement grâce au déversement abondant des eaux limoneuses[14].ydrologie

    Les eaux de la mer d’Aral se caractérisaient par une grande limpidité et un bleu intense, elles étaient peu salées (10 à 11 ‰ de taux de salinité moyen, 14 ‰ au sud-est). Leur température suivaient le rythme des saisons en raison de la faible profondeur ; l’été, elles pouvaient atteindre 26 °C à 27 °C en surface (mais seulement 1 °C à 3 °C dans les fonds de la côte occidentale). L’hiver, les températures étant négatives, la mer était entièrement prise par les glaces, parfois jusqu’au début du mois de mai[14]. Les précipitations sont faibles dans cette région au climat aride (entre 130 et 140 mm/an en moyenne), l’évaporation est très élevée (de l’ordre de 1 000 mm/an) mais l’apport des deux grands fleuves tributaires permettait à la mer d’équilibrer son bilan hydrologique[15]. Durée : 20 secondes.0:20Images satellites montrant l’évolution des niveaux d’eau dans la mer d’Aral de 2000 à 2018.

    La surface de la mer d’Aral était soumise à des oscillations de plus ou moins grande amplitude. Une variation quotidienne était provoquée par le phénomène des seiches à longue période et pouvait atteindre des amplitudes de 20 cm à 1 m relevées à la station « Mer d’Aral » située au nord-est de l’étendue lacustre. Toutefois, de violentes tempêtes pouvaient provoquer des oscillations bien supérieures, en 1902 fut relevée une montée des eaux de 2,1 m. Il faut également noter la présence épisodique d’un courant circulaire provoqué par la conjugaison du vent et de l’arrivée des eaux de l’Amou-Daria et du Syr-Daria[14].

    Le niveau des eaux a beaucoup varié au cours de l’histoire. Jusqu’au XVIe siècle, la mer d’Aral était reliée à la mer Caspienne par l’intermédiaire de l’Ouzboï et son niveau d’eau baissait car son principal fleuve tributaire, l’Amou-Daria, empruntant le cours de cet ancien cours d’eau, aujourd’hui à sec, allait déverser la majeure partie de ses eaux dans cette grande mer intérieure qu’est la Caspienne.

    Le cours de l’Amou-Daria fut détourné voilà 400 ans (par les khans de Khiva car le fleuve charriait des sables aurifères) et ses eaux rejoignirent la mer d’Aral dont le niveau s’éleva. Une nouvelle baisse fut enregistrée entre 1850 et 1880, mais les eaux remontèrent de 3 m entre cette dernière date et 1960[14].

    Hydrographie

    Le bassin hydrographique de la mer d’Aral, correspondant essentiellement aux bassins de ces deux grands fleuves tributaires : l’Amou-Daria et le Syr-Daria, couvre une superficie de 1 549 000 km2 (549 000 km2 de terres cultivables dont 78 956 sont irriguées). S’étendant entre les longitudes 56° et 78° est, et les latitudes 33° et 52° nord, ce vaste territoire coïncide géographiquement avec presque toute la zone de l’Asie centrale et comprend la totalité du territoire du Tadjikistan, de l’Ouzbékistan, la majeure partie du Turkménistan, trois provinces du Kirghizistan (Och, Djalal-Abad, Naryn), deux régions ou oblys méridionales du Kazakhstan (Kyzylorda, Kazakhstan-Méridional), quelques contrées septentrionales de l’Iran et de l’Afghanistan[16]

    .Assèchement

    Dès 1918, les autorités de la République socialiste fédérative soviétique de Russie prirent la décision catastrophique de procéder au détournement de ses principaux affluents « afin d’irriguer des zones désertiques de l’Ouzbékistan pour y implanter des rizières et des champs de cultures de coton[17]. » Au début des années 1960, les économistes soviétiques décidèrent d’intensifier la culture du coton en Ouzbékistan et au Kazakhstan. Les fleuves Amou-Daria et Syr-Daria furent privés d’une partie de leurs eaux pour irriguer les cultures par plusieurs canaux dont celui de Karakoum. Ainsi à partir de 1960, entre 20 et 60 km3 d’eau douce furent détournés chaque année. Le manque d’apport en eau assécha alors peu à peu la mer d’Aral dont le niveau baissait de 20 à 60 cm par an. Depuis 1971, une partie des eaux de l’Amou-Daria est orientée vers le Darjalyk, un ancien bras du fleuve menant vers le bassin du Sary Kamysh, un lac asséché qui a été ainsi reconstitué et plus récemment vers le lac de l’âge d’or.

    Depuis 1960, la mer d’Aral a perdu 75 % de sa surface, 14 mètres de profondeur et 90 % de son volume[18], ce qui a augmenté sa salinité et entraîné la disparition de la plupart des espèces endémiques[19]. Le nombre d’espèces de poissons est passé de 32 à 6[20]. On peut retrouver des épaves de bateaux sur l’ancien fond marin.

    La séparation entre la Petite mer au nord et la Grande mer au sud date de 1989. L’évolution a d’abord laissé présager la disparition totale de la seconde à l’horizon 2025, avant que des travaux d’aménagement ne soient opérés. En 2007, on constate que le niveau de la Petite mer d’Aral a remonté spectaculairement, plus vite que ne l’espéraient les experts chargés du dossier[7] et la pêche a repris depuis 2006[9].

    Peter Zavialov décèlerait un lien entre la hausse de la mer Caspienne et l’abaissement de la mer d’Aral[21]. Pour Chilo, académicien russe, ce sont les fonds des mers (Caspienne et Aral) qui seraient très friables… et un historien Bunyatov démontre que ce lac aurait déjà agonisé quatre fois au cours des siècles. Allant dans ce sens, des analyses contradictoires sur la mort programmée pour 2025 de la mer d’Aral ont été publiées récemment[2

    ].Conséquences biologiques et biomédicales

    Les 28 espèces endémiques de la mer d’Aral ont disparu[23]. Seule subsiste une espèce de raie importée et sélectionnée pour survivre à de tels taux de salinité. Sa survie à long terme n’est pas assurée, même dans la Petite mer. Les quantités gigantesques de pesticides qui, jadis, étaient charriées par les deux fleuves tributaires de la mer et se sont déposées au fond du bassin de l’Aral ainsi que le sel laissé par les eaux se retirant, se sont retrouvées, au fur et à mesure que l’évaporation progressait, à l’air libre en raison des vents violents. Ils ont provoqué une forte hausse du taux de mortalité infantile (parmi les plus élevés du monde aujourd’hui), une augmentation du nombre des cancers et des cas d’anémies, ainsi que le développement d’autres maladies respiratoires directement reliés à l’exposition à des produits chimiques, phénomènes confirmés par des études de l’Organisation mondiale de la santé.

    Tentatives de sauvetage

    Pour empêcher cet assèchement total, de multiples projets ont été évoqués :

    • détournement des fleuves Volga, Ob et Irtych, ce qui redonnerait à la mer sa taille originale en vingt à trente ans pour un coût de 30 à 50 milliards de dollars[24] ; en 2011, des projets en ce sens étaient en cours d’élaboration[25] ;
    • creusement d’un canal depuis la mer Caspienne avec station de pompage ;
    • amélioration des canaux d’irrigation ;
    • demandes aux agriculteurs de moins gaspiller l’eau des rivières ;
    • remplacement du coton par des espèces moins gourmandes en eau ;
    • changement économique en favorisant l’économie non plus basée sur l’agriculture dans les pays en amont.
    • Digue en béton de Kokaral

    En 2005, « la Banque mondiale et le gouvernement du Kazakhstan ont investi l’équivalent d’une centaine de millions de dollars pour construire le barrage de Kokaral, long de 13 kilomètres. C’est ce qui a créé ce qu’on appelle la « petite mer d’Aral ».»[26].

    La construction du barrage de Kokaral, au sud de l’embouchure du fleuve Syr-Daria fut un premier succès. En effet ce barrage permit de barrer le détroit entre la Petite mer, aussi appelée Maloïé, ancienne mer bordière au nord de la mer d´Aral avant son assèchement, et la Grande mer (Bolchoïé, ce qui reste du sud de la grande mer).

    Avant la construction du barrage de Kokaral, le maire de la ville d’Aralsk, Alachibaï Baïmirzaev avait décidé de faire construire en 1995 une digue de vingt-deux kilomètres constituée de sable et de roseaux. Achevée en 1996, elle permit immédiatement d’éviter que les eaux du fleuve ne se perdent dans le delta entre la Petite et la Grande mer d’Aral afin de faire remonter le niveau de la Petite mer.

    La vie renaquit autour de la mer, qui augmenta en volume et avança de plusieurs kilomètres; des roseaux, des renards, des rongeurs, des oiseaux ainsi que quelques espèces de poisson commencèrent à repeupler le bassin de la Petite mer. Malheureusement, une tempête violente détruisit cette digue fragile en 1999. Une partie de ce qui avait été gagné en volume et en superficie fut à nouveau perdu.

    La Banque mondiale a décidé de financer la construction de la digue en béton de Kokaral ainsi qu’une série de digues secondaires en vue d’éliminer l’excès de sel par des déversoirs et de faire remonter le niveau de l’eau. Ce projet controversé, dont les travaux ont débuté en 2003, a permis à la Petite mer de regagner environ 500 km² de superficie, mais il risque également de condamner la Grande mer par un assèchement encore plus rapide, même si une vanne située au-dessus du barrage prévoit de déverser le surplus en eau dans la Grande mer d´Aral, située pour une part importante en Ouzbékistan. Ce barrage permettant à la vie de revenir dans la Petite mer est une pomme de discorde entre le Kazakhstan, bénéficiaire, et l’Ouzbékistan qui pourtant, avec le Turkménistan, détourne la quasi-totalité des eaux de l’Amou-Daria en détruisant ainsi toute vie dans la Grande mer.

    Le président Noursoultan Nazarbaïev fait apparaître un semblant d´espoir de renaissance de la mer d´Aral au Kazakhstan. Il a en effet pour projet de rehausser le niveau de la petite mer, grâce à la construction du barrage de Kokaral, permettant ainsi à l’industrie de la pêche de retrouver son ancien niveau et à la ville d’Aralsk de redevenir un port plus ou moins important. Ce projet estimé à 120 millions de dollars (98 millions d’euros) serait financé principalement par les revenus du pétrole du Kazakhstan, il prévoit également le creusement d’un canal de jonction entre les deux bassins et la construction de nouvelles structures pour exploiter l’énergie hydroélectrique.

    Cette digue en béton construite dans la partie nord de l’ancienne mer d’Aral, à l’est de l’île de Kokaral, mesure 13 km de long pour une hauteur de 10 m à une altitude de + 42 m.

    Selon le site internet Structurae.info, le barrage digue a été construit uniquement avec du béton en 2005, depuis le niveau de la Petite Aral a augmenté d´au moins + 12 mètres, passant de moins de 30 mètres à + 42 mètres en 2009. Alors que les spécialistes de la Banque mondiale avaient prévu que l’eau ne remonterait pas avant trois ans – d’autres hydrologues pensaient même que la mer d’Aral serait irrémédiablement perdue – la petite mer avait déjà regagné 30 % de sa superficie, ce qui représentait plus de 10 milliards de mètres cubes d’eau. Cependant, d´après certains responsables kazakhs, il vaudrait mieux ne pas se réjouir trop tôt, car une solution définitive n´a pas encore été apportée.

    Plantations de saxaoul

    L’Ouzbékistan a planté 27 000 hectares de saxaoul (arbuste), qui produisent 167 000 tonnes d’oxygène en absorbant 230 000 tonnes de CO2[27], ce qui est équivalent à 4 minutes de la production mondiale de CO2. Commencé dans les années 1980, ce programme n’a pu reprendre qu’en 2008, faute de financement. Ces plantes ne sont pas seulement une aide contre l’érosion, elles jouent également un autre rôle essentiel : selon le professeur Zinovi Novitsk, elles permettent de réduire l’effet de serre. Mais parallèlement à ce type de projet, l’Ouzbékistan reste le 2e exportateur mondial de coton en 2011 – 2 millions d’hectares de cette plante y sont encore cultivés – ; or l’irrigation reste incontrôlée puisque le coton est une culture qui demande beaucoup d’eau, accentuant ainsi les phénomènes naturels d’assèchement[28].

    L’Union européenne participe aux plantations d’arbres[29].

    Avenir possible

    Le Turkménistan préfère utiliser les eaux de l’Amou Daria pour l’irrigation, ainsi que le remplissage du lac de l’âge d’or (ou lac de Karakum) et du lac Sary Kamysh, deux lacs plus petits et en pleine expansion qui d’une certaine manière tendraient à remplacer la Grande Aral, plus difficile à alimenter parce qu’elle est plus grande et que les eaux s’infiltrent et se perdent dans les sables du désert.

    L’Ouzbékistan préfère toujours utiliser les eaux de l’Amou Daria pour l’irrigation, ainsi son débit à l’entrée de ce qui reste de la mer, est très faible, voire nul.

    La grande mer d’Aral, qui fournissait autrefois des dizaines de milliers de tonnes de poissons par an, a très peu de chances de revoir le jour à cause de questions de salinité et de la pollution aiguë par les pesticides et parce que le détournement de rivières sibériennes n’est plus d’actualité. Par contre, la petite mer d’Aral pourrait se renaturer (si les gouvernements du Kazakhstan et de l’Ouzbékistan agissent de concert et durablement). Cette zone a résisté à l’assèchement et le rehaussement du barrage de Kok-Aral ainsi que la construction de nouvelles digues pourrait porter le niveau de cette petite mer à 50 mètres (projet de 86 millions de dollars financé par la Banque mondiale).

    En 2018, la navigation et même la pêche ont déjà repris au port d’Aralsk. Les experts préviennent cependant que la surpêche pourrait défaire ce début de restauration[30]. Un collecteur, pour éviter l’évaporation et les pertes dans le sable, pourrait amener l’eau provenant du barrage de Kok-Aral vers le bassin ouest de la mer d’Aral, endroit le plus profond et qui pourrait aussi être sauvé.

    En 2024, le Kazakhstan a lancé avec l’USAID le projet « Oasis » visant à restaurer l’environnement de l’ancienne mer d’Aral via la plantation de saxaouls — un arbuste typique de l’Asie centrale — pour stabiliser le paysage désertique et prévenir les tempêtes de sable[31].

    Fabrication d’armes biologiques

    En 1948, un laboratoire d’armes biologiques top-secret est établi sur l’île de Vozrojdénia située au centre de la mer d’Aral qui est maintenant disputée entre le Kazakhstan et l’Ouzbékistan. L’histoire exacte, les fonctions et le statut actuel de ce centre ne sont pas encore divulgués. La base est abandonnée à la suite de la désintégration de l’URSS. Des expéditions scientifiques ont démontré que cela a constitué un site de production, d’essai et, plus tard, de fabrication d’armes pathogènes. En 2002, à travers un projet organisé par les États-Unis et avec l’assistance de l’Ouzbékistan, dix sites d’enfouissement d’anthrax sont décontaminés. D’après le Kazakh Scientific Center for Quarantine and Zoonotic Infections, tous les sites d’enfouissement ont été décontaminés[32].

    Bibliographie

    • Élisée Reclus, Note relative à l’histoire de la mer d’Aral, puis Réponses aux observations précédentes, dans le Bulletin de la Société de Géographie, août 1873, p. 113-118, et novembre 1873, p. 533-536, texte intégral sur Gallica [archive].
    • René Letolle et Monique Mainguet, Aral, Springer-Verlag, Paris, 1993. (ISBN 0-38759-613-5)
    • Philip Micklin et Nikolay Aladin, Le sauvetage de la mer d’Aral, Pour la Science, 374 (décembre 2008), pp. 78–84.
    • René Letolle, La mer d’Aral : Entre désastre écologique et renaissance [archive], L’Harmattan, Paris, 2008. (ISBN 2-29607-719-6)
    • Justine Mattioli, Alain Blum et Marie-Hélène Mandrillon, Le Drame de la mer d’Aral à la télévision française (1990-2010), Penser les médias, éditions Le Bord de l’eau, Bordeaux, 2011. (ISBN 2-35687-139-X)
    • Raphaël Jozan, Les débordements de la mer d’Aral – Une sociologie de la guerre de l’eau, Partage du savoir, PUF, Paris, 2012. (ISBN 2-13059-434-4)
    • Igor S. Zonn, M. Glantz, Aleksey N. Kosarev, Andrey G. Kostianoy, The Aral Sea Encyclopedia [archive], Springer, 8 févr. 2009 – 298
    • Jérôme Delafosse, Les larmes d’Aral, Robert Lafont.Mai 2012

     :

     :

    10/05/2025 La bataille pour de nouveaux  » centres de données »

    Derrière ChatGPT et les IA génératives, se cachent des data centers XXL, des monstres de calcul hyper-énergivores, qui devraient à eux seuls accaparer 4 % de l’électricité mondiale en 2026. Une trajectoire intenable selon les spécialistes, sur fond de déclarations politiques et technologiques tonitruantes.

    Dans le monde de la tech, la guerre est déclarée. Derrière les looks décontractés, l’esprit start-up, les progrès stupéfiants, les applis amusantes, se joue aujourd’hui une bataille sans merci pour mettre la main sur les énormes ressources énergétiques nécessaires au bon fonctionnement des IA génératives qui sont en train d’envahir notre quotidien.

    Dès le lendemain de son investiture, le 21 janvier, Donald Trump annonçait le “projet Stargate”https://fr.wikipedia.org/wiki/Stargate_Project initié par OpenAI, visant à investir 500 milliards de dollars d’ici à 2029 pour construire aux États-Unis vingt data centers XXL dédiés à l’IA, et toute l’infrastructure énergétique nécessaire pour alimenter ces nouveaux monstres de calcul.

    Dans le même temps, une start-up chinoise, DeepSeek, DeepSeek | 深度求索provoquait une débâcle boursière dans la tech américaine avec son agent conversationnel très performant, et a priori beaucoup plus sobre que le ChatGPT d’OpenAI…

    La question de l’électricité

    Car le nerf de la guerre des nouvelles IA, c’est bien la question bassement matérielle de l’électricité. D’après les calculs réalisés cet automne par des chercheurs de la start-up Hugging Face de l’université Carnegie-Mellon, la génération d’un texte serait dix à vingt fois plus consommatrice d’énergie que les tâches basiques de classification et de reconnaissance automatique – 

    La production d’une image artificielle est encore bien plus énergivore : cela équivaut à décharger la moitié de la batterie de son téléphone portable – on n’ose imaginer le bilan des prochains films conçus par ces robots. “Les modèles d’IA générative sont beaucoup plus grands que les IA de reconnaissance visuelle, on parle de centaines de milliards de paramètres contre des millions, justifie un chercheur à l’université de Sydney. Et à la différence de la classification, il faut ici de nombreuses itérations de calcul pour produire une réponse.

    Aujoud’hui, chaque jour, dans le monde, 500 millions d’utilisateurs des réseaux informatiques dont ils disposent gratuitement ou pour des prix dérisoires, mobilisent des milliers de cartes graphiques de 400 à 700 watts de puissance chacune, qu’il s’agit d’alimenter en données et en électricité d’une manière ou d’une autre. 

    Cette électricité n’est pas gratuite. Elle fait appel à toutes les sources disponibles, centrales à charbon comme réacteurs nucléaires à fission…en attendant les capteurs d’énergie solaire à grande échelle et la fusion nucléaire. Elle concurrence les besoins de chauffage et d’éclairage dont la vie quotidienne ne peut plus se passer.

    Les données proviennent de « data centers » ou centres de données.

    Il s’agit d’infrastructures composées’un réseau d’ordinateurs et d’espaces de stockage. Cette infrastructure hautement sécurisée est utilisée par les entreprises pour organiser, traiter, stocker et entreposer de grandes quantités de données.

    Les data centers sont des éléments nouveaux qui sont arrivés dans l’équation électrique avec une vitesse ultrarapide, personne ne l’a vu venir, c’est très difficile de les intégrer au réseau. En France, il faut 5 à 7 ans pour faire un branchement haute tension”, précise un spécialiste. Ces nouvelles installations dites “hyperscale” mobilisent parfois plus de 1 000 mégawatts de puissance, l’équivalent de la puissance d’un réacteur nucléaire…

    L’Agence internationale de l’énergie, l’AIE, multiplie depuis un an les alertes et annonce un nouveau rapport pour avril. “Le moment est venu pour les décideurs politiques et l’industrie de collaborer à une vision pour répondre à cette source de demande d’électricité en croissance rapide, de manière sûre et durable”, déclarait en décembre son directeur exécutif. 

    Il faut dire que les projections de l’AIE ne peuvent qu’inquiéter. La consommation des data centers devrait doubler en 2030 et atteindre plus de 1 000 téra­wattheures… l’équivalent de 1,5 fois les besoins énergétiques de la France. Aux États-Unis, ces centres de calcul pourraient mobiliser près de 10 % de l’électricité américaine. En Europe et concerrnant la seule Europe une directive européenne en cours de signature devrait imposer la publication de ces chiffres… en Europe.

    Cependant, comme preuve que le problème commence à être pris au sérieux, les initiatives se multiplient ces derniers mois : concours de sobriété à l’image du Frugal AI challenge achevé début février au sommet pour l’IA de Paris ; création d’outils d’évaluation d’impact des algorithmes (CodeCarbon, Carbon ­Tracker…) ; propositions de nouveaux labels énergétiques délivrés aux IA (Green Algorithms, AI ­Energy Star)…

    Ce n’est vraiment pas réaliste de donner accès pour tout le monde à d’énormes modèles de milliers de milliards de paramètres très consommateurs en calcul”, selon la responsable du développement durable à IBM. “On a eu trop tendance à surdimensionner les IA génératives pour en faire des couteaux suisses capables de répondre aux questions les plus compliquées, confirme le directeur du Digital Lab de CentraleSupélec. Il faut revenir à des modèles plus adaptés aux besoins de chacun ; pas besoin de prendre un gros 4×4 SUV, le vélo c’est parfois mieux.” 

    De fait, dans les laboratoires, les chercheurs entament de grands travaux d’élagage en supprimant des neurones artificiels, ou même des couches entières de neurones finalement jugées non nécessaires ; les équipes de Nvidia sont récemment parvenues à réduire un modèle de 15 milliards de paramètres à 8 milliards, avec de substantielles économies d’énergie. Tout l’art des ingénieurs consiste dorénavant à alléger les modèles sans trop perdre en qualité de résultats.

    Il est d’ailleurs possible de transférer des connaissances des grands modèles vers les petits, un procédé appelé “distillation”. “Avec des architectures mieux pensées, des données d’entraînement mieux sélectionnées, en étant moins dans la force brute et en accélérant la convergence, on obtient des modèles réduits très performants”, assure François Terrier. 

    De même “Au lieu de paramètres codés en format 32 ou 16 bits, nous les codons maintenant en 8 bits, cela réduit la taille du modèle ; même s’il faut faire de subtils compromis entre la ­précision et l’efficacité de calcul.” C’est ce bricolage astucieux qui a notamment contribué à la saisissante sobriété du modèle chinois DeepSeek. 

    Du coté des hardware

    Du côté du hardware, les industriels sont lancés dans une course permanente à l’efficacité . En parallèle à la loi de Moore, la “loi de Koomey” veut que la quantité de calculs par joule consommée double tous les 18 mois. Et il faut le reconnaître, les spécialistes des composants dédiés à l’IA font très forts : “Notre dernière génération de carte graphique Blackwell a une efficacité énergétique 25 fois supérieure à la précédente, tout en étant 30 fois plus rapide”, selon le directeur des “data centers accélérés” chez Nvidia. Autant de composants brûlants qu’il va cependant falloir refroidir à moindre coût énergétique : “À Microsoft, nous explorons l’idée de faire circuler le liquide de refroidissement dans des microcanaux directement intégrés dans la conception des puces”, annonce Régis Lavisse.

    Jusqu’à quand pourront-ils tenir ce rythme effréné ? “Je pense que les gains d’efficacité à portée de main ont déjà été récoltés, les améliorations des composants actuels sont en train de saturer face à l’explosion de la complexité du calcul, il faudrait changer d’approche”, lâche Naveen Verma, chercheur à l’université de Princeton. “On sera tous bientôt à zéro en termes d’efficacité des composants dans les data centers”, confirme un de ses collgues Grégory Lebourg. 

    Beaucoup de spécialistes des processeurs planchent en ce moment sur la possibilité de limiter les très énergivores transferts de données entre mémoires et unités de calcul. “Nous avons mis au point une puce qui exécute ces calculs d’IA directement dans la mémoire, une puce qui utilise également des signaux analogiques : cette approche permet d’être considérablement plus efficace que les cartes graphiques numériques actuelles”,

    Les propositions fourmillent : calcul en mémoire, analogique, réversible… mais aussi calcul neuromorphique cherchant à imiter le fonctionnement du cerveau humain, dont la modique puissance de 20 watts étonne les informaticiens. “Ces systèmes reposent sur un traitement événementiel, à l’image de nos neurones : ils ne traitent les informations que lorsque les événements se produisent, cela évite beaucoup de calculs inutiles”,

    Les programmeurs doivent encore s’adapter et les data centers ne sont pas prêts à se convertir au neuro­morphique, “mais plusieurs de ces composants sont déjà dans les fonderies de silicium et devraient débarquer dans les applications mobiles d’ici à trois ans, on parle de gains énergétiques d’un facteur 1000”,

    D’autres sont très sceptiques : “Nos travaux montrent que les gains d’efficacité en IA ont surtout servi à faire encore plus de calculs, la consommation d’énergie continuant d’augmenter fortement, selon la responsable de l’IA à l’université Paris-Saclay, qui craint un effet rebond. La frugalité prônée dans l’IA n’est pas synonyme de sobriété.”“Pour le moment, je ne vois pas de ralentissement, pas d’auto­régulation… bien au contraire”,

    Au début des années 2000, il y avait les mêmes craintes d’une explosion de la consommation d’énergie pendant le boom des ordinateurs PC, mais l’augmentation a en réalité été contenue grâce aux innovations”, veut rassurer une responsable de l’IA chez IBM. “Les défis sont là, mais il n’y a pas de blocage technique ou physique incontournable”,“Les chercheurs sont mobilisés. Ce n’est pas impossible qu’on trouve une solution”,

    09/05/2025 Les Etats-Unis préparent-ils une 3e guerre mondiale

    S’imaginer que Donald Trump soit devenu fou, en acceptant de dresser contre luii les quatre quarts des Etats de la planète dans une guerre des tarifs douaniers datant des siècles précédents serait bien naif. La Maison Blanche est riche de suffisamment d’experts civils et militaires pour éviter de telles erreurs.

    En fait, ce que veut faire Donald Trump n’est-il pas de préparer une prochaine guerre contre la Chine, sur le modèle de la seconde guerre mondiale menée par les Alliés contre l ‘ Axe nazie.

    Cette guerre sera conventionnelle. Si elle était nucléaire, même avec du nucléaire tactique tel que la nouvelle bombe nucléaire à gravité, dite B61-13, variante modernisée des traditionnelles B61, la riposte chinoise serait destructrice.

    Mais même conventionnelle, une guerre contre la Chine, dont l’armée, dite Armée populaire de Libération peut mobiliser cinq fois plus d’homme que l’US Army, ne sera pas gagnée d’avance, d’autant plus qu’elle se tiendra en partie dans les iles du Pacifique dont la Chine possède une grande expérience.

    Aussi Donald Trump cherche déjà à s’assurer la neutralité de la Russie et du Japon, sans mentionner celle d’une trentaine d’Etats de la zone Asie Pacifique dont il aura besoin. On constate d’ailleurs que beaucoup de ces Etats ont pris le chemin de Washington pour négocier un statut favorable. Les menacer aujourd’hui d’une guerre des tarifs douaniers ne sera pas une bonne façon d’obtenir leur appui.

    Existe-t-il aujourd’hui aux Etats-Unis suffisamment d’intérêts économiques pour approuver le projet d’une guerre véritable contre la Chine. Il semble que ce soit le cas dans les vieux Etats industriels qui ne se reconnaissent pas dans les succès américains au sein de la société de l’information et que concurrence durement la nouvelle industrie chinoise.

    Mais il n’est pas exclu qu’au sein même des sociétés de service de l’information américaines certains verraient avec intérêt leur mobilisation dans une guerre véritable contre la Chine, laquelle est de plus en plus envahissante dans leurs domaines.

    08/04/2025 Maladie d’Alzheimer. Possibilité de diagnostic précoce

    Le dépistage précoce d’Alzheimer permet de détecter les signes de la maladie avant que les symptômes ne soient trop prononcés, d’accéder plus rapidement aux traitements qui pourront ralentir la progression de la maladie et ainsi d’améliorer la qualité de vie des patients.

    La maladie d’Alzheimer est une affection neurodégénérative chronique qui affecte le cerveau. Il s’agit de la forme la plus courante de démence chez les personnes âgées.

    Les symptômes de la maladie d’Alzheimer 

    Les symptômes peuvent varier d’une personne à l’autre, mais ils comprennent généralement : des problèmes de mémoire à court terme, des difficultés à trouver des mots simples, des troubles de la pensée, des problèmes de raisonnement, des changements d’humeur, des problèmes d’orientation spatiale et temporelle, des difficultés à accomplir les activités de la vie quotidienne. La maladie d’Alzheimer est progressive : elle évolue de la légère perte de mémoire à une perte totale des capacités cognitives.

    Les facteurs de risque de la maladie d’Alzheimer

    Plusieurs facteurs de risque ont été identifiés : 

    • L’âge : le risque de développer la maladie d’Alzheimer est plus élevé chez les personnes âgées de plus de 65 ans ; 
    • Les antécédents familiaux : les personnes ayant des parents proches (père, mère, frère, sœur) ayant développé Alzheimer ont plus de risque que la population générale de développer la maladie ; 
    • Le style de vie : certaines habitudes comme une consommation excessive d’alcool, le tabac, une alimentation peu équilibrée, le manque d’activité physique, le manque de stimulation intellectuelle, peuvent augmenter le risque de développer la maladie ; 
    • Les maladies cardiovasculaires : l’hypertension artérielle, le diabète, l’hypercholestérolémie et l’obésité sont associés à un risque accru de développer la maladie. 
    • Les différentes techniques de dépistage de la maladie d’Alzheimer

    Le dépistage d’Alzheimer peut être réalisé à partir de différentes techniques : 

    • Une évaluation clinique : première étape du diagnostic, l’évaluation clinique est réalisée par un médecin qui évalue les antécédents médicaux, les symptômes et procède à un examen physique.
    • Des tests cognitifs : des tests spécifiques comme le Mini Mental State Examination – MMSE –, le Montreal Cognitive Assessment – MoCA –, le test des 5 mots de Dubois ou encore le test de l’horloge ont pour but d’évaluer les fonctions cognitives comme la mémoire, l’attention, le langage, la pensée abstraite et les capacités visuo-spatiales.
    • L’imagerie cérébrale : l’imagerie par résonance magnétique (IRM) et la tomographie par émission de positrons (TEP) peuvent être utilisées pour détecter des signes de changements cérébraux caractéristiques de la maladie d’Alzheimer, tels que l’atrophie cérébrale.
    • Les biomarqueurs : des analyses de sang, de liquide céphalorachidien ou d’autres fluides corporels peuvent être effectuées pour détecter la présence de biomarqueurs spécifiques associés à la maladie d’Alzheimer.
    • L’évaluation génétique : dans certains cas spécifiques (antécédents familiaux avérés), des tests génétiques peuvent être réalisés pour détecter des mutations génétiques rares associées à un risque accru de développer la maladie d’Alzheimer. 

    05/04/2025 CEA. Un record mondial pour l’énergie de fusion

    Le tokamak West du CEA est parvenu à maintenir un plasma pendant plus de 22 minutes le 12 février. Il bat ainsi très largement le record précédent de durée de plasma obtenu dans un tokamak. Cette avancée démontre que la connaissance des plasmas et leur maîtrise technologique sur de longues durées sont devenues bien plus matures, laissant espérer que des plasmas de fusion puissent être stabilisés sur de longues durées dans des machines comme Iter.

    Ce résultat améliore de 25 % le précédent record de durée, obtenu par le tokamak chinois East il y a quelques semaines.

    Atteindre une telle durée est un jalon essentiel pour des machines comme Iter, qui devront maintenir des plasmas de fusion pendant plusieurs minutes. Il faut en effet maîtriser le plasma, instable par nature, et s’assurer que les composants placés face à lui sont capables de supporter ses rayonnements, sans dysfonctionner ni le polluer.

    Dans les prochains mois, l’équipe de West compte prolonger ses efforts, en atteignant de très longues durées de plasma, de l’ordre de plusieurs heures cumulées, mais aussi en chauffant ce plasma à encore plus haute température pour se rapprocher au mieux des conditions attendues dans les plasmas de fusion.

    ——————————————-

    West est une installation du CEA, qui bénéficie de décennies d’expérience de l’organisme dans l’utilisation de tokamaks pour étudier les plasmas. Elle accueille des chercheurs du monde entier, qui exploitent ses caractéristiques indispensables à l’obtention de plasmas de longue durée, notamment ses bobines supraconductrices et ses composants refroidis activement.

    West fait partie d’un effort international aux côtés d’autres d’expériences majeures auxquelles les chercheurs du CEA participent fortement comme JET, le tokamak européen situé au Royaume-Uni (arrêté fin 2023) qui détient le record d’énergie de fusion, JT-60SA au Japon, East en Chine et KSTAR en Corée du Sud, sans compter la machine-phare qu’est Iter.

    Rappelons que la fusion nucléaire est une technologie dont le défi majeur est de maintenir le plasma, naturellement instable. Elle consomme encore moins de matière et de combustible que la fission déjà extrêmement concentrée, et ne produit pas de déchets radioactifs à vie longue.    

    Parmi les voies technologiques, la plus avancée pour générer de l’énergie est la fusion par confinement magnétique , où le plasma est confiné dans un tore grâce à un champ magnétique intense et chauffé jusqu’à obtenir la fusion de noyaux d’hydrogène. La fusion par confinement a déjà démontré sur JET une production de puissance fusion de l’ordre de 15 MW pendant plusieurs secondes.

    La France, qui accueille West et Iter, par sa longue expérience dans la fission nucléaire est bien placée pour accueillir la première centrale à fusion prototype. En effet, la fusion est une source d’énergie qui met en jeu des réactions nucléaires, avec de nombreuses complémentarités possibles avec l’énergie de fission et ses technologies relatives aux neutrons et aux matériaux, qui sont maîtrisées.


    Pour autant, compte-tenu des infrastructures nécessaires pour produire cette énergie à grande échelle, il est peu probable que les technologies de fusion contribuent significativement à l’atteinte du net 0 d’émissions de CO2 en 2050. Il faudra pour cela lever plusieurs verrous technologiques, mais aussi démontrer la faisabilité économique d’une telle production d’électricité.