23/08/2024 Comment vivre  enterré  sous la surface de la Lune

Il existe probablement un réseau dense de caves et de couloirs « enterrés » sous la surface de la Lune.

En effet, des chercheurs viennent de découvrir l’existence d’une immense grotte sous le sol de la Lune, accessible depuis la surface. Grâce à elle, les explorateurs seraient protégés des écarts extrêmes de température, des rayons cosmiques dangereux, du rayonnement solaire ou encore des pluies de micrométéorites qui rendent dangereux un séjour prolongé à la surface de notre satellite.

«Ces grottes étaient théorisées depuis plus d’un demi-siècle, selon Lorenzo Bruzzone, professeur à l’université de Trente et coauteur de l’étude parue dans Nature AstronomyMais c’est la toute première fois qu’on peut démontrer leur existence.»

Lui et ses collègues ont utilisé les données récoltées en 2010 par le Lunar Reconnaissance Orbiter (LRO), sonde spatiale de la Nasa pour inspecter la surface de la mer de la Tranquillité. Ce gigantesque bassin formé par des coulées de lave était le site d’alunissage d’Apollo 11 en 1969. En son sein, la plus grosse fosse que le LRO avait photographiée a suscité la curiosité des chercheurs de Trente.

Grâce à des simulations informatiques ils ont découvert la trace d’une caverne. Accessible grâce à une fosse ouverte mais tout de même située à 150 mètres de profondeur, elle mesurerait 45 mètres de large et 80 de long, soit l’équivalent de quatorze courts de tennis.

Les agences spatiales étudient déjà comment renforcer les murs et les plafonds de ces grottes pour les rendre habitables. Il faudra aussi surveiller leur activité sismique et prévoir des issues pour les astronautes en cas d’écroulements.

Au moins deux cents autres fosses ont été repérées sur la Lune, soit potentiellement autant d’entrées de grottes souterraines. «Le principal avantage des cavernes est qu’elles offrent le cadre d’une base humaine opérationnelle qui demanderait autrement un chantier complexe», selon Leonardo Carrer, l’auteur principal de l’étude.

Une autre inconnue est l’accès. Établir une base dans une grotte requerrait déjà «de descendre 125 mètres sur une pente abrupte où le moindre mouvement risquerait de projeter une avalanche de débris vers le fond», craint Robert Wagner, chercheur à l’université d’État de l’Arizona. «Il est certainement possible d’y entrer et d’en sortir, mais ça demanderait des infrastructures conséquentes.»

La preuve, s’il en fallait une, qu’il reste beaucoup de travail avant de pouvoir coloniser la Lune. Serait-ce un argument pour accélérer le processus? La NASA et l’ESA et  ne sont pas les seules intéressées  le programme spatial chinois enquête également sur la faisabilité d’une base à l’intérieur de ces tunnels de lave.

Référence

  1. nature astronomy  
  2. article
Radar evidence of an accessible cave conduit on the Moon below the Mare Tranquillitatis pit

Several potential subsurface openings have been observed on the surface of the Moon. These lunar pits are interesting in terms of science and for potential future habitation. However, it remains uncertain whether such pits provide access to cave conduits with extensive underground volumes. Here we analyse radar images of the Mare Tranquillitatis pit (MTP), an elliptical skylight with vertical or overhanging walls and a sloping pit floor that seems to extend further underground. The images were obtained by the Mini-RF instrument onboard the Lunar Reconnaissance Orbiter in 2010. We find that a portion of the radar reflections originating from the MTP can be attributed to a subsurface cave conduit tens of metres long, suggesting that the MTP leads to an accessible cave conduit beneath the Moon’s surface. This discovery suggests that the MTP is a promising site for a lunar base, as it offers shelter from the harsh surface environment and could support long-term human exploration of the Moon.

23/08/2024 Avancées dans le domaine de la fusion nucléaire

Celles-ci sont nombreuses. Elles sont souvent le fait de start-up. Nous y reviendrons.

Dans l’immédiat, signalons une annonce provenant de chercheurs du MIT. Ils estiment possible de construire un premier réacteur en une dizaine d’années

Pour parvenir à leurs fins, ils ont employé de nouveaux supraconducteurs, déjà disponibles dans le commerce. Ces supraconducteurs à base d’oxyde de baryum, de cuivre et de terres rares, et baptisés Rebco (rare-earth barium copper oxide), se présentent sous forme de rubans. De quoi permettre aux chercheurs du MIT de fabriquer des bobines génératrices de champs magnétiques particulièrement intenses, suffisamment pour confiner du plasma, la clé d’un réacteur à fusion nucléaire. Ils ont baptisé leur projet ARC, pour affordable, robust, compact (abordable, robuste et compact).

La fusion nucléaire consiste à faire fusionner deux noyaux atomiques légers, des noyaux d’hydrogène en l’occurrence. Or, les noyaux sont électriquement positifs et deux charges de même signe se repoussent. Seules des températures extrêmes, qui se compteraient en millions de degrés, peuvent accélérer les noyaux au point de leur permettre de casser la barrière dressée par les forces électromagnétiques.

Actuellement la plupart des scientifiques s’accordent à dire que la meilleure solution pour y parvenir est celle du tokamak, une boîte magnétique géante dans laquelle deux isotopes de l’hydrogène, le deutérium et le tritium, seraient confinés et maintenus à une température de quelque 150 millions de degrés. À cette température, la matière se présente sous la forme d’un plasma, un gaz extrêmement chaud et électriquement chargé. C’est ce qu’exige la fusion nucléaire.

Un prototype à grande échelle de ce type de réacteur est actuellement en cours de construction à Saint-Paul-lez-Durance, en Provence-Alpes-Côte d’Azur. Le projet Iter vise à valider la faisabilité scientifique et technologique de l’énergie de fusion et à ouvrir la voie à son exploitation industrielle. Au cœur de ce réacteur seront produits des noyaux d’hélium, des neutrons et de l’énergie. Les noyaux d’hélium, chargés, resteront confinés dans le tokamak sous l’effet du champ magnétique. 80 % de l’énergie produite sera portée par les neutrons, insensibles au champ magnétique. Ceux-ci transféreront leur énergie sous forme de chaleur aux parois du réacteur. Une chaleur qui sera, par la suite, utilisée pour produire vapeur et électricité.

La solution proposée par les chercheurs du MIT pour leur projet ARC repose sur les mêmes principes physiques. Cependant, basée sur des champs magnétiques bien plus intenses, elle permet de diminuer la taille du réacteur et, partant, son coût. Elle permet aussi d’envisager d’autres avancées. Les scientifiques ont en effet établi qu’en doublant l’intensité du champ magnétique appliqué, l’énergie produite pourrait être multipliée par 16 !

Avec un réacteur tel que l’ ARC, l’énergie produite serait 10 fois supérieure à celle que l’on attend en utilisant des supraconducteurs classiques. Ainsi, un réacteur d’un diamètre deux fois plus petit que celui d’Iter pourrait produire tout autant d’énergie, pour un coût bien moindre et une durée de construction plus courte. Rappelons tout de même que Iter n’est pas prévu pour produire de l’électricité mais pour valider des concepts techniques.

Parmi les autres avantages cités par l’équipe du MIT : la possibilité de remplacer le cœur de fusion sans avoir à démanteler le réacteur tout entier. De quoi mener aisément des recherches plus poussées (matériaux, conception, etc.) dans le but d’améliorer encore les performances du système. De même, les matériaux solides qui entourent habituellement ce type de réacteur pourront être remplacés par un liquide qui pourra facilement être mis en circulation autour de la chambre de fusion et remplacé sans grand frais.

Pour le moment, aucun réacteur à fusion n’a pu produire plus d’énergie qu’il n’en consomme. Or, dans sa configuration actuelle, l’ARC serait théoriquement capable de produire trois fois plus d’électricité que celle utilisée pour le faire fonctionner. Et les chercheurs du MIT assurent que ce rendement pourrait être doublé très rapidement…

Source

https://www.clubic.com/energie-renouvelable/actualite-383832-des-scientifiques-du-mit-font-un-pas-de-geant-vers-la-fusion-nucleaire.html

Voir en parallèle

https://www.lefigaro.fr/sciences/huit-ans-de-retard-pour-le-projet-de-fusion-nucleaire-iter



22/08/2024 LUCA, le premier ancêtre commun

L’ADN que l’on trouve dans tous les organismes vivants, y compris dans les cellules les plus simples, de l’ E coli jusqu’à la baleine bleue, a de si nombreuses similarités que tout laisse penser qu’il a évolué beaucoup plus tôt que l’on ne le croyait, à partir d’un organisme commun apparu il y a des milliards d’années et qui fut nommé le dernier ancêtre commun universel (last universal common ancestor ou LUCA).

De nombreux travaux ont été fait pour se représenter LUCA concrètement, de quelle façon il a vécu et ce qu’était sa biologie. Aujourd’hui une étude visant à une approche plus large a été entreprise et elle a déjà donné des résultats surprenants . Philip Donoghue de l’Université de Bristol (UK) en a été l’un des responsables.

Les gènes que l’on trouve aujourd’hui dans toutes les branches du vivant pourraient avoir été transmis selon une ligne ininterrompue de LUCA jusqu’à nos jours. Ceci pourrait permettre de se représenter ce qu’était LUCA , quand il avait vécu et comment ses gènes avaient évolué.

En pratique le travail est bien plus difficile à faire qu ‘il ne semble. Cependant Donoghue et son équipe ont réalisé une modélisation visant à faire apparaître du mieux possible ce qu’étaient les gènes de l’ancêtre commun. Ils obtinrent les gènes d’un organisme bien plus complexe que l’on imaginait.

Celui-ci aurait disposé de 2.600 gènes codant des protéines, au lieu des 80 que l’on croyait précédemment. Par ailleurs, LUCA devait vivre il y a 4,2 milliards d’années alors que la Terre s’était formée en tant que planète habitable il y a seulement 4,5 milliards d’années. Il aurait donc survécu au dernier bombardement lourd de météores que la Terre avait subi il y a environ 3,8 millions d’années.

Comme LUCA possédait des gènes destinés à protéger contre les rayons UV, les chercheurs pensent qu’il vivait à la surface des océans, plutôt que plus profondément. D’autres gènes suggèrent qu’il se nourrissait d’hydrogène, l’oxygène n’étant pas encore apparu. Il semble également qu’il devait posséder un système rudimentaire de défense contre les virus, dit CRISPR.

Ceci signifie que dès cette époque, les virus étaient apparus. Rappelons que pour certains scientifiques ils provenaient d’autres planètes du système solaire et auraient été transmis par des comètes, ce qui aurait expliqué l’apparition de la vie sur la Terre. Ils étaient assez robustes pour résister à des voyages interplanétaires.

LUCA pouvait participer à un large écosystème d’organismes de ce type, aujourd’hui disparus. Cependant certains chercheurs, dont Patrick Forterre de l’Institut Pasteur de Paris, doutent qu’ils aient pu survivre au bombardement de météores. Ces organismes étaient donc postérieurs.

Référence
Nature Ecology and Evolution

doi.org/m7r3

21/08/2024. Des molécules d’eau détectées dans des échantillons de sol lunaire


Depuis une vingtaine d’années la présence d’eau dans le sous-sol lunaire avait été suspectée. En 2008, à la suite de la mission américaine Apollo, des chercheurs avaient annoncé avoir trouvé de l’eau dans les échantillons de sol volcanique rapportés à cette époque. Mais il était apparu qu’il s’agissait de groupes hydroxyles constitués d’O et de H2 associés et non d’eau H2O proprement dite. Pour en obtenir de l’eau, ou plutôt de la vapeur d’eau, il faudrait les chauffer à plus de 1000°.

Par ailleurs , les satellites orbitant autour de la Lune y ont aussi vu épisodiquement des reflets qui pourraient révéler la présence de flaques d’eau glacée, mais cette eau n’avait pas pu être observée directement dans un échantillon de sol.

Aujourd’hui la question de l’eau se pose à nouveau.

A la suite de la mission chinoise Chang’e-5 sur la Lune, des échantillons de sol lunaire avaient été rapportés sur la Terre. L’analyse de ceux-ci par des chercheurs de l’académie des sciences de Beijing a montré que s’y trouvaient des minéraux comportant des molécules d’eau, ainsi que du magnésium, de l’ammoniaque et de la chlorine. Ce sol pourrait-il fournir assez d’eau à l’avenir pour satisfaire aux besoins de futures missions humaines ?

Des gaz volcaniques chauds passant près d’une roche lunaire basaltique auraient pu dans le passé générer ces minéraux. Or il suffirait de les chauffer à 400° pour en extraire de la vapeur d’eau.+



20/08/24 Un conflit entre les supernovae SN Ia et le rayonnement fossile

Cela fait des années que l’on parle régulièrement de la « tension de Hubble » en tant que facteur déterminant de la crise du modèle cosmologique standard comportant matière et énergie noire, crise qui pourrait même être une crise de la physique fondamentale.

Cette tension est en effet potentiellement la manifestation de l’existence d’une énergie noire affectant l’expansion de la totalité de l’espace observable de telle sorte que cette expansion semble s’accélérer depuis un peu plus de 5 milliards d’années.

Depuis quelques mois, cependant, un groupe de chercheurs menés par la cosmologiste de l’université de Chicago Wendy Freedman avait commencé à expliquer que selon des analyses des observations faites avec le télescope spatial James-Webb et effectuées par elle et ses collègues, il n’y avait peut-être pas finalement de « tension de Hubble », et donc encore moins de nouvelle physique à prendre en considération

____________________________________

Wendy Freedman vient de faire valoir point de vue dans un article du 12 août 2024 dont on trouvera ci-dessous les références et l’abstract

_____________________________________

Mais de quoi parle-t-on vraiment avec la « tension de Hubble » ? Il s’agit du désaccord de plus en plus significatif apparaissant , aux erreurs de mesure près, entre deux méthodes importantes de détermination d’une constante notée H0 qui intervient de façon fondamentale dans la Loi de Hubble-Lemaître permettant de relier la distance d’une galaxie à son décalage spectral.

Cette constante est un paramètre fondamental du modèle cosmologique standard que l’on peut évaluer en mesurant précisément les caractéristiques du rayonnement fossile. Ceci a été fait avec la mission Planck.en tenant compte de plusieurs sources d’erreurs possibles.

Le prix Nobel de physique Adam Riess et ses collègues, comme Saul Perlmutter, avaient entrepris de mesurer la constante de Hubble-Lemaître en utilisant le télescope Hubble puis le James Web Space Telescope afin d’étudier les explosions de supernovae SN Ia dans des galaxies de plus en plus lointaines. Lui et ses collègues trouvaient une valeur différente. En fait, depuis 10 ans, l’écart se creusait entre ces mesures obtenues par deux méthodes, l’étude du rayonnement fossile donnant H0 = 67.4 ± 0.5 km s−1 Mpc−1 et les supernovae H0 = 73.0 ± 1.0 km s−1 Mpc−1.

 La méthode de la parallaxe

C’est le mathématicien et astronome Hipparque, peut-être le fondateur de la trigonométrie, qui a semble-t-il utilisé pour la première fois la méthode dite de la parallaxe pour mesurer les distances des planètes dans le Système solaire. Mais c’est Copernic qui le premier a eu l’idée de transposer la méthode à l’échelle des étoiles. Les tentatives en ce sens restèrent vaines jusqu’au début du XIXe siècle, lorsque Friedrich Bessel réussit enfin, en 1838, à mesurer la parallaxe de 61 Cygni.

La méthode est simple : il suffit de mesurer le changement de position apparent d’une étoile sur la sphère céleste au cours de l’année. La simple mesure de l’angle p, la parallaxe, à deux positions sur l’orbite terrestre formant une base triangulaire, permet de connaître la distance de l’étoile à notre Système solaire, si l’on connaît la distance moyenne Terre-Soleil, dite  unité astronomique (UA)

Toutefois, cette méthode ne fonctionne bien que pour des étoiles relativement proches, comme Alpha du Centaure ou Tau Ceti. Elle devient de moins en moins précise avec la distance et de plus en plus difficile à mesurer, car p devient de plus en plus petit. C’est pourquoi on se sert de la méthode de la parallaxe pour calculer la distance des étoiles variables particulières que sont les céphéides. On peut relier la magnitude absolue de ces étoiles à la variation périodique de leur luminosité. En mesurant leur luminosité apparente, on peut en déduire leur distance.

Ainsi, par ce que l’on appelle la loi de Tully-Fisher, il est possible de connaître la luminosité intrinsèque des galaxies spirales qui vont alors jouer dans le monde des galaxies le même rôle que les céphéides.

On ne peut pas se servir à grande distance des céphéides pour deux raisons, d’abord elles ne sont pas assez brillantes et enfin, il faut pouvoir atteindre une résolution suffisante avec un télescope pour distinguer une céphéide se trouvant dans une lointaine galaxie.

On peut finalement utiliser la loi de Tully Fisher pour calibrer des mesures de distance à l’échelle cosmologique au moyen des explosions de supernovae SN Ia. Ce sont des explosions de naines blanches dont la luminosité ne doit pas beaucoup varier. Comme ces explosions sont très lumineuses, elles permettent de sonder des distances sur plusieurs milliards d’années-lumière

référence

https://www.futura-sciences.com/sciences/actualites/astronomie-ce-fin-crise-cosmologie-tension-hubble-grace-telescope-james-webb-115265/

________________________________________

Status Report on the Chicago-Carnegie Hubble Program (CCHP): Three Independent Astrophysical Determinations of the Hubble Constant Using the James Webb Space Telescope

Submitted on 12 Aug 2024]

Wendy L. FreedmanBarry F. MadoreIn Sung JangTaylor J. HoytAbigail J. LeeKayla A. Owens

We present the latest results from the Chicago Carnegie Hubble Program (CCHP) to measure the Hubble constant using data from the James Webb Space Telescope (JWST). This program is based upon three independent methods: (1) Tip of the Red Giant Branch (TRGB) stars, (2) JAGB (J-Region Asymptotic Giant Branch) stars, and (3) Cepheids. Our program includes 10 nearby galaxies, each hosting Type Ia supernovae, suitable for measuring the Hubble constant (Ho). It also includes NGC 4258, which has a geometric distance, setting the zero point for all three methods. The JWST observations have significantly higher signal-to-noise and finer angular resolution than previous observations with the Hubble Space Telescope (HST). We find three independent values of Ho = 69.85 +/- 1.75 (stat) +/- 1.54 (sys) for the TRGB, Ho = 67.96 +/- 1.85 (stat) +/- 1.90 (sys) for the JAGB, and Ho = 72.05 +/- 1.86 (stat) +/- 3.10 (sys) km/s/Mpc for Cepheids. Tying into supernovae, and combining these methods adopting a flat prior, yields our current estimate of Ho = 69.96 +/- 1.05 (stat) +/- 1.12 (sys) km/s/Mpc. The distances measured using the TRGB and the JAGB method agree at the 1% level, but differ from the Cepheid distances at the 2.5-4% level. The value of Ho based on these two methods with JWST data alone is Ho = 69.03 +/- 1.75 (total error) km/sec/Mpc. These numbers are consistent with the current standard Lambda CDM model, without the need for the inclusion of additional new physics. Future JWST data will be required to increase the precision and accuracy of the local distance scale.

Subjects:Cosmology and Nongalactic Astrophysics (astro-ph.CO)
Cite as:arXiv:2408.06153 [astro-ph.CO]
 (or arXiv:2408.06153v1 [astro-ph.CO] for this version)
  https://doi.org/10.48550/arXiv.2408.06153 Focus to learn more

20/08/2024. Les glaciers des Andes vont-ils disparaître ?

Aujourd’hui, des observations aussi précises que possible montrent que ces glaciers ont retrouvé la taille qu’ils avaient il y a 130.000 ans.

Les Andes sont si élevées que l’on trouve des glaciers permanents tout au long de la chaine, même dans les latitudes tropicales. Or cela fait maintenant 10 ans qu’ils raccourcissent et se rétrécissent en conséquence d’une réchauffement qui affecte toutes les parties du monde.

Des chercheurs de l’Université de Berkeley ont analysé des morceaux de rochers jusque là situés sous quatre glaciers tropicaux et découvert par la glace à la suite de ce changement de température. Ils ont recherché les échantillons d’isotopes de carbone et de beryllium qui se forment dans des roches qui viennent d’être découvertes par le retrait des glaces et qui sont exposées aux rayons cosmiques.

Le niveau des isotopes était si bas dans certaines régions qu’ils étaient presque indétectables. Or un niveau identique avait été atteint lors de la précédente période interglaciaire s’étant produite il y a 130.000 ans et s’étant traduite par un réchauffement général.

Autrement dit l’état des glaciers dans les Andes est inférieur actuellement à celui qui était le sien depuis 11.700 ans au début de la période dite Holocène L’Holocène est le nom donné à la période interglaciaire qui a succédé au dernier cycle glaciaire. Cette période tout de suite chaude par rapport à ce qui précède, a débuté il y a environ 12 000 ans et elle est encore en cours de nos jours.

Référence

https://issues.fr/crise-de-glace-les-glaciers-andins-ont-recule-a-leur-plus-bas-niveau-depuis-11-700-ans/

19/20/2024 Il semble désormais inutile de lutter contre la production des gaz à effets de serre.

Une malédiction semble menacer le Terre : finir dans le prochain siècle comme une planète desséchée telle que sa voisine Mars. Les efforts pour limiter les effets du réchauffement climatique n’auront servi à rien.

La Terre dispose à la suite de plusieurs milliards d’années d’explosion de la vie végétale de telles réserves de pétrole et de gaz naturel qu’il n’aura pas été possible d’empêcher les humains de puiser dans ces réserves en rejetant dans l’atmosphère des milliards de tonnes de gaz à effets de serre.

Ainsi que le relatent Newsweek ou The Daily Telegraph, des chercheurs auraient découvert sous l’Antarctique un monde souterrain empli d’une quantité incalculable de gaz et de pétrole. Il y en aurait suffisamment pour rebattre, potentiellement, les cartes énergétiques et géopolitiques mondiales, et mettre un ultime coup de frein aux efforts pour libérer la Terre de sa dépendance aux hydrocarbures . A quoi bon désormais dépenser des sommes considérables pour développer des énergies renouvelables et mettre au point des centrales de fusion nucléaires telles que prévues dans le programme international ITER. Il suffira de creuser en des lieux non encore prospectés pour trouver toute l’énergie nécessaire pour des siècles de consommation.

La Russie aurait ainsi mis au jour l’équivalent de 511 milliards de barils de pétrole en Antarctique, soit près du double des réserves connues de l’Arabie saoudite. Cette découverte inquiète quant à ses conséquences climatiques et géopolitiques. Depuis 1959 et la signature à Washington du Traité sur l’Antarctique, le Continent blanc est, d’une certaine manière, un bien commun de l’humanité, une terre intouchable sauf pour les scientifiques. Ils y disposent de nombreuses bases et peuvent y effectuer diverses recherches, notamment concernant des volcans souterrains encore inconnus. A ce titre, ils y effectuent divers forages. Et il semble que ce faisant, les Russes aient fait il y a quelques années une découverte majeure.

Dès 2023, Le Matin faisait part des inquiétudes internationales autour d’un navire russe d’exploration polaire nommé Akademik Alexandre Karpinski, faisant la navette entre Le Cap, en Afrique du Sud et l’Antarctique

La raison de cette crainte, exprimée par des militants pour le climat, est résumée par le Daily Telegraph : si les scientifiques à bord du bateau d’exploration polaire partaient pour une mission de forages et d’études géologiques et sismiques, celles-ci semblaient destinées à chercher des réserves de pétrole ou de gaz naturel en Antarctique, malgré le bannissement international de son exploitation.

Or ce qu’ont trouvé les hommes de l’entreprise  russe géante RosGeo, https://rusgeology.ru/en/ dépasse largement les peurs ou les espérances. On peut douter que Vladimir Poutine, soumis à de nombreuses contraintes occidentales, décide de laisser dormir ces gisements. L’affaire est à suivre.

.

18/08/2024 La Russie prépare-t-elle une guerre nucléaire tactique contre l’OTAN ?

Nous lisons sur le site reseauinternational.net, que l’on peut aussi qualifier de « voix de Moscou » les affirmations suivantes :

https://reseauinternational.net/une-invasion-de-la-russie-nucleaire-par-lotan-est-actuellement-en-cours-et-le-monde-ignore-que-la-troisieme-guerre-mondiale-a-commence/

Le même discours s’adresse aux Canadiens https://www.mondialisation.ca/une-invasion-de-la-russie-nucleaire-par-lotan-est-actuellement-en-cours-et-le-monde-ignore-que-nous-vivons-la-troisieme-guerre-mondiale-la-patience-du-president-poutine-a-t-elle-atte/5691498?doing_wp_cron=1723937500.375689029

Il est repris, dans une dizaine de langues  à destination de la cinquantaine de pays où Reseauinternational est diffusé. Nous y lisons:

Pas à pas, Washington et ses partenaires de l’OTAN ont franchi une ligne rouge à la suite de l’autre.

  • Tout d’abord, les armes de l’OTAN en Ukraine ;
  • puis les troupes de l’OTAN en Ukaine ;
  • puis des avions de chasse F-16 en Ukraine ;
  • puis les soldats de l’OTAN commandant les armes sophistiquées fournies par l’Occident ;
  • puis les troupes de l’OTAN sur les territoires russes ; puis les drones et les avions de l’OTAN attaquant les cibles russes sur le territoire russe – et enfin les troupes de l’OTAN tentent de prendre le dessus de tout un district russe, de faire des prisonniers russes, de tuer des Russes.

Les aéroports de toute la Russie ont été constamment bombardés pendant plusieurs semaines par des drones de l’OTAN. 

Le 9 août 2024, les médias de la Russie ont signalé une explosion, suivie d’un incendie sur la base aérienne russe dans la région de Lipetsk, à environ 280 kilomètres de la frontière avec le nord-est de l’Ukraine, comme si les forces de l’Ukraine / de l’OTAN avaient attaqué l’aérodrome et détruit un entrepôt et plusieurs autres installations avec des bombes guidées ; guidées par des experts de l’OTAN. 

Or la Russie a la capacité militaire d’anéantir simultanément les centres décisionnels et militaires occidentaux, ainsi que les centres financiers, avec des armes nucléaires tactiques supersoniques ultra-précises, en limitant au maximum les pertes humaines, mais en mettant hors d’état de nuire les structures de pouvoir occidentales.

Faut-il en retenir que Vladimir Poutine appelle tous ses alliés dans le monde à soutenir la Russie dans la perspective où elle utiliserait des armes nucléaires tactiques supersoniques contre l’OTAN ? Que devrait faire plus précisément la Chine et l’Inde ?

,

18/08/2024. Un réacteur nucléaire qui se refroidit de lui même en cas de panne du système réfrigérant

Au Japon, après le tsunami du 9 mars 2011, au niveau de la centrale nucléaire de Fukushima Daiichi, située sur le littoral, la vague atteint 15 mètres de haut et met hors service les systèmes assurant le refroidissement des réacteurs et des piscines de stockage du combustible irradié, ce qui entraîne la fusion des cœurs des réacteurs 1, 2 et 3 ainsi que la surchauffe de la piscine de désactivation du réacteur 4.

Pour éviter le retour de tels accidents, l’industrie nucléaire chinoise a expérimenté un nouveau type de réacteur dit Pebble Bed Reactor. https://en.wikipedia.org/wiki/Pebble-bed_reactor. Plutôt qu’utiliser des barres d’uranium de haute énergie pour chauffer le liquide des turbines , le PBR emploie un grand nombre de galets (pebble) constitués d’un noyau d’uranium entouré d’une couche de graphite. Ce dispositif est destiné à ralentir les réactions nucléaires en cas de surchauffe et disperser celles-ci sur l’ensemble des galets, ce qui rendra l’évacuation du combustible plus facile en cas d’accident.

Des prototypes avaient déjà été essayés en Allemagne et en Chine. Mais dorénavant un réacteur dit High Temperature Gaz-cooled Reactor Pebble-bed Module est en fonctionnement à Shandong. Il peut atteindre une température stable 35 heures après la coupure de l’électricité. Il sera bientôt proposé à la vente.

En France, la start-up Jimmy Energy a repris ce concept sous la forme de mini-réacteurs destinés à produire non de l’électricité mais de la chaleur industrielle. https://www.discoverthegreentech.com/encyclopedie/entreprises/jimmy-des-mini-reacteurs-nucleaires-graphite-gaz/

Pour en savoir plus https://www.discoverthegreentech.com/nucleaire/fonctionnement-centrale-fission/reacteurs/haute-temperature-htr/lit-de-boulets-pbr/

Voir notre article précédant

https://europesolidaire.eu/2024/08/15/15-09-2024-les-reacteurs-nucleaires-de-4e-generation/

17/08/2024 Un robot-chien qui désherbe les jardins au lance-flamme

Cette solution est à l’étude pour éviter aux gestionnaires de jardins et autres espaces verts d’avoir recours à des désherbants chimiques tels que le glyphosate toujours toxiques pour les utilisateurs.

Des chercheurs de l’Université du Texas ont mis au point un lance-flammes propane-butane contrôlé par un bras robotique, le tout porté par un robot dit Spot de Boston Dynamics

La solution sera peut-être à éviter dans les périodes de sécheresse dues au réchauffement climatique

Spot est un peu semblable à un chien dont il possède l’agilité

Spot de Boston Dynamics https://bostondynamics.com/products/spot/

Référence

https://arxiv.org/abs/2407.04929

[Submitted on 6 Jul 2024]

Toward Precise Robotic Weed Flaming Using a Mobile Manipulator with a Flamethrower

Authors Di Wang, and others

Robotic weed flaming is a new and environmentally friendly approach to weed removal in the agricultural field. Using a mobile manipulator equipped with a flamethrower, we design a new system and algorithm to enable effective weed flaming, which requires robotic manipulation with a soft and deformable end effector, as the thermal coverage of the flame is affected by dynamic or unknown environmental factors such as gravity, wind, atmospheric pressure, fuel tank pressure, and pose of the nozzle. System development includes overall design, hardware integration, and software pipeline. To enable precise weed removal, the greatest challenge is to detect and predict dynamic flame coverage in real time before motion planning, which is quite different from a conventional rigid gripper in grasping or a spray gun in painting. Based on the images from two onboard infrared cameras and the pose information of the flamethrower nozzle on a mobile manipulator, we propose a new dynamic flame coverage model. The flame model uses a center-arc curve with a Gaussian cross-section model to describe the flame coverage in real time. The experiments have demonstrated the working system and shown that our model and algorithm can achieve a mean average precision (mAP) of more than 76\% in the reprojected images during online prediction.