26/07/2024 La Chine prendra-t-elle l’avantage dans le nucléaire de fission ?

La Chine a récemment annoncé une avancée majeure dans le domaine de l’énergie nucléaire classique (fission) en développant un premier réacteur de grande taille apparemment résistant à la chaleur. Cette nouvelle technologie représente une solution prometteuse aux défis posés par les réacteurs nucléaires traditionnels et pourrait jouer un rôle crucial dans l’atténuation du changement climatique.

Les atouts de la Chine dans le domaine de l’exportation de ces réacteurs, dont le marché ne cesse de s’étendre, devraient en être augmentés.

——————————————

Les réacteurs nucléaires traditionnels nécessitent des systèmes de refroidissement motorisés pour évacuer l’excès de chaleur du cœur du réacteur. La plupart d’entre eux utilisent de l’eau comme réfrigérant, tandis que d’autres utilisent des substances telles que le CO2, l’hélium, les métaux fondus ou les sels fondus.

Les systèmes de refroidissement par eau offrent une densité de puissance élevée et une meilleure efficacité thermique, mais ils présentent également des risques significatifs. En cas de perte de puissance des pompes à eau, la chaleur des barres de combustible peut en effet provoquer la dissociation de l’eau en hydrogène et en oxygène, ce qui entraîne un risque d’explosion. Ce problème a contribué à l’accident nucléaire de Fukushima en 2011. De leur côté, les réacteurs refroidis au gaz, bien que moins susceptibles d’exploser, tendent à avoir une efficacité thermique inférieure.

Indépendamment du type de système de refroidissement, une intervention humaine est souvent nécessaire en cas d’urgence pour arrêter le réacteur, car ces installations dépendent de sources d’énergie externes. Cette dépendance constitue un risque majeur. En effet, une défaillance du système de refroidissement peut conduire à des catastrophes nucléaires.

Face à ces défis, la Chine a développé un nouveau type de réacteur appelé réacteur à lit de boulets (PBR). Ce réacteur se distingue par sa sécurité passive, c’est-à-dire qu’il peut s’arrêter de lui-même en cas de problème avec le système de refroidissement.

Dans le détail, contrairement aux réacteurs traditionnels utilisant des barres de combustible à haute densité énergétique, les PBR utilisent de petits galets de combustible à faible densité énergétique entourés de graphite. Ils présentent plusieurs avantages significatifs. En effet, outre le fait d’offrir une sécurité passive, ils sont plus petits et plus nombreux que les barres de combustible. Ils permettent également une distribution plus uniforme de la chaleur à l’intérieur du réacteur, ce qui réduit les points chauds locaux et diminue le risque de fusion du combustible.

Enfin, le graphite (qui entoure les galets) agit comme un modérateur neutronique. Autrement dit, il ralentit les neutrons, ce qui stabilise et contrôle les réactions nucléaires dans le cœur du réacteur. Cette modération permet de maintenir les réactions nucléaires à un rythme plus gérable et génère moins de chaleur excessive.

Les ingénieurs chinois ont réussi des tests cruciaux pour vérifier la sécurité de cette nouvelle technologie. En éteignant leurs deux modules à pleine puissance, ils ont observé que les réacteurs pouvaient se refroidir naturellement sans nécessiter de systèmes de refroidissement d’urgence alimentés par l’énergie. Les tests ont montré que le réacteur atteignait une température stable en 35 heures après la coupure de courant.

Jusqu’à récemment, les réacteurs à lit de boulets (PBR) n’étaient que des prototypes expérimentaux qui n’étaient pas encore utilisés à grande échelle pour la production commerciale d’énergie. Désormais, la Chine dispose d’un premier réacteur en service capable de produire de l’énergie pour la consommation publique. Situé dans la province du Shandong, il est opérationnel depuis décembre 2023.

L’étude est publiée dans la revue Joule. Nous en republions ici les références et le sommaire

Loss-of-cooling tests to verify inherent safety feature in the world’s first HTR-PM nuclear power plant

https://www.cell.com/joule/abstract/S2542-4351(24)00290-3?

  • The loss-of-cooling tests were performed on HTR-PM reactors at 200-MWt power level
  • The test results show that the reactors can be naturally cooled down
  • The existence of commercial-scale inherent safety is manifested for the first time

Summary

Nuclear fission energy is the low-carbon resource that helps manage the cost of deep decarbonization. Safety is the basis of deploying nuclear power plants near load centers on a large scale. The inherent safety of nuclear reactors depends solely on the laws of nature. The world’s first demonstration plant of a high-temperature reactor with a pebble-bed module (HTR-PM) entered its commercial operation on December 6, 2023. Two safety tests were conducted on the two reactor modules of the HTR-PM plant, each at a power of 200 MWt. During the tests, the active power supply was totally switched off to see if the decay heat can be removed passively. The responses of nuclear power and temperatures within different reactor structures show that the reactors can be cooled down naturally without active intervention. The results of the tests manifest the existence of commercial-scale inherent safety for the first time.

26/07/2024 Première image d’une exoplanète

C’est le télécopie spatial James Webb qui a réussi à réaliser cette image. Il vient de la renvoyer sur la Terre pour analyse. Il faut bien préciser l’enjeu. James Webb dont la mission principale est de rechercher des traces de vie dans l univers, a déjà identifié plus de 3.000 exoplanètes, c’est à dire de planètes appartenant à d’autres systèmes que le notre

Mais il n’avait pu en obtenir autre chose que des points lumineux analogues aux étoiles que l’on voit de la Terre. Il était évidemment impossible d’en observer les détails, et notamment de savoir s’il s’agissait de planètes rocheuses analogues à la Terre, ou de géantes gazeuses telles que Jupiter. Or la vie telle que nous la connaissons ne pourrait apparaitre que sur des planères rocheuses à des tempéturs de surface inférieures à 100 degrés

L’exoplanète Eps Ind Ab

Autour de l’étoile Eps Ind A, à 12  annnés lumière de nous, James-Webb a réussi à imager une exoplanète gazeuse, baptisée Epsilon Indi Ab. C’est la première fois qu’une exoplanète est visible sur l’une des images prises par le Jwst. Il ne s’agit pas d’une image détaillée,mais c’est mieux qu’un point lumineux. Autre nouveauté, elle est plus froide qu’attendue.

Si l’étoile Eps Ind A est un peu plus petite et froide que notre Soleil, elle a environ le même âge. À ce jour, seules quelques planètes gazeuses ont été observées autour d’astres aussi vieux que notre étoile. Toutes l’ont été par des méthodes indirectes. En effet, en prenant de l’âge, les planètes se refroidissent, se contractent et deviennent plus difficiles à détecter.

La méthode indirecte utilisée pour détecter ces exoplanètes est celle dite des vitesses radiales, qui permet de mesurer la vitesse relative d’objets le long de l’axe de visée. C’est ainsi qu’avait initialement été observée Epsilon Indi Ab, une géante gazeuse semblable à Jupiter. Mais à cause d’un temps d’observation insuffisant, la masse de l’exoplanète et sa distance à Eps Ind A avaient été sous-estimées. En effet, puisqu’Epsilon Indi Ab met 200 ans à tourner autour d’Eps Ind A, il est difficile de définir précisément son orbite en seulement quelques années d’observation.

Les méthodes indirectes n’étant pas assez précises et les astronomes ne pouvant attendra 200 ans pour déchiffrer le comportement d’Epsilon Indi Ab, ils ont opté pour une observation directe de la planète grâce au puissant James-Webb Spatial Telescope, qui scrute le cosmos dans l’infrarouge proche et moyen. Ce faisant, ils ont découvert que cette exoplanète est l’une des plus froides observées à ce jour, puisque sa température avoisine 0 °C. De plus, ils ont enfin pu déterminer l’orbite d’Epsilon Indi Ab : son aphélie (point le plus éloigné du centre d’une orbite héliocentrique) se trouve entre 20 et 40 unités astronomiques, comme pour Neptune avec le Soleil.

L’exoplanète apparaît également moins lumineuse qu’attendu dans certaines longueurs d’onde. C’est sans doute le signe de la présence de quantités importantes d’éléments lourds, en particulier de carbone, un précurseur de molécules telles que le méthane, le dioxyde ou le monoxyde de carbone, courantes sur les planètes géantes gazeuses.

https://www.futura-sciences.com/sciences/actualites/james-webb-space-telescope-ce-telescope-james-webb-nous-apprend-cette-exoplanete-potentiellement-habitable-104346/

Source

nature  Article
Published: 24 July 2024

A temperate super-Jupiter imaged with JWST in the mid-infrared

  • E. C. Matthew and others
  • Abstract
  • Of the ~25 directly imaged planets to date, all are younger than 500Myr and all but 6 are younger than 100Myr1. Eps Ind A (HD209100, HIP108870) is a K5V star of roughly solar age (recently derived as 3.7-5.7Gyr2 and Gyr3). A long-term radial velocity trend 4,5 as well as an astrometric acceleration6,7 led to claims of a giant planet2,8,9 orbiting the nearby star (3.6384±0.0013pc10). Here we report JWST coronagraphic images that reveal a giant exoplanet which is consistent with these radial and astrometric measurements, but inconsistent with the previously claimed planet properties. The new planet has temperature ~275K, and is remarkably bright at 10.65µm and 15.50µm. Non-detections between 3.5-5µm indicate an unknown opacity source in the atmosphere, possibly suggesting a high metallicity, high carbon-to-oxygen ratio planet. The best-fit temperature of the planet is consistent with theoretical thermal evolution models, which are previously untested at this temperature range. The data indicates that this is likely the only giant planet in the system and we therefore refer to it as “b”, despite it having significantly different orbital properties than the previously claimed planet “b”.

25/07/2024 Le rôle essentiel de certains virus dans la lutte contre des affections bactériennes chez l’homme

La première chose que l’on apprend en biologie est de distinguer la bactérie du virus.

La bactérie est une entité biologique autonome mesurant de 1 à 10 microns. Organisme unicellulaire ne possédant pas de noyau, la bactérie est pourvue d’un appareil nucléaire constitué d’ADN, d’un flagelle qui lui permet de se déplacer et d’une capsule protectrice. Elle peut être aérobie, ce qui signifie qu’elle a besoin d’oxygène pour se développer, ou anaérobie. Elle peut se reproduire en se divisant et proliférer dans différents milieux qui leur sont favorables. On les retrouve dans le corps humain mais aussi dans l’eau, la terre ou en suspension dans l’air.

Les bactéries ne sont pas nécessairement pathogènes, bien au contraire. Présentes en nombre dans le système digestif, le microbiote, elles sont indispensables à son bon fonctionnement. La présence de nombreuses bactéries au niveau de la peau permet également de faire barrière aux infections. Ce sont également des bactéries qui sont à l’oeuvre dans certains phénomènes naturels tels que la fermentation.

A l’inverse de la bactérie qui est une cellule, le virus a une structure très simple. Plus petit que la bactérie, le virus mesure de 20 à 500 nanomètres. Il est constitué d’un ADN ou d’un ARN (acide ribonucléique) entouré d’une structure protéique appelée capside et parfois, mais pas toujours, d’une enveloppe. On va donc établir la classification des virus en fonction de la nature de l’acide nucléique du génome (ARN ou ADN), de la forme de la capside et de la présence ou non d’une enveloppe qu’on appelle aussi péplos.

Dans l’imaginaire collectif, les virus sont aussi dangereux pour l’homme que les bactéries. Ceci est exact dans la plupart des infections. Aujourd’hui cependant des études récentes révèlent que le « virome » qu’héberge l’organisme humain est essentiel dans la lutte de celui-ci contre les éléments pathogènes de son microbiome.

Chaque humain possède dans son virome des trillions de virus qui exercent un rôle indispensable dans son organisme, à commencer par le sang et le cerveau.

Un microbiologiste nommé David Pride, de l’Université de Californie, a entrepris de nouvelles recherches concernant les virus présents dans les divers fluides propres au corps humain, depuis la salive jusqu’au sang et aux liquides cérébraux. Lui et son équipe y trouvèrent des virus partout, pour un nombre estimé de 30 trillions, soit 10 fois plus nombreux que les microbes.

Définir leur rôle précis est encore pratiquement impossible. Il se révéla cependant que 97% de ces virus étaient des bactériophages, c’est-à-dire qui pénètrent et de reproduisent à l’intérieur des bactéries (https://en.wikipedia.org/wiki/Bacteriophage). Ils ne tuent pas nécessairement leurs hôtes, y demeurant dormant. Le plus souvent ils intègrent leur génome à celui de ceux-ci.

Chaque individu chez l’humain dispose de ses propres types de phages. Les nouveau-nés humains naissent dépourvus d’un virome identifiable. Ils les acquièrent progressivement, de même que les bactéries et autres composants du microbiome.

Les bactéries de leur coté ont développé des stratégies analogues. Il se produit en fait une sorte de course à l’armement se traduisant par un équilibre dans le nombre et la pugnacité des adversaires en présence.

Il résulte de ce qui précède qu’il est devenu prioritaire d’identifier chez les humains les domaines où la coopération entre virus et bactéries entraîne des résultats favorables, non seulement à chacune de ces espèces, mais à la survie en bonne santé de l’humain lui-même. Il se révèle que ces domaines sont de plus en plus nombreux.

24/07/2024 Construire une Cuve de réacteur nucléaire à fission en 24 heures

Des nouvelles récemment reçues en provenance du Royaume-Uni pourraient marquer un tournant important dans le domaine de l’énergie nucléaire. Une entreprise britannique aurait montré comment elle pourrait construire en moins de 24 heures une cuve de pression de réacteur nucléaire, élément crucial pour la sécurité et l’efficacité de ces installations. Aujourd’hui, cette opération prend jusqu’à un an.

Il s’agit bien entendu d’un réacteur à fission, à ne pas confondre avec le grand frère que sera le réacteur à fusion dont un prototype nommé ITER est en cours de mise en place à Cadarache en France.

La cuve de pression contient le combustible (uranium) sous la forme d’assemblages combustibles, ainsi que de l’eau en tant que fluide caloporteur et modérateur. La chaleur récupérée dans l’eau est utilisée dans le générateur de vapeur pour chauffer un second circuit d’eau. Cette chaleur est générée par la fission nucléaire d’un atome d’uranium.

Les phénomènes de fission comme de fusion nucléaire ont pour unique point commun : l’atome. Le processus de la fission, comme son nom l’indique, traduit la division d’un atome lourd en 2 atomes légers. Avec la fusion, c’est le phénomène inverse : deux atomes légers fusionnent pour constituer un atome plus Important

La fission se produit lors de la projection d’un neutron sur un atome lourd et instable, actuellement de l’uranium 235 . Cette collision va provoquer l’éclatement de ce dernier en 2 atomes plus légers. Lors de ce processus, une quantité importante et stable d’énergie est libérée et de nouvelles fissions d’atomes vont être provoquées en continu. Il s’agit d’une  réaction en chaîne.  

Le processus produit beaucoup de déchets radioactifs a cycle long, pouvant atteindre plusieurs siècles.

La solidité sur de longues années de la cuve de pression est essentielle. Même si elle ne faisait que se fissurer, l’effet produit serait celui d’une bombe nucléaire.

En libérant une forte quantité d’énergie, les phénomènes de fission et de fusion nucléaire sont utilisés pour la production de l’électricité. Si la fission reste la technologie la plus employée dans les réacteurs nucléaires d’aujourd’hui, la fusion dispose d’un avenir prometteur, ceci en vue d’une production énergétique plus abordable à tous égards et générant peu de déchets radioactifs. 

Avec une demande mondiale en électricité qui va presque doubler d’ici à 2050, la fission et la fusion contribueront à la réalisation d’une industrie décarbonée.

De mini- réacteurs à fission

Concernant les réacteurs nucléaires à fission, la tendance actuelle est la production de mini-réacteurs moins coûteux et plus facilement décentralisables dits SMR. 

Le sidérurgiste britannique Sheffield Forgemasters a récemment fait une percée majeure dans la fabrication de ces réacteurs. L’entreprise a développé une technique de soudage par faisceau d’électrons de la cuve de pression qui permet de réduire fortement le temps de production de cet élément central du  réacteur. 

 Cette méthode innovante présente plusieurs avantages :

  • réduction du temps de fabrication : de 5 mois à moins de 24 heures ;
  • assemblage de deux pièces de métal sans ajout de matériau extérieur ;
  • création d’une petite cuve sous pression nucléaire de haute qualité. 

La soudure par faisceau d’électrons, déjà utilisée dans l’industrie automobile et aérospatiale, permet une fusion des métaux à très grande vitesse . Une telle technique appliquée à la fabrication des SMR ouvre de nouvelles perspectives pour l’industrie nucléaire dont elle devrait réduire fortement le coût.

L’innovation de Sheffield Forgemasters s’inscrit dans un contexte de compétition mondiale pour le développement des mini-réacteurs nucléaires. De nombreux pays, dont le Royaume-Uni, la France, la Chine et les États-Unis, investissent dans cette technologie.

Les SMR présentent plusieurs avantages par rapport aux centrales traditionnelles :

  • puissance estimée entre 50 et 500 mégawatts (MW) ;
  • faible encombrement spatial ;
  • possibilité d’implantation dans des usines ;
  • flexibilité d’utilisation.

Le gouvernement britannique, sous la direction de Rishi Sunak, a fait du développement des SMR une priorité nationale. Cette stratégie vise à atteindre l’objectif de neutralité carbone d’ici 2050 tout en réduisant la  dépendance énergétique du pays vis-à-vis de l’étranger.

Malgré l’enthousiasme suscité par les SMR, leur développement ne fait pas l’unanimité. Des associations environnementales, comme Greenpeace, critiquent vivement cette technologie. Nicolas Nace, chargé de campagne transition énergétique de l’ONG, qualifie les SMR de nouveau mirage

La course au développement des SMR soulève également des questions géopolitiques. La Chine et les États-Unis disposent d’une avance considérable dans ce domaine, ce qui pourrait influencer les équilibres énergétiques mondiaux dans les années à venir.

Cependant l’innovation de Sheffield Forgemasters dans le domaine du soudage pourrait marquer un tournant dans l’industrie nucléaire. En réduisant considérablement le temps de fabrication des SMR, cette technique pourrait accélérer leur déploiement à l’échelle mondiale.

La France, qui a alloué un milliard d’euros au développement des SMR, vise à lancer son premier mini-réacteur d’ici 2030. D’autres pays, comme le Canada et la Russie, investissent aussi dans cette technologie.

L’avenir des mini-réacteurs nucléaires dépendra de plusieurs facteurs :

  • l’évolution des politiques énergétiques nationales et internationales ;
  • les progrès technologiques dans le domaine de la sûreté nucléaire ;
  • l’acceptabilité sociale et environnementale de cette technologie ;
  • la compétitivité économique face aux énergies renouvelables.

La  technique de soudage révolutionnaire développée par Sheffield Forgemasters pourrait être la clé pour débloquer le potentiel des mini-réacteurs nucléaires et accélérer la transition vers une énergie décarbonée.

Pour en savoir plus, voir

https://www.sheffieldforgemasters.com/news-and-insights/news/02/sheffield-forgemasters-makes-global-leap-in-nuclear-welding-technology/

24/07/2024 Production d’oxygène gazeux par électrolyse de l’eau sur les grands fonds océaniques

Un étrange « oxygène noir » a été détecté à plus de 4 kilomètres de profondeur, dans la plaine abyssale de la zone de fracture géologique de Clarion-Clipperton, dans le centre du Pacifique.

C’est ce que précise une étude parue dans Nature Géoscience le 22 juillet 2024 dont nous publions ci-dessous les références et l’abstract.

La zone avait été retenue comme cible pour l’exploitation minière sous-marine en raison de la présence de nodules polymétalliques riches en métaux (manganèse, nickel, cobalt…) . Ceux-ci sont nécessaires notamment à la fabrication des batteries pour véhicules électriques, éoliennes, panneaux photovoltaïques et téléphones portables.

C’est dans cette zone qu’un navire de l’Association écossaise pour les sciences marines ou SAMs (https://www.sams.ac.uk/ a effectué des prélèvements, financés par les sociétés The Metals Compagny et UK Seabed Resources qui recherchent ces nodules. L’objectif des recherches est d’évaluer l’impact d’une telle prospection sur un écosystème où l’absence de lumière empêche la photosynthèse et donc la présence d’algues vertes ou de plantes, mais qui sont emplies d’espèces animales uniques.

« On essayait de mesurer la consommation d’oxygène » du plancher océanique, en mettant ses sédiments sous des cloches appelées chambres benthiques, selon le Pr Andrew Sweetman, responsable du groupe de recherche sur l’écologie et la biogéochimie des fonds marins de l’association SAMS. premier auteur des travaux parus dans Nature Geoscience.

En toute logique, l’eau de mer ainsi emprisonnée aurait dû voir sa concentration en oxygène diminuer, à mesure que ce dernier était consommé par les organismes vivants à ces profondeurs. C’est pourtant l’inverse qui a été observé : « le taux d’oxygène augmentait dans l’eau au-dessus des sédiments, dans le noir complet et donc sans photosynthèse« .

La surprise a été telle que les chercheurs ont d’abord pensé que leurs capteurs sous-marins s’étaient trompés. Ils ont mené des expériences à bord de leur navire pour voir si la même chose se produisait en surface, en faisant incuber, dans le noir, ces mêmes sédiments et les nodules qu’ils contenaient. Ils ont constaté une nouvelle fois que le taux d’oxygène croissait. « A la surface des nodules, nous avons détecté une tension électrique presque aussi élevée que dans une pile AA » décrit le Pr Sweetman, en comparant ces nodules à des « batteries dans la roche« .

Ces étonnantes propriétés pourraient être à l’origine d’un processus d’électrolyse de l’eau H2O, qui sépare ses molécules en hydrogène et en oxygène à l’aide d’un courant électrique. Cette réaction chimique intervient à partir de 1,5 volt – la tension d’une pile – que les nodules pourraient atteindre quand ils sont regroupés, selon un communiqué de l’association SAMS joint à l’étude.

« La découverte de production d’oxygène par un processus autre que la photosynthèse nous incite à repenser la manière dont est apparue la vie sur Terre« , liée à l’apparition de l’oxygène, selon le Pr Nicholas Owens, directeur de SAMS. La vision « conventionnelle » étant que l’oxygène « a été fabriqué pour la première fois il y a environ 3 milliards d’années par des cyanobactéries qui ont mené au développement d’organismes plus complexes« ,

Or « La vie aurait pu commencer ailleurs que sur la terre ferme et près de la surface de l’océan. Puisque ce processus existe sur notre planète, il pourrait générer des habitats oxygénés dans d’autres ‘mondes océaniques’ comme Encelade ou Europe (des lunes de Saturne et de Jupiter) » et y créer les conditions d’apparition d’une vie extra-terrestre.

De toutes façons ces conclusions permettront de mieux réguler l’exploitation minière en eaux profondes, sur la base d’informations environnementales plus précises.

Remerciements à Sciences et avenir https://www.sciencesetavenir.fr/fondamental/des-scientifiques-decouvrent-un-etonnant-oxygene-noir-produit-dans-les-abysses_179726

Référence

Evidence of dark oxygen production at the abyssal seafloor

Nature Geoscience (2024)
https://www.nature.com/articles/s41561-024-01480-8

Abstract

Deep-seafloor organisms consume oxygen, which can be measured by in situ benthic chamber experiments. Here we report such experiments at the polymetallic nodule-covered abyssal seafloor in the Pacific Ocean in which oxygen increased over two days to more than three times the background concentration, which from ex situ incubations we attribute to the polymetallic nodules. Given high voltage potentials (up to 0.95 V) on nodule surfaces, we hypothesize that seawater electrolysis may contribute to this dark oxygen production.



23/07/2024 Les tachyons, des particules se déplaçant plus vite que la lumière

Les tachyons sont des particules hypothétiques censées se déplacer toujours plus vite que la lumière. Introduits dans le cadre de la physique théorique, ces objets sont souvent perçus comme une solution potentielle à certains problèmes dans la physique des particules. Par exemple, leur existence pourrait offrir des perspectives nouvelles sur la matière noire 1) ou sur des phénomènes quantiques inexpliqués.

  1. Voir citation ci-dessous

Cependant, jusqu’à présent, aucune preuve tangible de leur existence n’a été trouvée. Le concept de tachyons ne repose en effet que sur des bases théoriques et des difficultés subsistent. Par exemple, selon la relativité restreinte, rien ne peut dépasser la vitesse de la lumière qui est fixée à environ 299 792 458 mètres par seconde. A mesure qu’un objet matériel approche de cette vitesse, sa masse effective augmente, ce qui nécessite de plus en plus d’énergie pour continuer à accélérer. Ainsi, atteindre la vitesse de la lumière devient impossible pour tout objet avec une masse. En d’autres termes, pour qu’un objet atteigne la vitesse de la lumière, il faudrait une quantité infinie d’énergie, ce qui n’est pas possible.

Les tachyons posent également des questions sur l’énergie, qui pourrait prendre des valeurs négatives dans certains scénarios. Cela diffère fondamentalement de notre compréhension habituelle où l’énergie est généralement positive pour les particules que nous connaissons. L’idée d’énergie négative pourrait alors conduire à des paradoxes. Par exemple, dans le cadre des théories actuelles, une particule qui a une énergie négative pourrait entraîner des situations où des objets pourraient gagner de l’énergie de manière infinie ou même créer des scénarios où les lois de la thermodynamique qui régissent l’énergie dans l’Univers ne s’appliqueraient plus de manière cohérente.

Après avoir examiné les propriétés des tachyons, des physiciens de l’Université de Varsovie ont proposé des solutions pour résoudre certains des problèmes théoriques majeurs associés à ces particules. Traditionnellement, les tachyons ont en effet été considérés comme instables dans leur état fondamental, ce qui signifie que leur existence pourrait conduire à des situations imprévisibles et incohérentes dans un système physique. De plus, selon la théorie de la relativité restreinte, l’observation des tachyons varierait en fonction du référentiel de l’observateur, ce qui complique donc davantage leur intégration dans un cadre théorique cohérent.

Les physiciens de l’Université de Varsovie suggèrent ainsi qu’en connaissant précisément les états initiaux et finaux d’un système impliquant des tachyons, on pourrait surmonter ces difficultés . En d’autres termes, si l’on pouvait déterminer comment un système commence et comment il finit, les comportements intermédiaires des tachyons pourraient alors être prédits et contrôlés plus efficacement. Cela ouvrirait la voie à une meilleure compréhension et à une intégration plus stable des tachyons dans la physique théorique.

Cette approche repose sur l’idée que la connaissance complète des conditions de départ et d’arrivée d’un système permet de résoudre les problèmes d’instabilité et de variabilité d’observation. Par exemple, si l’on sait exactement comment un groupe de tachyons commence son interaction et comment il doit se terminer, les calculs et les modèles théoriques peuvent ainsi être ajustés pour tenir compte des comportements imprévus des tachyons entre ces points. Cela pourrait alors potentiellement stabiliser les tachyons et rendre leur étude plus cohérente et prévisible.

De plus, cette recherche évoque l’idée d’un nouveau type d’intrication quantique où le futur pourrait influencer le présent. Cela remet ainsi en question notre compréhension classique du temps. Cette notion pourrait avoir des implications profondes non seulement pour la physique théorique, mais aussi pour la façon dont nous concevons le cosmos et notre place en son sein.

En résumé, les recherches des physiciens de Varsovie suggèrent que les tachyons pourraient être intégrés de manière plus stable et cohérente dans la physique théorique… de quoi reconsidérer ce que nous savons de l’Univers.

Référence


Interacting tachyon with varying mass dark matter

Goutam MandalSudip MishraAbdulla Al MamonSujay Kr. Biswas

This paper presents an investigation of cosmological dynamics of tachyon fluid coupled to varyingmass dark matter particles in the background of spatially flat FLRW universe. The mechanism of varying mass particles scenario assumes the mass of the dark matter depends on time t through the scalar field ϕ in the sense that the decaying of dark matter reproduces the scalar field. First, we analyze the model from dynamical systems perspective by converting the cosmological evolution equations into an autonomous system of ordinary differential equations with a suitable transformation of variables. We choose the mass of dark matter as exponential function of scalar field and the exponential potential of the tachyon field is undertaken in such a way that the autonomous system is reduced in three dimensional form. The critical points obtained from the system are non-hyperbolic in nature. The center manifold theory is employed to discuss the nature of the critical points. Numerical investigation also carried out for some critical points. From this analysis, we obtain dust dominated decelerated transient phase of the universe followed by dark energy dominated scaling attractor alleviating the coincidence problem. Next, we perform the statefinder diagnostic approach to compare our model to ΛCDM and finally we study the evolution of the Hubble parameter and the distance modulus and compare this with observational data.

Comments:17 pages, 8 Caption figures, 21 figures
Subjects:General Relativity and Quantum Cosmology (gr-qc)
Cite as:arXiv:2404.07243 [gr-qc]
 (or arXiv:2404.07243v1 [gr-qc] for this version)
 https://doi.org/10.48550/arXiv.2404.07243

23/07/2024 Existe-t-il un lien chez l’humain entre le volume cérébral et l’intelligence ?

Le cerveau d’Albert Einstein, père entre autres de la théorie de la relativité, était nettement plus petit que la moyenne. Cela ne l’a pas empêché d’être plus intelligent que la plupart de ses contemporains dotés de gros cerveaux

La paléontologie démontre la même chose. Elle nous apprend que des hominiens dotés de petits cerveaux ont survécu sur la Terre bien avant l’apparition de l’homme moderne et ont été capables d’élaborer des outils de pierre aussi élaborés que ceux des humains d’alors, laissant entendre qu’ils possédaient déjà un langage.

Il est indéniable que le passage de l’homo habilis à l‘homo erectus puis à l’homo heidelbergensis, pour finir par l’homo neanderthalensis en Eurasie et l’homo sapiens en Afrique, s’est chaque fois accompagné d’une augmentation de la taille du cerveau. Mais celle-ci n’a pas été systématique.

Ainsi la découverte il y a vingt ans en Indonésie de l‘homo florensiensis, un humain d’une taille de 1m10 avec un cerveau de 425 cm3 comparé au nôtre de 1350 cm3 en moyenne, qui a vécu jusqu’à 50.000 ans avant notre ère montre que le gros cerveau n’est pas indispensable à la survie . Il en est de même dans les cas plus récemment découverts de l‘homo luzonensis dans les Philippines et de l’homo naledi en Afrique du Sud qui ont vécu jusqu’à 235.000 ans avant aujourd’hui.

Dans un site nommé Gona en Ethiopie, il apparut que homo erectus qui y avait vécu il y a 1,6 millions d’années avait produit des outils de pierre du type acheuléen si complexes qu’il n’aurait pu le faire sans un langage rudimentaire permettant d’acquérir et transmettre le savoir-faire. Or son volume cervical atteignait à peine 500 cm 

De même des chercheurs ont retrouvé des outils du type Oldowan vieux de 3 millions d’annés dans un site où vivaient des préhumains nommés Paranthropes qui n’ont pas été des précurseurs de l’homo sapiens

Voir https://en.wikipedia.org/wiki/Paranthropus

En fait, l’intelligence individuelle n’a que peu de liens avec la taille du cerveau des individus. Elle dépend pour l’essentiel de la richesse de la culture collective dans laquelle ceux-ci sont plongés dès leur naissance, à un moment où s’établissent des liens durables entre les neurones du cortex supérieur, considérés comme le siège de l’intelligence.

NB. Nous n’évoquerons pas ici le rôle des cellules gliales.

Les enfants qui pour des raisons pathologiques ne peuvent en aucune façon communiquer avec leurs semblables auront peu de chance de devenir des Einstein ou plus simplement des citoyens normaux, quelle que soit la taille de leur cerveau à leur naissance. A l’inverse, si comme cela a été constaté dans de rares cas historiques, ils sont élevés dans des lieux où ils sont maintenus en isolement, quelle que soit la taille de leur cerveaux, ils ne pourront jamais devenir intelligents.

Plutôt que s’interroger sur la taille des cerveaux des Paranthropes, mieux vaudrait se demander pourquoi les sociétés formées par ceux-ci n’ont jamais pu évoluer vers les sociétés de plus en plus complexes ayant finalement fait apparaître l’homo sapiens

Pour en savoir plus, voir Cortex magazine

23/07/2024 Une nouvelle crise des missiles en Europe ?

 Il y a 10 ans, les États-Unis avaient annoncé le déploiement de missiles de théâtre (à moyenne/longue portée) en Allemagne en 2026. C’est ce qu’ils vont faire.

L’Allemagne va accueillir le système Typhon [ou Mid-Range Capability – MRC], conçu pour lancer des missiles SM-6 [RIM-174 Standard ERAM] d’une portée comprise entre 400 et 500 km] ainsi que des Tomahawk, capables de parcourir 2770 km. Soit plus qu’il n’en faut pour atteindre Moscou depuis Berlin. Quant aux capacités hypersoniques, elles reposeront sur le LRHW [Long-Range Hypersonic Weapon ou « Dark Eagle »], dont la portée est identique à celle de la version sol-sol du Tomahawk.

Cette annonce n’est pas vraiment surprenante. En 2021, l’US Army avait annoncé la réactivation, à Cassel [Mayence] du 56th Artillery Command, une unité héritière du « 56th Field Artillery Command », lequel avait été dissous à la fin de la Guerre froide alors qu’il était chargé de superviser les Pershing II. Cette réactivation avait été décidée dans le cadre du programme « Multi-Domain Task Forces » [MDTF], lancé en 2019 afin de regrouper au sein d’une même formation des capacités en matière d’artillerie, de défense sol-air, de renseignement, de lutte informatique et de guerre électronique.L’objectif vise à coordonner des frappes de missiles à longue portée dans le cadre d’une force en réseau.

Lors d’un entretien accordé à Deutschlandfunk, ce 11 juillet, le ministre allemand de la Défense, Boris Pistorius, a salué le déploiement des missiles américains. « Cela comblera une grave lacune en matière de défense du territoire des alliés de l’Otan », a-t-il estimé.

Voir https://www.deutschlandfunk.de/pistorius-begruesst-stationierung-von-langstreckenwaffen-in-deutschland-dlf-5287ece1-100.html

Les missiles balistiques de théâtre TBM sont des missiles capables d’atteindre des objectifs situés à une distance inférieure à 3.500 km. Ils peuvent porter des charges nucléaires de moyenne à forte puissance .

Rappelons qu’en 1977, l’Union soviétique commença à déployer des missiles balistiques de portée intermédiaire SS-20 Saber, susceptibles de neutraliser les moyens de riposte nucléaire de l’Otan basés en Europe. Aussi, les États-Unis ne tardèrent pas à réagir en envoyant des missiles Pershing II en Allemagne de l’Ouest. Ce qui donna lieu à la crise dite des « Euromissiles », l’initiative américaine ayant en outre provoqué des réactions hostiles parmi les milieux pacifistes. En 1983, le président François Mitterrand résuma la situation en déclarant devant les députés du Bundestag :  » Les pacifistes sont à l’Ouest, et les missiles sont à l’Est ».

La crise des Euromissiles prit fin en 1987, avec la signature du Traité sur les Forces nucléaires intermédiaires [FNI] par les États-Unis et l’Union soviétique. Ainsi, ce texte interdisait de déployer et de posséder des missiles – balistiques et de croisière – ayant une portée comprise entre 500 et 5500 km.

Voir https://fr.wikipedia.org/wiki/Trait%C3%A9_sur_les_forces_nucl%C3%A9aires_%C3%A0_port%C3%A9e_interm%C3%A9diaire

Seulement, comme d’autres traités de désarmement, il n’a plus cours actuellement. En effet, la Russie ayant été accusée d’avoir développé un missile ayant une portée supérieure à 500 km – en l’occurrence le Novator 9M729 – les États-Unis dénoncèrent le traité FNI en 2019. En conséquence, ils modifièrent le programme PrSM [Precision Strike Missile] afin de doter le système M142 HIMARS d’un missile balistique pouvant atteindre une cible au-delà de 500 km.

Cependant, alors que les jours du traité FNI étaient comptés, certains responsables européens, comme Federica Mogherini, alors Haute représentante de l’Union pour les affaires étrangères et la politique de sécurité, firent part de leur opposition à voir le territoire européen redevenir un « champ de bataille pour d’autres puissances » comme par le passé.

Côté russe, Vladimir Poutine laissa entendre que Moscou allait se doter de missiles jusqu’alors interdits. Les Américains « estiment à présent que la situation a tellement évolué depuis la signature en 1987 du Traité FNI, qu’ils doivent se doter de ces armes. Notre réponse à Washington? Simple : nous ferons la même chose », avait-il affirmé, en décembre 2018.

Le chef d’état-major des forces armées russes, le général Valeri Guerassimov, s’était montré beaucoup plus direct, en menaçant de destruction les pays de l’Otan qui accepteraient d’accueillir sur leur sol des missiles balistiques américains de moyenne portée. « Ce n’est pas le territoire des États-Unis qui sera menacé de destruction, mais bien le leur », avait-il averti.

Fin juin, Vladimir Poutine a estimé que la Russie devait commencer à produire des missiles autrefois interdits par le traité FNI puis, « en fonction de la situation », de les « déployer, si cela est nécessaire, pour assurer notre sécurité ».

Quoi qu’il en soit, il n’y a pas encore si longtemps, l’Allemagne se disait opposée au déploiement de missiles sol-sol à portée intermédiaire sur son territoire. « La politique des années 1980 n’aide pas à répondre aux questions d’aujourd’hui. Un déploiement de nouveaux missiles à moyenne portée rencontrerait une grande résistance en Allemagne » et « l’Europe ne devrait en aucun cas être le théâtre d’un réarmement », avait ainsi estimé le social-démocrate Heiko Maas, quand il était encore chef de la diplomatie allemande, en 2018.

Seulement, la guerre en Ukraine a changé la donne, voire accéléré des plans qui étaient à l'étude. En effet, le 10 juillet, en marge du sommet de l’Otan à Washington, l’Allemagne a annoncé qu’elle abriterait la variante sol-sol du missile de croisière Tomahawk, des missiles polyvalents SM-6 ainsi que des armes hypersoniques mis en œuvre par l’US Army à partir de 2026.

« Ces systèmes ont une portée nettement plus grande que ceux actuellement déployés en Europe », ont souligné les autorités allemandes et américaines dans un communiqué commun. Cependant ces missiles ne porteront pas de charge nucléaire, contrairement aux Pershing II des années 1980.

Merci à DeDefensa où l'on trouve ces informations

20/07/2024 L’ espace-temps ? Combien de dimensions ?

Les trois dimensions de l’espace dans lequel nous vivons ne sont mises en doute par personne : devant, derrière, en haut (ou en bas). Imaginer autre chose relève de la science-fiction.. Cependant des physiciens sérieux ont depuis longtemps été tentés par la perspective dite des extra-dimensions . Les prendre en considération permettrait selon eux, de résoudre quelques grandes questions relatives à la nature exacte de l’univers .

Ainsi George Obied, physicien à l’université d’Oxford, s’interroge : Pourquoi seulement trois dimensions, pourquoi pas plusieurs autres ? C’est un fait que depuis plusieurs années, des chercheurs ont proposé des techniques qui pourraient finalement apporter la preuve de ces extra-dimensions. On pourrait citer celle dite « gravity leaking » ou fuite de gravité. Ce terme signifie que la force de gravité ne pourrait se faire sentir que dans les trois dimensions de l’espace que nous connaissons. Mais il en existerait d’autres dans lesquelles nous ne pouvons pas percevoir son influence.

Ces hypothèses n’ont pas abouti. Que ce soit dans les trous noirs ou au niveau microscopique, l’existence d’une force gravitationnelle entre deux objets, qualifiée depuis Newton de « 1/R² force », n’a pu être mise en défaut.

voir https://en.wikipedia.org/wiki/Inverse-square_law

voir aussi https://www.sciencenews.org/article/gravity-doesnt-leak-large-hidden-dimensions

Aujourd’hui cependant Obied et d’autres chercheurs ont évoqué une nouvelle extra-dimension radicalement différente des autres. Elle a été nommée la dimension noire (dark dimension), qui permettrait de résoudre le problème de la matière noire . Bien que non observée à ce jour, la matière noire ou matière sombre, est une catégorie de matière hypothétique, invoquée dans le cadre du Modèle ΛCDM ou modèle de concordance pour rendre compte de certaines observations astrophysiques, notamment les estimations de la masse des galaxies ou des amas de galaxies et les propriétés des fluctuations du fond diffus cosmologique. 

Quelques annés après, le physicien Theodor Kaluza en travaillant les équations d’Einstein introduisit le concept de cinquième dimension. Mais il découvrit très vite alors que celui-ci pouvait correspondre au concept de champ électromagnétique. Ainsi se trouvaient unifiées dans un cadre unique;. ces deux forces fondamentales de la nature, la gravité et l’électromagnétisme .

En 1926, le physicien théoricien Oscar Klein cru pouvoir affirmer que les extra dimensions indétectables du fait de leur petite taille seraient compatibles avec la théorie quantique récemment découverte . Elles seraient en ce cas infiniment plus petites qu’un atome. Elles se trouveraient dans tous les points de l’espace. Cette hypothèse dite Kamula-Klein ne fut jamais vérifiée.

Elle conduisit cependant à la théorie des cordes. Selon celle-ci tout ce qui existe est fait de cordes qui vibrent en 10 dimensions. Six d’entre elles sont très petites et forment des nœuds un peu semblables à ceux que Oscar Klein avait envisagés. Les particules fondamentales, électrons, quarks, bosons de Higgs, seraient faites de tels nœuds.

La raison pour laquelle de telles extra-dimensions n’ont pas encore été observée serait leur petite taille.

Cependant si de tels noeuds existaient, ils pourraient prendre la forme de particules jamais encore observées dites gravitons. Les théoriciens avaient espérer pouvoir détecter des gravitons à l’occasion des observations récentes d’ondes gravitationnelles, mais rien de tel ne s’est produit .

Une nouvelle observation prévue à l’occasion de la future expérience dite Gravity from the Quantum Entanglement of Space Time (GquEST) en cours de préparation au California Institute of Technology pourra peut-être apporter des réponses.

L’étude des millions de galaxies et amas de galaxies aujourd’hui observables pourra peut-être aussi montrer si elles se conforment ou non aux forces gravitationnelles telles que l’on se les représente aujourd’hui

Source New Scientist The Spaces in between p.33 , 13 July 2024