26/06/2024 Production d’hydrogène à grande échelle

L’électrolyse de l’eau est un procédé électrolytique qui décompose l’eau (H2O) en dioxygène et dihydrogène gazeux grâce à un courant électrique. La cellule électrolytique est constituée de deux électrodes  en métal inerte dans la zone de potentiel et de pH considérée, typiquement du groupe du platine — immergées dans un électrolyte (ici l’eau elle-même) et connectées aux pôles opposés de la source de courant continu.

https://fr.wikipedia.org/wiki/%C3%89lectrolyse_de_l%27eau

Son application dans le cas de la crise énergétique actuelle permettrait d’obtenir à partir d’une source de production d’énergie électrique de l’hydrogène moins polluant que le gaz naturel, puisque sa combustion redonne de l’eau.

Aujourd’hui on envisage en Europe avec le développement progressif du recours aux centrales nucléaires de fission, sur le modèle français, une production accrue d’électricité. Mais l’électricité ne se conserve pas. Il faut la stocker dans des batteries ou accumulateurs. La technologie de ceux-ci est restée archaïque. Ainsi l’obligation dans le cas des véhicules électriques modernes de transporter l’électricité dans des batteries lourdes et coûteuse enlève beaucoup de son intérêt au moteur électrique.

Il en est de même de l’hydrogène, résultat de l’électrolyse de l’eau. Concernant l’automobile, il ne se transporte que sous forme liquide, dans des bouteilles en acier. La moindre fuite peut provoquer des explosions catastrophique ou des incendies détruisant le véhicule er ses passagers

https://fr.wikipedia.org/wiki/Accumulateur_%C3%A9lectrique

Le Battolyser

Or y a plus de cent ans, Thomas Edison avait breveté une batterie nickel-fer, conçue initialement pour les véhicules électriques. Cette invention, bien qu’éclipsée par les moteurs à essence, fait un retour spectaculaire grâce aux chercheurs de l’Université de Delft qui l’ont transformée en une solution d’avenir pour la production d’hydrogène. On parle alors d’hydrogène vert.

Il s’agit du Battolyser, une fusion entre une batterie et un électrolyseur. Celui-ci utilise les mêmes électrodes nickel-fer que celles imaginées par Edison. Couplé à un système d’électrolyse alcaline actuellement sur le marché, ce dispositif peut être alimenté par des sources d’énergie renouvelables telles que le solaire ou l’éolien. De plus, outre produire de l’hydrogène, le système peut également fonctionner comme un lieu de stockage d’énergie renouvelable, avec la possibilité de revendre l’énergie au réseau lors des pics tarifaires.

Il faut espérer que l’Union européenne rendra rapidement obligatoires des solutions de ce type;

Pour plus de détails, voir
https://www.battolysersystems.com/technol

25/06/2024 Fiche de lecture. Ray Kursweil. The singularity is near. When we merge with AI

Editeur Viking June 25/2024

Depuis la publication en 2005 de son premier livreThe Singularity Is Near  Ray Kursweil a été à juste titre considéré comme le meilleur expert au monde de l’Intelligence artificielle, AI. Il avait bien prévu le développement exponentiel de cette science et les innombrables applications qu’elle allait avoir dans les domaines technologiques, industriels et scientifiques. Des concepts comme l’AI augmentée, les machines intelligentes,les biotechnologies artificielles ont commencé à se réaliser à grande échelle et sont devenus familiers du grand public.

Dans cet ouvrage entièrement renouvelé, il apporte de nouvelles perspectives à ce qu’il avait nommé la Singularité. En 1999 il avait prévu que l’AI atteindrait le niveau de l’intelligence humaine en 2029 et que dans les années suivantes elle dépasserait celle-ci d’un facteur 1.000 à 1 million, en modifiant définitivement la place de l’homme sur la planète Terre.

Parmi les sujets dont il discute, il envisage la reconstruction du monde, atome par atome, avec des systèmes tels que les nanobots, une augmentation de la durée de vie humaine bien au delà de la limite de 120 ans, une réinvention de l’intelligence en connectant les cerveaux humains au cloud computing mondial. Il recense les secteurs où l’AI et les technologies associées modifieront les capacités d’innovation, assureront la généralisation des énergies renouvelables, réduiront les domaines de pauvreté et de violence.

Mais il ne veut pas cacher au lecteur les risques potentiels des biotechnologies, nanotechnologies et des systèmes à intelligence augmentée se substituant progressivement à l’intelligence humaine, jusqu’à tenter de faire revivre des morts par des combinaisons de leurs données personnelles et de leur ADN.

On peut regretter que l’auteur n’ait pas suffisamment évoqué le vaste domaines des applications spatiales, dans l’espace sous orbital comme dans l’espace lointain, celui des planètes habitables et de leurs satellites. L’homme n’est pas près d’y survivre durablement, sauf pour de courts séjours. Il devra déléguer cette tâche à des robots superintelligents.

24/06/2024. Les migrations de l’homo erectus

Des homo erectus vivaient en Ukraine, à Korolevo, il y a environ 1,4 million d’années.

C’est la découverte que viennent de faire des chercheurs de l’Académie Tchèque des sciences et de l’université d’Aahrus au Danemark.

Ils se sont appuyés sur la méthode dite des nuclides cosmogéniques pour calculer l’âge de la région dans laquelle des outils humains primitifs viennent d’être découverts.

La présence d’homo erectus à Korolovo pourrait aider à comprendre un autre mystère, la présence d’humains dans l’Arctique sibérien il y a 400.000 ans sur un site dit Diring Yuriakh. Des outils de pierre y ont été découverts enfouis à faible profondeur par les vents de sable. Aucun fossile n’a été retrouvé.

Il demeure donc impossible de préciser quels types d’humains s’étaient aventurés si haut dans le nord

L’hypothèse aujourd’hui la plus solide est que des populations étaient sortis d’Afrique et avaient gagné le Levant et l’Asie occidentale il y a environ 2,5 millions d’années. Elles étaient revenues de l’ouest vers l’est, peut-être dans la vallée du Danube et la plaine pannonienne dit aussi des Carpathes.

On peut penser que ces migrations étaient provoquées par le besoin d’échapper à des changements climatiques

Référence

1 06 March 2024
East-to-west human dispersal into Europe 1.4 million years ago

Nature 
volume627, pages 805–810 (2024)

Abstract

Stone tools stratified in alluvium and loess at Korolevo, western Ukraine, have been studied by several research groups1,2,3 since the discovery of the site in the 1970s. Although Korolevo’s importance to the European Palaeolithic is widely acknowledged, age constraints on the lowermost lithic artefacts have yet to be determined conclusively. Here, using two methods of burial dating with cosmogenic nuclides4,5, we report ages of 1.42 ± 0.10 million years and 1.42 ± 0.28 million years for the sedimentary unit that contains Mode-1-type lithic artefacts. Korolevo represents, to our knowledge, the earliest securely dated hominin presence in Europe, and bridges the spatial and temporal gap between the Caucasus (around 1.85–1.78 million years ago)6 and southwestern Europe (around 1.2–1.1 million years ago)7,8. Our findings advance the hypothesis that Europe was colonized from the east, and our analysis of habitat suitability9 suggests that early hominins exploited warm interglacial periods to disperse into higher latitudes and relatively continental sites—such as Korolevo—well before the Middle Pleistocene Transition.

24/06/2024 Fusion nucléaire. Nouvelle avancée française

Début mai 2024, le réacteur WEST, basé en France, est resté allumé pendant 6 minutes à 50 millions de degrés, a-t-on appris le 6 mai.

Rappelons que pour créer la réaction de fusion , on insère quelques grammes de deux isotopes de l’hydrogène, du deutérium et du tritium. Lorsqu’ils sont chauffés à très haute température, leurs atomes vont se rencontrer, fusionner et provoquer la création d’un noyau lourd d’hélium. C’est ainsi que l’on obtient un plasma — un nouvel état de la matière — extrêmement chaud, et très dense.

Les neutrons obtenus ne sont pas « électriquement chargés », les bobines magnétiques ne peuvent donc pas les retenir. Ils percutent les parois à très haute vitesse. Grâce à eux, et à des parois conçue être isolantes , on peut récupérer une part importante de l’énergie produite par la réaction de fusion. Il s’agit principalement de transformer la chaleur accumulée en vapeur, afin d’alimenter des turbines et produire ainsi de l’électricité.

Le plus gros projet de réacteur à fusion nucléaire du monde est ITER, situé lui aussi au sud de la France, avec un budget estimé à 19 milliards d’euros. Encore en construction, et programmé pour la décennie 2030, il devra monter à 150 millions de degrés et parvenir à s’auto-entretenir. En attendant, la plupart des réacteurs actuels à fusion construits dans le monde, sur le même modèle mais bien plus petits, continuent d’expérimenter afin de résoudre peu à peu les problèmes physiques du procédé.

Ce n’est pas la première fois qu’un réacteur à fusion nucléaire atteint 50 millions de degrés. En Corée, le tokamak est monté à 100 millions de degrés en 2023, mais pendant 30 secondes puis, en 2024, durant 48 secondes. Les 6 minutes obtenues par WEST constituent donc une étape importante pour que l’on sache maintenir du plasma très chaud dans le temps.

Les équipes de WEST essayent notamment de résoudre la question des parois, qui doivent tout à la fois supporter la chaleur générée par le plasma, mais aussi permettre de récupérer l’énergie via le flux de neutrons. Initialement, les tokamaks utilisaient des murs en carbone, mais ces derniers absorbaient le tritium utilisé comme « carburant ». Depuis une décennie, les ingénieurs de WEST testent du tungstène, qui n’a pas ce défaut, et qui de plus résistent bien à la chaleur.

Ni WEST ni ITER ne produiront de l’électricité à titre commercial. Ce sont des réacteurs expérimentaux. Mais ils doivent ouvrir la voie à celle-ci.

Voir notre article précédent
21/06/2024 L’Allemagne est dorénavant dans la course à la fusion nucléaire

22/06/2024 Mobilisation dans le quantique français. Le programme Proqcima

Financé par le plan France 2030 https://www.economie.gouv.fr/france-2030, Proqcima est le programme par lequel le ministère des Armées finance des start-up du quantique pour un montant d’un demi-milliard d’euros. Le but est de les aider à développer un calculateur quantique universel, en vue d’une utilisation vers 2032. Les calculateurs quantiques actuels, dont les unités de calcul sont des qubits, sont encore extrêmement « bruyants ou bruités » et ne permettent pas de répondre à tous les besoins d’une informatique quantique professionnelle.

Pour mener à bien cette mission, l’Agence du numérique de défense (AND), https://www.defense.gouv.fr/and rattachée à la Direction générale de l’armement (DGA), a choisi d’engager cinq PME spécialisées dans le quantique pour une compétition sur huit ans.

Il s’agit de Alice&Bob, C12, Pasqal, Quandela et Quobly. Chacune mise sur une technologie différente pour encoder l’information quantique, qu’il s’agisse d’atomes neutres, de photons, de nanotubes de carbone ou de supraconducteurs.

D’où le choix d’une compétition par étapes, avec des points d’évaluation à 4 ans et 8 ans qui élimineront progressivement les entreprise les moins performantes. Dans quatre ans normalement, deux acteurs devront quitter le programme. Les restants auront encore quatre ans pour continuer à développer leur technologie. Et dans huit ans, il y en aura un ou deux qui passeront en industrialisation 

Le programme comportera deux grandes étapes : la première consistera à faire un ordinateur dit tolérant aux défauts, avec l’ambition d’obtenir des qubits logiques utilisables en pratique. D’ici 2032, si tout va bien, le ministère des Armées disposera de démonstrateurs.

Dans une seconde phase, dite « LSQ » (pour Large Squale Quantum), il faudra passer à des volumes de qubits logiques de 1 000, 10 000, 100 000 voire 1 million de qubits logiques pour faire des calculs hors de portée de ce qu’on peut imaginer aujourd’hui des calculateurs classiques . Sont visées, outre des applications strictement militaires restant confidentielles, des activités comme la cryptographie, en particulier pour déchiffrer des clés de chiffrement. Dans beaucoup de problèmes la seule façon d’être sûr d’avoir la bonne solution, c’est de tester toutes les solutions et de choisir celle qui obtient le meilleur résultat, ce qui prend énormément de temps.

En dehors des Armées, divers organismes nationaux de recherche seront intéressés, de même que de nombreuses entreprises du secteur privé. Ainsi le médical pour la recherche vaccinale, la finance ou la SNCF s’intéressent au quantique, dans l’optique de résoudre de nouveaux problèmes trop lourds pour des ordinateurs classiques.

De plus, le calculateur quantique ne remplacera jamais l’informatique actuelle. Ils ont chacun leurs forces et leurs faiblesses, et il faut leur apprendre à coopérer, dans la gestion courante comme dans la recherche de nouvelles solutions

Le rôle du ministère des Armées est d’essayer de faciliter la vie des start-up participantes, pour réussir dans un monde plus compétitif, où la France n’est pas seule.

Note

Ajoutons que le défi auquel doit faire face désormais la Défense ne se limite plus au Quantique. Il inclut le robot humanoide destiné à remplacer le plus souvent possible le militaire humain

22/06/2024 A l’intérieur de l’horizon des événements.

A l’intérieur d’un trou noir, tel que se les représente la cosmologie actuelle, l’univers se recourbe sur lui même juqu’à atteindre des densités inimaginables. La théorie de la relativité d’Einstein y devient inapplicable. Notre capacité de comprendre l’univers disparaît.

Mais ces effets ne se font sentir qu’à l’intérieur de l’horizon des événements du trou noir. Ce terme d’horizon des événements désigne   la frontière du trou noir à partir de laquelle la vitesse de libération atteint celle de la lumière. Autrement dit, pour franchir cette frontière et donc sortir du trou noir, il faudrait atteindre une vitesse supérieure à celle de la lumière, ce qui est impossible dans le cadre de la relativité générale.

Cet horizon des événements marque la frontière au delà de laquelle nous ne pouvons voir ce qui se passe à l’intérieur du trou noir. A l’inverse, elle marque la frontière au delà de laquelle les effets du trou noir, notamment l’imprédictabilité, cessent de nous concerner.

Ces caractères du trou noir en font une « singularité ».

Aujourd’hui certains théoriciens se demandent si de telles singularités ne pourraient pas se rencontrer dans notre univers, en dehors de toute référence à un trou noir. Ils sont incités à le faire dans le cadre des hypothèses découlant de la théorie de la gravité quantique. laquelle concerne le comportement des atomes et des particules.

Celles-ci changent la règle du jeu concernant la définition des singularités , selon Netta Engelhardt du MIT, théoricienne de la gravité quantique,, https://insidetrimeter.ca/fr/a-new-take-on-holography/).

Ce terme de gravité quantique désigne l’ambition actuelle visant à unifier la physique quantique et la physique classique, qui pour certains conduit à considérer que le monde classique émerge du monde quantique comme une projection holographique

https://insidetheperimeter.ca/fr/a-new-take-on-holography/

« Mais que sont exactement les singularités ? » demande Evita Verheijden de Harvard, fondatrice de la Black Hole initiative . »On ne comprend pas ce qu’elles désignent. On ne sait même pas comment les décrire ».

Certes, en 1965 le grand cosmologiste Roger Penrose avait montré que celles-ci sont des conséquences obligées de la relativité générale, se produisant chaque fois que la matière s’effondre en un trou noir d’une densité presque infinie, dont rien ne peut s’échapper, même la lumière.

Ceci est connu comme la « weak cosmic censorship hypothesis »  https://en.wikipedia.org/wiki/Cosmic_censorship_hypothesis suggérant que la nature interdit les singularités trop visibles ou nues. Le terme de censorship convient aux physiciens puisque le concept de singularités nues contredit le principe selon lequel la science peut essayer de prévoir ce qui arrive.

Cependant récemment des théoriciens ont démontré que des singularités nues pouvaient apparaître en conséquence de la relativité générale et des hypothèses sur la gravité. Ainsi dans la théorie des cordes, des « cordes noires » instables (black strings) comparables aux trous noirs pourraient apparaître et s’étendre dans l’univers en laissant derrière elles des singularités nues. D’autres théoriciens suggèrent que celles-ci peuvent aussi apparaître lorsque deux trous noirs entrent en collision.

Cependant, lorsque l’on regarde de nuit un ciel obscur, on n’aperçoit pas ces solidarités nues. Cela ne veut évidemment pas dire qu’elles n’existent pas. En 2023, Engelhardt et ses collègues du MIT ont essayé de comprendre les raisons de cette censure cosmique. Ils ont proposé une raison originale  (voir référence ci-dessous)

Plutôt que rechercher des preuves de singularités nues dans une théorie classique de l’espace temps, ils ont préféré situer cette recherche dans le cadre encore en développement de la gravité quantique, laquelle vise à réaliser une synthèse entre la physique esinsténienne et la mécanique quantique. ;

Nous n’en dirons pas plus ici, renvoyant le lecteur à l’article du New Scientist, 15 juin 2024 Inside the Event Horizon p.32


Voir Référence ci-dessous
https://doi.org/10.48550/arXiv.2402.03425

[Submitted on 5 Feb 2024 (v1), last revised 19 Mar 2024 (this version, v2)]

Cryptographic Censorship

Netta EngelhardtÅsmund FolkestadAdam LevineEvita VerheijdenLisa Yang

We formulate and take two large strides towards proving a quantum version of the weak cosmic censorship conjecture. We first prove « Cryptographic Censorship »: a theorem showing that when the time evolution operator of a holographic CFT is approximately pseudorandom (or Haar random) on some code subspace, then there must be an event horizon in the corresponding bulk dual. This result provides a general condition that guarantees (in finite time) event horizon formation, with minimal assumptions about the global spacetime structure. Our theorem relies on an extension of a recent quantum learning no-go theorem and is proved using new techniques of pseudorandom measure concentration. To apply this result to cosmic censorship, we separate singularities into classical, semi-Planckian, and Planckian types. We illustrate that classical and semi-Planckian singularities are compatible with approximately pseudorandom CFT time evolution; thus, if such singularities are indeed approximately pseudorandom, by Cryptographic Censorship, they cannot exist in the absence of event horizons. This result provides a sufficient condition guaranteeing that seminal holographic results on quantum chaos and thermalization, whose general applicability relies on typicality of horizons, will not be invalidated by the formation of naked singularities in AdS/CFT.

21/06/2024 L ‘Allemagne est dorénavant dans la course à la fusion nucléaire




Si l’Allemagne a renoncé à la fission nucléaire en ayant 
fermé début 2023 ses derniers réacteurs nucléaires, elle n’a pas complétement oublié l’atome. Le ministère fédéral de l’Éducation et de la Recherche (BMBF) soutient depuis longtemps la recherche sur la fusion au Max Planck Institute for Plasma Physics (IPP) à Garching et Greifswald, au Karlsruhe Institute of Technology (KIT) et au Research Center Jülich (FZJ).FZJ). « Ce financement institutionnel est complété par un deuxième pilier avec le nouveau programme de financement de projets », a déclaré le ministère.

Berlin est bien décidé à passer à la vitesse supérieure. « L’objectif du financement des projets est de faire avancer les technologies, les composants et les matériaux nécessaires à une centrale électrique à fusion dans une première phase d’ici le début des années 2030. Dans la deuxième phase, l’accent est mis sur l’intégration dans une conception de centrale électrique. Le programme de financement est ouvert à la technologie et aborde à la fois la technologie de confinement magnétique et la fusion laser », explique le gouvernement.

Pour réaliser la construction d’une centrale électrique à fusion le plus rapidement possible, le programme est essentiellement basé sur la recherche collaborative orientée vers l’application sous forme de partenariat public-privé. Les projets sur des sous-technologies spécifiques doivent être menés conjointement par des institutions de recherche, des universités et l’industrie. Le ministère a déclaré que cela permet de prendre en compte dès le début les nouvelles découvertes de la recherche et de transférer les connaissances à l’industrie nationale pour une utilisation ultérieure.

« La crise énergétique nous a montré à quel point un approvisionnement énergétique propre, fiable et abordable est important », a déclaré la ministre Bettina Stark-Watzinger. « Et la fusion est une énorme opportunité pour résoudre tous nos problèmes énergétiques. Grâce à son excellente infrastructure de recherche et à une industrie forte, l’Allemagne offre d’excellentes conditions pour la construction de centrales électriques à fusion »,

« C’est là que nous intervenons avec notre nouveau programme de financement – nommé Fusion 2040 et nous voulons ouvrir la voie à la première centrale électrique à fusion en Allemagne. Nous voulons construire un écosystème de fusion composé d’industrie, de start-ups et de science afin qu’une centrale électrique à fusion en Allemagne devienne une réalité le plus rapidement possible ».

« La course mondiale est lancée. Je voudrais que nous en Allemagne soyons parmi les premiers à construire une centrale électrique à fusion. Nous ne devons pas manquer cette énorme opportunité, surtout en ce qui concerne la croissance et la prospérité », a déclaré la ministre.

En septembre de l’année dernière, Stark-Watzinger a annoncé que l’Allemagne augmenterait considérablement le financement de la recherche sur la fusion avec un montant supplémentaire de 370 millions d’euros au cours des cinq prochaines années. Avec les fonds déjà réservés aux institutions de recherche, le ministère fournira plus d’un milliard d’euros pour la recherche sur la fusion d’ici 2028.

La fusion en France

Ceci dit l’Allemagne aura du mal à rattraper son retard.

En France, le  Commissariat à l’énergie atomique (CEA) participe à l’essor de la technologie, indique Phys.org. L’institut de recherche exploite le réacteur à fusion West (autrefois nommé Tore Supra) dans le sud de la France. Situé à Cadarache, tout près du projet ITER, le réacteur possède la particularité d’avoir une couche interne recouverte de  tungstène.

Durant six minutes, le réacteur West a entretenu un plasma contenant des atomes d’hydrogène (les isotopes deutérium et tritium) afin de former des atomes d’hélium afin de récupérer l’énergie de cette réaction. Il s’agit d’une durée record pour une chauffe à 50 millions de degrés pour l’infrastructure.

Surtout, le réacteur de type tokamak a bien géré les 1,15 gigajoules d’énergie injectée. La structure a ainsi généré 15 % d’énergie supplémentaire grâce à un plasma deux fois plus dense qu’au cours des précédents essais. C’est bien la combinaison d’une température élevée et d’une forte densité qui garantit la création d’une source d’énergie fiable et durable

Cependant, le revêtement du réacteur à fusion West en tungstène peut s’avérer extrêmement contraignant. Si ce revêtement présente l’avantage de laisser glisser le plasma, il peut également ruiner la création d’énergie. Car il suffirait qu’un fragment minime de tungstène se retrouve dans le plasma pour le refroidir fortement, en engendrant une altération de la réaction.

De plus si un revêtement au carbone est beaucoup plus facile à dompter au sein d’un réacteur tokamak, cette matière peut retenir le combustible. Cela représente un trop grand risque de voir les essais de longue durée devenir infructueux, notamment pour des modèles de grande taille.

Or, le réacteur West sert de base expérimentale pour le projet pilote Iter, censé devenir le plus grand tokamak au monde. Cette installation doit entrer en service en 2030 et aura pour objectif de démontrer la faisabilité de compter sur la fusion nucléaire comme source d’énergie propre, constante et durable.

21/06/2024 Macron démission

L’ex-Premier ministre Édouard Philippe a affirmé le jeudi 20 juin 2024 qu’Emmanuel Macron avait « tué la majorité présidentielle » en décidant de dissoudre l’Assemblée nationale, et qu’il faudrait donc « créer une nouvelle majorité ». Qu’en termes polies ces choses là sont dites.

Dans l’actuelle majorité, les propos relatés par les médias sont plus crus. « Macron est fou » « Qu’est-ce qui lui a pris ? Trouvait-il que l’on ne parlait pas assez de lui ? » « Après avoir prétendu que le Front (rassemblement) national n’offrait aucune solution pour la France, il lui ouvre grande la porte ».

Au sein de l’Union européenne la même incompréhension régné. La France qui était jusqu’ici considérée comme la locomotive de l’Europe, se retrouve dans le fossé, et l’Union avec elle. Le Chancelier allemand a du mal à s’en remettre. Quant à Victor Orban, il jubile.

Il est de fait qu’aujourd’hui il apparaît très probable que les prochaines élections à l’Assemblée nationale française ne donneront aucune majorité de gouvernement. L’actuelle majorité gouvernementale se retrouvera divisée en trois sous-ensemble minoritaires incapables de gouverner seuls mais aussi incapables de s’entendre. La minorité de gauche, dite Nouveau Front Populaire, se verra obligée pour survivre, de soutenir le sulfureux Jean-Luc Mélenchon, ce que les autres groupes, espérons-le , n’accepteront jamais.

Quant au Rassemblement National, son président l’intelligent Jordan Bardella vient d’annoncer qu’il ne gouvernera jamais sans être assuré d’une majorité absolue, ce qui paraît fort peu probable.

Or si Macron dissolvait à nouveau la future assemblée nationale, il apparaîtrait comme un fou dangereux ou comme un dictateur.

Nous avons tout lieu de penser que les actuels conseillers de l’Elysée auraient fortement déconseillé à Macron cette décision suicidaire, si seulement il les avait consultés. Mais Monsieur est assez grand pour savoir seul ce qui est bon pour la France

20/06/2024 Qu’adviendrait il si la Russie ne pouvait pas l’emporter en Ukraine?

Sur le front ukrainien, la situation semble de nouveau bloquée. Après l’échec de la contre-offensive de Kiev à l’été 2023, puis l’enlisement et la nouvelle offensive russe dans la région de Kharkiv (nord-est de l’Ukraine), il semblerait que le conflit soit reparti pour un nouveau statu quo.

Alors que la Russie espérait l’épuisement de son adversaire en hommes et en matériel, le Congrès des États-Unis a voté le retour d’une aide militaire de 61 milliards de dollars, le 20 avril. De plus, le président Volodymyr Zelensky a abaissé l’âge de la conscription de 27 à 25 ans et le Parlement ukrainien a validé le fait que l’armée puisse avoir recours, sous certaines conditions, à des prisonniers.

Au même moment, le président russe Vladimir Poutine procédait au remaniement de l’establishment politico-militaire. Le 12 mai, le ministre de la Défense Sergueï Choïgou a été remplacé par Andreï Belooussov et muté au poste de secrétaire du Conseil de sécurité. . Nikolaï Patrouchev (ancien secrétaire du Conseil de sécurité de Russie) et Alexeï Dioumine (nouveau secrétaire du Conseil d’État) sont devenus les conseillers particuliers du président. Pour sa part Valeri Guerassimov reste le chef d’état-major des forces armées russes.

Bien que le budget consacré à la défense ne cesse d’augmenter, tous attendent une réforme fiscale visant à accroître les recettes de l’État russe de façon à financer l’effort de guerre. Le message est clair: pour gagner sur le temps long, il faut préparer la Russie à l’économie de guerre.

Or, cette guerre, Vladimir Poutine ne peut la gagner. Il n’en a pas les moyens économiques, mais il n’en a pas davantage les moyens militaires.

Sur le plan humain d’abord. Si les estimations varient beaucoup, des chiffres oscillant entre 300.000 et 450.000 soldats russes morts ou blessés (dont au moins 50.000 soldats tués et identifiés) depuis le début du conflit sont régulièrement avancés. De plus, selon le ministère de la Défense britannique, le chiffre des pertes tendrait à augmenter. Il est maintenant estimé à 1.000 à 1.200 soldats russes morts ou blessés par jour, la moyenne la plus élevée depuis le début de la guerre en février 2022, d’après le renseignement britannique.

Quant aux pertes matérielles de la Russie, elles sont toujours aussi difficiles à évaluer. Également selon le ministère de la Défense britannique, dans des estimations rendues publiques le 27 avril, l’armée russe aurait perdu au moins 10.000 véhicules blindés, dont le chiffre difficilement imaginable de près de 3.000 chars de combat (à peu près quinze fois la totalité du parc français!), 109 avions, 136 hélicoptères, 346 drones, 23 navires de guerre de toutes classes et plus de 1.500 pièces d’artillerie de tous types.

Au plan financier, par rapport à 2021, la Russie aura multiplié par trois ses dépenses militaires. L’estimation du budget consacré à la défense et à la sécurité était de 3,9% du produit intérieur brut (PIB) en 2023, contre 2,7% en 2021. Il l’est aux alentours de 6% en 2024, ce qui représenterait entre 30 et 40% des dépenses de l’État.

Ceci dit, la Russie est un pays pauvre. Le produit national brut (PNB) russe correspond à peu près aux PNB belge et néerlandais combinés, pour une population de près de 146 millions de personnes contre 30 millions pour la Belgique et les Pays-Bas réunis. Son économie dépend avant tout de la production de gaz et de pétrole. Si les sanctions occidentales ne l’on pas trop affectée, en raison notamment de la propension des acteurs non occidentaux ou même occidentaux à les contourner (AllemagneGrèce, etc.), elles l’ont tout de même beaucoup gênée.

D’abord, il y a eu le pari manqué du Kremlin qui ne pensait pas que les gouvernements européens auraient le «courage» de se passer du gaz russe. En conséquence, le prix du gaz a beaucoup baissé en 2023 par rapport aux hausses de 2022 (40% du gaz européen venait de Russie avant la guerre, contre 15% fin 2023). Toutefois, le prix du baril de brut de l’Oural est resté à des niveaux très élevés (il n’est jamais descendu en dessous de 55 dollars le baril). Mais le résultat, c’est que l’excédent commercial de la Russie serait de 50 milliards de dollars en 2023, contre 238 milliards en 2022. L’inflation vient de passer les 8% en mai, le taux directeur de la Banque centrale de Russie est à 16%, ce qui nuit naturellement à l’investissement du secteur privé.

NB. Rappelons que la France, grâce à l’énergie nucléaire, a pu traverser cette période à peu près convenablement.

Le Kremlin était tellement convaincu de la victoire au début de son «opération militaire spéciale» qu’il avait engagé ses matériels les plus modernes et ses meilleures troupes. Le but était non seulement de décapiter le gouvernement de Kiev et de mater l’Ukraine, mais ensuite de s’en prendre à la Moldavie, à la Géorgie et aux pays baltes, Il fallait aussi de démontrer au monde que la Russie était de retour parmi les plus grandes puissances.

Les conséquences de cette monumentale erreur furent des pertes énormes en matériels modernes, des tanks T-72B3MT-80BVM et T-90, par exemple, aux véhicules blindés dernier cri. En conséquence, depuis 2022, le ministère de la Défense russe aurait mobilisé 40% des tanks et véhicules blindés de transport de troupes soviétiques, qui attendaient dans la principale base d’équipements située en Bouriatie (Extrême-Orient russe).

De plus, selon les estimations de février 2024 du Royal United Services Institute (RUSI), groupe de réflexion britannique spécialisé dans la défense et la sécurité, environ 80% de la production mensuelle d’équipements (chars, blindés, etc.) seraient en réalité des véhicules datant de l’ère soviétique qui auraient été modernisés et réactivés.

Quant aux missiles, la Russie reste dépendante des composants électroniques occidentaux, d’où la multiplication des affaires de contrebande. Même la production de munitions souffre de carences. Toujours selon le RUSI, l’industrie d’armement russe peine à remplir les cahiers des charges. En attendant, le ministère de la Défense doit de nouveau puiser dans les stocks de l’ancienne URSS estimés à trois millions d’obus. En résumé, les stocks soviétiques s’épuisent plus rapidement que la capacité de l’appareil industriel à les remplacer avec des matériels modernes. C’est donc une situation intenable sur le temps long.

Qu’en est-il de l’option de la re-soviétisation du pays. Avec un appareil de production qui doit être modernisé, des problèmes de main-d’œuvre et pas de capacité d’endettement, Poutine  pourrait être tenté de renationaliser complètement l’économie russe. À défaut de retrouver la grandeur de l’Union soviétique, il pourrait ressusciter son modèle économique actuellement moribond.

Qu’en serait-il de l’emploi du nucléaire tactique ? Certains y pensent. Mais avec les vents d’ouest dominant dans cette partie du monde, les retombées sur le territoire russe lui-même ne seraient pas acceptées.

Source

https://www.slate.fr/story/267269/guerre-ukraine-grand-secret-vladimir-poutine-cacher-realite-pertes-armes-difficultes-economie-sanctions-occident-petrole-strategie-militaire

19/06/2024 Fiche de lecture Antimatière et gravité. Vers un nouveau modèle cosmologique

par Gabriel Chardin( CNRS Editions)

Présentation par l’éditeur:

Et si l’antimatière renversait le modèle standard de l’Univers?

Depuis plus de vingt ans, le cosmologiste français Gabriel Chardin, médaille d’argent du Centre national de la recherche scientifique (CNRS), poursuit une idée renversante, celle d’un modèle alternatif basé sur l’antimatière pour expliquer notre Univers. Il dresse la liste des arguments scientifiques pour le défendre dans son dernier ouvrage paru en avril 2024.

Gabriel Chardin propose une alternative au modèle standard jugé insatisfaisant. Dans son univers, sans matière ni énergie noires, l’antimatière, de masse négative, est aux commandes. Des expériences en cours au CERN pourraient valider (ou non) cette hypothèse iconoclaste.

La cosmologie est l’étude de l’Univers dans son ensemble, sa structure, ses propriétés, son origine et son évolution. Elle s’intéresse à ses composants les plus infimes comme à ses plus colossales structures, de sa naissance, il y a environ 14 milliards d’années, à son futur le plus lointain.

Pour parvenir à penser un objet aussi considérable, le physicien construit des modèles. Or, le modèle standard actuel est en crise : il ne rend compte du mouvement des galaxies ou de la vitesse d’expansion de l’Univers qu’en supposant l’existence d’une matière noire et d’une énergie noire mystérieuses, toujours non identifiées.

Et si aux premiers instants du Big Bang, l’univers contenait nécessairement autant de matière que d’antimatière, on ignore où est passée cette dernière, que l’on n’observe aujourd’hui que très brièvement et en minuscules quantités dans le rayonnement cosmique ou nos accélérateurs de particules.

Grâce à une seule hypothèse aussi simple qu’iconoclaste, Gabriel Chardin propose un nouveau modèle, l’univers de Dirac-Milne : et si l’antimatière avait une masse négative, et repoussait tout, matière comme antimatière ? Cette hypothèse posée, il n’est plus besoin d’imaginer l’existence de matière ou d’énergie noires et l’antimatière n’aurait pas disparu mais se trouverait, extrêmement diluée, sous la forme de grands nuages entourant les galaxies. Ce modèle est actuellement testé au Cern (organisation européenne pour la recherche nucléaire) dans plusieurs expériences, où l’on tente de « peser » des atomes d’antihydrogène.

Un voyage dans la fabrique d’une théorie en gestation.

Pour en savoir plus sur le modèle de Dirac Milne
https://theses.hal.science/tel-00442948

Étude de la concordance d’un univers de Dirac-Milne symétrique matière-antimatière
Aurélien Benoit-Lévy 
2009

Cette thèse s’intéresse à divers aspects de l’univers de Dirac-Milne, un modèle cosmologique dans lequel matière et antimatière sont présentes en quantités égales et où l’on suppose, comme pourrait le suggérer la relativité générale à travers les propriétés des solutions de Kerr-Newman, que l’antimatière possède une masse gravitationnelle active négative.

Ces hypothèses permettent de s’affranchir de la nécessité d’introduire Inflation, Énergie Noire et Matière Noire, dont les mises en évidences expérimentales et les motivations théoriques font parfois défaut. La présence en quantités égales de matière de masse positive et d’antimatière de masse négative impose une évolution du facteur d’expansion linéaire par rapport au temps.

Après avoir rappelé les concepts basiques de la cosmologie, certaines implications de cette évolution linéaire sont étudiées. L’étude complète de la nucléosynthèse primordiale dans le cadre de ce modèle alternatif permet de montrer qu’une production primordiale de deutérium est rendue possible par la présence d’annihilations résiduelles entre matière et antimatière à des époques précédant la recombinaison. Toutefois, ce mécanisme de production secondaire conduit à une surproduction d’hélium-3, potentiellement incompatible avec les observations.

Bien que l’univers de Dirac-Milne ne présente pas d’accélération de l’expansion aux époques récentes, il est montré que ce modèle satisfait raisonnablement bien au test cosmologique des supernovae de type Ia. De même, l’échelle angulaire du premier pic acoustique des fluctuations de température du fond diffus cosmologique apparaît naturellement à l’échelle du degré. Même si l’étude complète du spectre de ces fluctuations et de la cohérence de la notion de masse négative reste encore à approfondir, ce travail pose les bases d’un modèle cosmologique original et potentiellement capable de donner une autre description de notre Univers.

Le modèle cosmologique ΛCDM a toujours de la concurrence, et heureusement… Les plus fidèles d’entre vous se souviendront peut-être d’un billet que je vous avais proposé en février 2012 et que j’avais intitulé : « Symétrie Matière/Anti-Matière et masse négative, une clé pour l’élégance ? » : il s’agissait d’un article des physiciens français Aurélien Benoit-Lévy et Gabriel Chardin qui présentait un nouveau modèle d’Univers hyper élégant, où coexistent matière et antimatière à quantité égale et dans lequel les particules d’antimatière antigravitent et se repoussent également entre elles, créant des effets étonnants à même d’expliquer des choses incomprises comme l’énergie noire (entre autre). Ce modèle dit de Dirac-Milne a continué à être développé par Chardin et d’autres collaborateurs avec plusieurs articles parus en 2018 et 2020, et cet été, ils ont publié dans Astronomy&Astrophysics une nouvelle étude assez bluffante, dans laquelle Chardin et ses collaborateurs démontrent que leur modèle d’Univers produit naturellement des courbes de rotation galactiques plates, ce qui avait mené initialement au concept de matière noire… Et ils retrouvent un comportement de type MOND dans les galaxies.

Le modèle cosmologique de Dirac-Milne repose seulement sur deux hypothèses qui peuvent paraitre à la fois très simples et très élégantes : 

1) matière et antimatière sont symétriques : il en existe autant l’une que l’autre dans l’Univers,

2) l’antimatière possède une masse gravitationnelle active négative : il y a répulsion entre matière et antimatière et aussi entre antimatière et antimatière, comme il y a attraction gravitationnelle entre matière et matière.

La deuxième hypothèse viole complètement le principe d’équivalence faible qui fonde la Relativité Générale, mais il faut bien un peu d’audace parfois.

Le modèle porte le nom d’Edward Milne, car c’est ce cosmologiste britannique qui avait introduit l’idée d’un univers vide de masse en 1933 comme une alternative à la vision de la Relativité Générale einsteinienne (l’Univers d’Einstein-de Sitter). Mettre autant de masse positive que de masse négative revient en effet à grande échelle à avoir un univers vide. Mais cet univers de Dirac-Milne reste régit par une métrique de type Friedman-Lemaître-Robertson-Walker comme le modèle standard actuel, mais avec des paramètres différents. Le fait important de cette cosmologie est que le facteur d’échelle (que l’on note a(t)) est linéaire et cette linéarité reste identique tout au long de l’évolution de l’expansion,  mais cette expansion est du coup constante : elle n’est ni accélérée, ni ralentie.

Dans leur article de 2012, les chercheurs montraient que leur modèle était compatible avec les observations de luminosité des supernovas Ia de 1998 qui avaient conduit au concept d’expansion accélérée, et donc d’énergie noire. L’Univers de Dirac-Milne n’a pas besoin d’énergie noire.

Une autre implication très importante de ce facteur d’échelle linéaire a(t) ~t apparaissant dans l’univers de Dirac-Milne est qu’il n’y a plus de problème d’horizon : chaque point de l’espace a pu être en relation causale avec un autre point de l’espace dans les temps anciens, il n’y a donc plus aucun besoin de recourir à l’Inflation!. L’inflation, introduite au début des années 1980 permettait de résoudre de manière ad hoc l’apparente impossibilité que des directions opposées de l’espace aient pu être en contact causal dans le passé, ce qui est observé.

Outre le fait d’évacuer le problème de l’énergie noire et de l’inflation, l’élégance du modèle de Dirac-Milne vient surtout du fait qu’il est fondé sur une totale symétrie entre matière et antimatière, et il faut rappeler qu’actuellement, on cherche toujours des pistes dans tous les sens pour expliquer pourquoi l’Univers (dans la vision du modèle standard), ne contient que de la matière alors que l’on sait que le Big Bang a dû produire quasi autant d’antimatière…  

On doit alors se demander où se trouve cette antimatière dans un Univers de Dirac-Milne ? Et la réponse est directement liée aux propriétés de l’antimatière qui fondent le modèle. On l’a dit, les particules d’antimatière ayant une masse gravitationnelle active négative pour Chardin et ses collaborateurs, les particules de matière et d’antimatière se repoussent. Mais à l’opposé des particules de matière qui s’attirent entre elles, les particules d’antimatière se repoussent également entre elles. Un antiproton et un antiélectron se repousseront par la gravitation mais s’attireront par la force électromagnétique. La force électromagnétique étant énormément plus intense que la gravitation, des anti-atomes vont pouvoir se former, typiquement de l’antihydrogène et de l’antihélium. Mais ces anti-atomes électriquement neutres seront donc repoussés par les atomes de matière et par les autres anti-atomes.

Les physiciens ont montré ce qui se passe lors de la formation des structures dans l’Univers primordial, dont la chronologie se retrouve modifiée dans le modèle de D-M par rapport à ΛCDM. La transition du plasma quarks-gluons dure 1 jour dans D-M contre 10 µs dans le modèle standard, la nucléosynthèse primordiale dure 35 ans au lieu des 3 minutes de ΛCDM, et la recombinaison entre rayonnement et matière (l’émission du fond diffus cosmologique) a lieu au bout de 14 millions d’années, contre 380 000 ans pour le modèle standard. Mais il faut noter que l’âge de l’Univers de Dirac-Milne reste heureusement très proche de celui déduit de ΛCDM : à peine 100 millions d’années de plus, à 13,9 milliards d’années avec une constante de Hubble-Lemaître valant 70 km/s/Mpc, une paille. 

Mais revenons aux effets des caractéristiques de l’antimatière sur la formation des structures galactiques, car c’est là l’origine de ce que révèle la nouvelle étude de cet été sur la rotation des galaxies. Comme les atomes d’antihydrogène sont repoussés par les atomes d’hydrogène, mais aussi par les autres atomes d’antihydrogène, non seulement ils ne se retrouvent jamais en contact avec la matière, mais de plus, contrairement à la matière « ordinaire » qui s’agglomère et se condense sous l’effet de la gravitation pour former des nuages puis des étoiles puis des galaxies et des amas de galaxies, l’antihydrogène et l’antihélium, eux, ne se condensent jamais en nuages denses et ces atomes sont en perpétuel mouvement, comme un fluide qui circule autour des régions de matière.

Un effet très important qu’ont montré Chardin et ses collaborateurs grâce à des calculs et des simulations, c’est que les régions où se trouverait de l’antimatière et les galaxies faites de matière ne peuvent jamais entrer en contact. Et heureusement. La raison à ça est qu’il se formerait naturellement, depuis très tôt dans l’histoire cosmique, des zones de déplétion autour des galaxies et des amas de galaxies : des no man’s land où il n’y a ni matière ni antimatière, qui apparaissent du fait de la répulsion engendrée entre ces deux composantes de l’Univers de Dirac-Milne. Et ces zones de déplétion sont très grandes ! Puisque matière et antimatière dans ce modèle sont en quantité égale, mais que l’antimatière ne peut pas se concentrer comme le fait la matière dans les galaxies, l’antimatière occupe en moyenne la moitié du volume de l’Univers, mais la matière, elle, est très concentrée dans les galaxies, elle occupe donc un volume beaucoup plus petit. La différence entre les deux correspond à ces zones de déplétion où il n’y aurait que du rayonnement en transit.

L’article qui est paru le 17 août dernier développe les effets dynamiques qui sont induits par la présence autour d’une galaxie de cette grande zone de déplétion qui est elle-même entourée d’une présence diffuse d’antimatière répulsive, dont la masse totale est égale et opposée à celle de la galaxie en rotation. Grâce à un logiciel de simulation, Chardin et ses collaborateurs regardent à quelle vitesse tourne la galaxie en fonction de la distance du centre de la galaxie. Ils simulent pour cela des cubes d’Univers comportant en leur centre une galaxie, entourée d’une zone de déplétion sphérique entourée par l’antimatière diffuse. 

Le résultat est surprenant. Au delà de 0,5 fois le rayon de la zone de déplétion, la courbe s’aplatit, la dérivée de la courbe s’annule exactement à r= 0,79 fois le rayon de la zone de déplétion, ce qui correspond à 2,6 fois le rayon du viriel de la galaxie, la vitesse de rotation reste donc constante au-delà. Exactement ce qui est observé dans les galaxies réelles, cette fameuse anomalie détectée au milieu des années 60 par Vera Rubin puis d’autres et qui a affermi l’idée d’une matière invisible en forme de halo dans les galaxies. (Précision : ce qu’on appelle le « rayon du viriel » d’une galaxie, c’est le rayon maximum d’équilibre dynamique, issu du théorème du viriel).

Chardin et ses collaborateurs montrent ainsi que la masse dérivée des courbes de rotation, si on suppose une gravité strictement newtonienne sans antimatière ni déplétion, est systématiquement surestimée par rapport à la masse réellement présente, comme si il y avait un gros halo de matière noire… Le modèle D-M présente aussi un comportement similaire au modèle phénoménologique MOND (MOdified Newtonia Dynamics), caractérisé par une apparente gravité de surface qui s’ajouterait par rapport au cas newtonien classique, mais qui serait ici dûe à la présence des nuages d’antimatière répulsive, faisant apparaître une polarisation gravitationnelle. En comparaison, MOND reste une approche phénoménologique plus qu’un modèle physique car elle ne donne pas d’explication physique à l’ajout d’un terme dans la formule.

Chardin et ses collègues n’en restent pas là : il font bien sûr le calcul de la valeur de cette accélération additionnelle telle qu’elle apparait : ils trouvent une valeur comprise entre 4 10-11 m.s-2 et 2 10-10 m.s-2 en considérant l’incertitude sur la taille des domaines matière-antimatière initiaux. Or les équations de MOND donnent une valeur de l’accélération caractéristique a0 qui vaut 2 10-10 m s-2… Les valeurs sont donc très très très proches.

Puisque l’Univers de Dirac-Milne avec ses régions de matière et d’antimatière évolue dans le temps, tout comme l’Univers ΛCDM du reste, Chardin et son équipe ont aussi regardé comment se comporterait l’accélération additionnelle induite dans leur modèle en fonction du redshift. Ils ont utilisé pour cela ce qu’ils avaient déterminé en 2020 sur l’évolution de la formation des grandes structures dans le cadre de leur modèle et ont refait tourner des simulations pour différents redshifts

Alors que pour la phénoménologie MOND, l’accélération a0 serait une constante universelle, ce que voient les physiciens français, italien et américain dans le cadre de Dirac-Milne, c’est que l’accélération additionnelle varie en fonction du redshift. Elle décroît de manière continue. Pour les chercheurs, cela reflèterait le fait que la formation hiérarchique des structures à grande échelle a désormais pris fin dans l’Univers de Dirac-Milne, mais l’expansion adiabatique, elle, se poursuit. C’est en tous cas une différence majeure du modèle de D-M avec MOND. 

Chardin et ses collaborateurs obtiennent un autre résultat tout aussi bluffant : ils tracent comment se répartit la vitesse de rotation maximale des galaxies en fonction de la masse qu’ils leur donnent dans leurs simulation, vitesse en abscisse et masse en ordonnée (la relation de Tully-Fisher). Vous devinez sans doute la suite : comme ce qui est observé aujourd’hui dans les galaxies (et quasi impossible à expliquer avec une matière noire non baryonique froide), et comme ce que prédit MOND, le modèle Dirac-Milne produit lui aussi une belle relation de Tully-Fisher en loi de puissance entre la masse et la vitesse de rotation maximale des galaxies : m = Vα . Le modèle D-M donne une valeur proche de 3 pour le paramètre α, alors que MOND prédit une valeur égale à 4, et que la valeur moyenne qui est observée vaut 3.85±0.09 (valeur publiée en 2019)…

Cette étude a été faite sur des cas assez simplistes représentant des volumes d’univers restreints. Chardin et son équipe planifient déjà de réaliser un traitement plus réaliste de la formation des structures en incluant l’hydrodynamique et la rétroaction dans leurs simulations, ce qui devrait leur permettre d’étudier plus finement le relation de Tully-Fisher. Ils annoncent en conclusion qu’ils veulent aussi étudier de plus grands volumes, s’étendant au-delà de l’échelle d’homogénéité (200 Mpc) prédite par le modèle Dirac-Milne, et observée dans notre Univers. De telles simulations à grande échelle constituent un défi car les « domaines » de matière et d’antimatière, qui initient la formation de structures plus grandes au moment du découplage, sont d’une extension géométrique limitée (de l’ordre de 100 parsec à z = 1080).  Cela nécessitera une très haute résolution par rapport aux simulations cosmologiques habituelles. Les chercheurs pensent qu’au delà de tester la robustesse du modèle de Dirac-Milne, ces simulations à des échelles supérieures à quelques centaines de Mpc pourraient aussi permettre de tester les déviations entre mesures locales et à grande échelle de la constante de Hubble-Lemaître  H0, une question d’un intérêt presqu’autant primordial que de changer de modèle cosmologique pour abandonner énergie noire, matière noire, inflation, et retrouver l’antimatière…

Il faut mentionner pour finir que l’idée d’une masse négative et d’une antigravitation est prise très au sérieux par les physiciens depuis de nombreuses décennies. Plusieurs expériences sont toujours financées au CERN pour mesurer pour la première fois comment se comportent des atomes d’antihydrogène dans le champ gravitationnel terrestre : GBAR, AeGIS et ALPHA. Ces trois expériences sont horriblement compliquées à mettre en œuvre. Elles utilisent chacune des techniques différentes et ont récemment été raccordées au nouveau synchrotron ELENA du CERN , qui permet de produire des antiprotons de très basse énergie. On peut garder espoir d’apprendre dans quelques temps un résultat révolutionnaire, ce qui donnerait au modèle cosmologique de Dirac-Milne une aura inimaginable.

Source

MOND-like behavior in the Dirac–Milne universe

Gabriel Chardin, Yohan Dubois, Giovanni Manfredi, Bruce Miller and Clément Stahl

Astronomy&Astrophysics Volume 652, (17 August 2021)

https://doi.org/10.1051/0004-6361/202140575