06/05/2024 Contrairement à la Chine, l’Europe se condamne à être absente de la course à l’espace

Alors que les Etats-Unis sont en train de perdre leur supériorité mondiale dans de nombreux domaines, ils confirment leur volonté de rester ce qu’ils ont toujours été, dominants dans le domaine du spatial, spatial proche dit suborbital, comme spatial planétaire et spatial profond. Cette supériorité est d’abord militaire mais elle est aussi scientifique et se veut économique, par une future exploitation des ressources de l’espace.

Face à cette volonté, l’Europe et notament en son sein la France semblent avoir capitulé. Ainsi le lancement de la fusée Ariane 6, qui doit succéder à Ariane 5, vient d’être reportée à 2024 en raison de retards techniques. Pourtant le premier vol d’essai d’Ariane 6 devait intervenir à la fin 2023,

(voir https://www.lopinion.fr/international/avec-la-fin-dariane-5-lavenir-incertain-du-spatial-europeen)

Par contre, la Chine confirme sa volonté d’être avec les Etats-Unis, sinon devant eux, une puissance spatiale en tous domaines. Le site spécialisé SpaceNews vient de le confirmer

L’Académie chinoise des sciences (CAS) soutient une série de missions variées et innovantes visant à faire avancer son ambitieux programme en sciences spatiales. Ces missions couvrent des domaines très variés tels que l’étude de la Lune, l’astrophysique, les exoplanètes et l’héliophysique, avec pour objectif de placer la Chine à l’avant-garde de la recherche astronomique et de l’exploration spatiale. C’est du moins la volonté de Wang Chi, directeur du Centre national des sciences spatiales (NSSC) relevant de la CAS, qui a récemment présenté ces missions lors du Forum Zhongquacun du 27 avril

https://www.zgcforum.com/en

05/05/2024 Introduction à la lecture du livre « ChatGPT va nous rendre immortel »

Présentation de l ‘auteur Laurent Alexandre par Wikipedia

Né le 10 juin 1960 à Paris, Laurent Alexandre est un ancien  haut fonctionnairechirurgien-urologue de formation, entrepreneurchroniqueurécrivain et militant politique français.

Après avoir créé Medcost avec Thierry Dispot, Denis Carradot, Thomas Clément, Emery Doligé et Cédric Bannel1, il se fait connaître comme cofondateur du site Doctissimo en 1999 puis par ses prises de position dans les années 2010 sur le développement de l’intelligence artificielle, le recul de la mort, la génétique et le transhumanisme.

Souvent présenté comme futurologue, il intervient régulièrement dans les médias au cours des années 2010 : il est notamment chroniqueur dans Le Monde et L’Express.

Il est aussi particulièrement suivi sur Twitter et YouTube.

Par ailleurs, il détient et préside depuis 2009 DNAVision, une société belge de séquençage d’ADN, et possède des actions dans une quinzaine de sociétés en Europe, essentiellement dans les technologies NBIC.

Ses positions sur des sujets clivants suscitent débats et polémiques.

Parfois présenté comme un défenseur du transhumanisme, il affirme en endosser uniquement le diagnostic.

Sur la génétique, il est accusé d’eugénisme, qualificatif qu’il récuse, et ses propos sont contestés au sein de la communauté scientifique.

Il s’oppose de manière virulente aux écologistes et aux collapsologues, dont Greta Thunberg, et est régulièrement accusé de relativiser le réchauffement climatique, ce dont il se défend.

Résumé par l’éditeur

Les milliardaires de l’Intelligence Artificielle ont une obsession : faire reculer la mort. De fait, nous nous dirigeons vers un monde de post-humains immortels. Notre disparition physique deviendrait anecdotique. Subsisteraient notre esprit, nos émotions, nos souvenirs, sous une forme dématérialisée, une sorte d’entité numérique capable de défier le temps.

Nos sociétés sont-elles prêtes ? Non. Nous sommes comme les habitants de Pompéi en l’an 79, juste avant l’éruption du Vésuve. Sam Altman, le créateur de ChatGPT, estime qu’en 2038, l’intelligence humaine représentera 0,1 % de l’intelligence totale sur Terre et l’IA, 99,9 %.

Sam Altman, le créateur de ChatGPT, estime qu’en 2038, l’intelligence humaine représentera 0, 1 % de l’intelligence totale sur Terre et l’IA, 99, 9 %. Nous pensions que l’IA était un outil ou un domestique.

Notre point de vue

Le grand mérite de ce livre est de résumer l état du développement en 2024 des NBIC ( nanotechnologies, biotechnologies, informatique et sciences cognitives) dont pour notre part nous nous soucions d’informer régulièrement nos lecteurs.

Pour notre part, nous lui reprocherions de ne pas évoquer suffisamment les enjeux de puissance qui se jouent en ce domaine entre les Etats-Unis, le bloc russo-chinois et le bloc européen. Régulièrement sont évoqués à ce sujet des risques de 3e guerre mondiale, c’est à dire d’apocalypse.

05/05/2024 Une révolution serait-elle en marche dans le domaine des ordinateurs quantiques ?

PsiQuantum, une entreprise californienne, semble en tout cas sur la bonne voie pour démocratiser cette technologie de puissance.

Aujourd’hui, les ordinateurs quantiques sont encore de l’ordre de l’expérimental et restent en phase de développement intensif. Si l’entreprise OVH en possède un tout comme Google, il reste encore beaucoup à faire pour que cette technologie soit une réalité tangible pour tous.

Cependant la start-up PsiQuantum, basée à Palo Alto en Californie, annonce envisager de produire en masse des ordinateurs quantiques à base de silicium. Pour cela, elle souhaite exploiter les infrastructures déjà existantes de fabrication de puces en silicium.

Plutôt que de suivre le chemin classique consistant en une augmentation de la taille et la puissance des ordinateurs quantiques en augmentant le nombre des qubits, PsiQuantum a choisi une autre voie. Elle a choisi d’utiliser de simples photons comme qubits, à la différence d’IBM et Google qui utilisent des qubits supraconducteurs. Les photons présentent l’avantage de ne quasiment pas interagir avec leur environnement, ce qui les rend exceptionnellement stables pour les calculs quantiques.

Mais pour que l’ordinateur quantique fonctionne, ces photons doivent interagir entre eux afin de traiter l’information. Il faut alors trouver des solutions pour qu’ils puissent entrer en interaction au sein d’un circuit intégré.

Récemment, PsiQuantum a annoncé avoir franchi des étapes importantes dans cette direction. Elle aurait réussi à modifier un processus existant en matière de fabrication photonique sur silicium pour y intégrer de nouvelles fonctionnalités avancées. Elle a notamment mis au point des capacités de détection de photons individuels et de génération de paires de photons directement sur la puce.

Intégrer ces fonctions sur une puce de silicium permet donc d’exploiter les lignes de production de semi-conducteurs existantes pour un jour espérer fabriquer des ordinateurs quantiques en grande quantité. Cette approche accélère le processus de fabrication, mais surtout allège les coûts.

L’équipe travaille aussi au développement de commutateurs optoélectroniques à grande vitesse. Ces dispositifs sont indispensables, car ils permettent de modifier la direction et l’interaction des photons dans les circuits d’un ordinateur quantique. Pour cela, PsiQuantum souhaite utiliser du titanate de baryum afin de confectionner ces commutateurs, un matériau supportant très bien les changements rapides et fréquents, absolument nécessaires pour que l’information soit traitée à haute vitesse.

PsiQuantum occupe actuelle une position unique dans le domaine du quantique et son approche pourrait s’avérer payante s’ils parviennent à surmonter les obstacles pratiques résultants des objectifs précités. Le but annoncé est de parvenir à produire à grande échelle dès 2029 un ordinateur quantique opérationnel.

Il a souvent été dit que celui qui maitrisera le calcul quantique maitrisera le monde. Encore faudra-t-il commencer par maitriser la conception et la fabrication des ordinateurs quantiques. L’annonce de PsiQuantum ne devrait laisser personne indifférent, notamment à Washington ou à Moscou et Pékin.

Source
The Physics arXiv Blog

Apr 30, 2024 9:00 PM

https://www.discovermagazine.com/technology/the-usd1-billion-bet-on-quantum-computers-that-process-light

04/05/2024 Des murs de domaines à la matière noire ?

Les murs de domaines sont envisagés dans des théories visant à expliquer certains phénomènes non résolus en astrophysique, comme l’origine de la gravité et d’autres forces fondamentales. Selon certains chercheurs, si les murs de domaines avaient persisté dans l’univers, ils auraient pu constituer une source d’énergie majeure et influencer l’évolution globale de l’univers. Ils ajoutent que si c’était le cas, nous devrions pouvoir observer des preuves de leur existence ou de leurs effets aujourd’hui. Or, aucune preuve directe ne soutient leur présence.

Cependant dans une nouvelle étude publiée sur le serveur  arXiv dont trouvera ci-dessous les références et l’abstract, un groupe de chercheurs dirigé par Ricardo Ferreira, cosmologiste à l’Université de Coimbra au Portugal, suggère que les murs de domaines se sont formés peu après le Big Bang, puis ont grandi rapidement pour majoritairement se détruire en très peu de temps. Cependant, leur courte existence aurait engendré des perturbations importantes notables dans l’espace-temps. De plus, selon l’étude, certains des murs de domaines qui ne se seraient pas effondrés complètement pourraient s’être transformés en trous noirs. Ces derniers pourraient être suffisamment nombreux pour constituer une partie significative de la matière noire.

Les brisures de symétrie

Selon de nombreux chercheurs, le Modèle standard de la physique des particules (cadre théorique expliquent les interactions des particules élémentaires à travers les forces fondamentales) présente des lacunes. De plus, il n’explique pas certains phénomènes cosmologiques. Pour répondre à ce problème, les responsable de la nouvelle étude ont proposé des extensions au modèle standard en y introduisant les « brisures de symétrie ».

Une brisure de symétrie est un mécanisme qui comprend le passage d’un état très symétrique à un état avec un degré de symétrie inférieur. Cette transition conduit à la préférence aléatoire par la nature d’un certain état arbitraire. Il s’agit d’un processus dans lequel des conditions uniformes (symétriques) commencent à se différencier à mesure que l’univers se refroidit et se dilate. La transition peut mener à la création de structures cosmiques initialement uniformes, devenues distinctes tout en restant stables.

Dans le cadre de l’extension du Modèle standard, les murs de domaines sont envisagés ici comme des conséquences de la brisure de symétrie initiale. Ils sont considérés comme constituant des barrières entre différentes « phases » de l’univers, au cours de cette transition

Dans cette étude, les chercheurs se sont fixés sur une version de brisure de symétrie théoriquement produite dans les conditions initiales de l’univers, juste après le Big Bang, quand la température avoisinait les 2000 milliards de degrés Celsius.

L’équipe a utilisé des simulations informatiques pour modéliser et visualiser l’évolution des murs de domaines sous cette brisure de symétrie. En s’élevant et en s’effondrant ensuite, ces morceaux d’espace-temps auraient généré des perturbations dites « ondes gravitationnelles stochastiques », qui peuvent se propager à travers l’Univers.

Avec le temps et l’expansion continue de l’univers, les ondes gravitationnelles émises par ces murs de domaines s’étirent à des longueurs d’onde de plus en plus grandes (et donc à des fréquences de plus en plus basses). Elles auraient aujourd’hui des fréquences dans la gamme des nanohertz, correspondant au fond d’ondes gravitationnelles détecté récemment en exploitant des pulsars millisecondes (des étoiles à neutrons qui tournent extrêmement rapidement sur elles-mêmes, jusqu’à plusieurs centaines de rotations par seconde). Cependant, l’origine exacte de ces ondes reste un sujet de recherche active.

Référence

Collapsing Domain Wall Networks: Impact on Pulsar Timing Arrays and Primordial Black Holes

5 feb 2024

https://arxiv.org/abs/2401.14331

Ricardo Z. FerreiraAlessio NotariOriol PujolàsFabrizio Rompineve

Unstable domain wall (DW) networks in the early universe are cosmologically viable and can emit a large amount of gravitational waves (GW) before annihilating. As such, they provide an interpretation for the recent signal reported by Pulsar Timing Array (PTA) collaborations. A related important question is whether such a scenario also leads to significant production of Primordial Black Holes (PBH). We investigate both GW and PBH production using 3D numerical simulations in an expanding background, with box sizes up to N=3240, including the annihilation phase. We find that: i) the network decays exponentially, i.e. the false vacuum volume drops as ∼exp(−η3), with η the conformal time; ii) the GW spectrum is larger than traditional estimates by more than one order of magnitude, due to a delay between DW annihilation and the sourcing of GWs. We then present a novel semi-analytical method to estimate the PBH abundances: rare false vacuum pockets of super-Hubble size collapse to PBHs if their energy density becomes comparable to the background when they cross the Hubble scale. Smaller (but more abundant) pockets will instead collapse only if they are close to spherical. This introduces very large uncertainties in the final PBH abundance. The first phenomenological implication is that the DW interpretation of the PTA signal is compatible with observational constraints on PBHs, within the uncertainties. Second, in a different parameter region, the dark matter can be entirely in the form of asteroid-mass PBHs from the DW collapse. Remarkably, this would also lead to a GW background in the observable range of LIGO-Virgo-KAGRA and future interferometers, such as LISA and Einstein Telescope.

04/05/2024 L’univers tout entier serait-il une simulation informatique ?

Si l’idée que l’humanité vit dans une simulation est assez ancienne dans le monde de la science-fiction, le physicien britannique Melvin Vopson est à l’origine d’un ouvrage scientifique dans lequel il explique en détenir la preuve.

Dans la saga Matrix (1999-2021), il était déjà question d’un futur dystopique mettant en scène une humanité enfermée dans la Matrice, une simulation du monde réel. Pourtant, cette idée d’humanité vivant dans une simulation n’est pas nouvelle et date même des années 1960. Toutefois, au-delà de la littérature et du cinéma de science-fiction, certains chercheurs envisagent le sujet très sérieusement. C’est le cas de Melvin Vopson, physicien à l’Université de Portsmouth (Royaume-Uni).

Dans un article publié par The Conversation en octobre 2023 et surtout dans un ouvrage baptisé Reality Reloaded datant de la même année, il affirme en effet que l’humanité vit dans une simulation informatique. Toutefois, il va beaucoup plus loin en basant sa réflexion sur le deuxième principe de la thermodynamique proposé par le physicien français Sadi Carnot (1776-1832). Ce principe affirme la notion d’irréversibilité et surtout, le concept d’entropie qui caractérise le degré de désorganisation d’un système.

Or, selon Melvin Vopson, l’entropie ne peut qu’augmenter ou stagner, mais en aucun cas diminuer. Pour le démontrer, il s’est intéressé à l’entropie dans des systèmes tels que l’Univers.

Il faut rappeler qu’un certain nombre de scientifiques pensent que la matière observable dans l’Univers a un contenu informationnel spécifique. Citons par exemple les atomes qui contiennent des protons, des électrons et des neutrons, et renferment, en plus des masses combinées de ces particules, les masses des informations nécessaires à l’interaction entre ces mêmes particules et avec le reste de l’Univers.

Pour Melvin Vopson, l’entropie est soit constante, soit décroissante jusqu’à une valeur d’équilibre. Néanmoins, cette théorie contredit cette de Sadi Carnot, si bien que le physicien britannique a énoncé la deuxième loi de l’infodynamique.

Le physicien estime que cette loi pourrait jouer un certain rôle en cosmologie, en physique atomique ainsi que dans l’étude des systèmes biologiques. Surtout, cette loi pourrait prouver que l’humanité vit dans une simulation informatique.

« S’il s’agissait d’une simulation, un univers aussi complexe que le nôtre nécessiterait une optimisation et une compression intégrées des données, afin de réduire la puissance de calcul et les capacités de stockage des données nécessaires. Or, c’est exactement ce que nous observons autour de nous, dans les données numériques, les systèmes biologiques, les symétries mathématiques et l’Univers tout entier. », écrit Melvin Vopson dans l’article de The Conversation précité.

Commentaires par Melvin Vopson 

The simulated universe theory implies that our universe, with all its galaxies, planets and life forms, is a meticulously programmed computer simulation. In this scenario, the physical laws governing our reality are simply algorithms. The experiences we have are generated by the computational processes of an immensely advanced system.

While inherently speculative, the simulated universe theory has gained attention from scientists and philosophers due to its intriguing implications. The idea has made its mark in popular culture, across movies, TV shows and books – including the 1999 film The Matrix.

The earliest records of the concept that reality is an illusion are from ancient Greece. There, the question “What is the nature of our reality?”, posed by Plato (427 BC) and others, gave birth to idealism. Idealist ancient thinkers such as Plato considered mind and spirit as the abiding reality. Matter, they argued, was just a manifestation or illusion.

Within the scientific community, the concept of a simulated universe has sparked both fascination and scepticism. Some scientists suggest that if our reality is a simulation, there may be glitches or patterns within the fabric of the universe that betray its simulated nature.

However, the search for such anomalies remains a challenge. Our understanding of the laws of physics is still evolving. Ultimately, we lack a definitive framework to distinguish between simulated and non-simulated reality.

A new law of physics

If our physical reality is a simulated construct, rather than an objective world that exists independently of the observer, then how could we scientifically prove this? In a 2022 study, I proposed a possible experiment, but it remains untested today.

However, there is hope. Information theory is the mathematical study of the quantification, storage and communication of information. Originally developed by mathematician Claude Shannon, it has become increasingly popular in physics and is used a growing range of research areas.

In my recent research, published in AIP Advances, I used information theory to propose a new law of physics, which I call the second law of infodynamics. And importantly, it appears to support the simulated universe theory.

At the heart of the second law of infodynamics is the concept of entropy – a measure of disorder, which always rises over time in an isolated system. When a hot cup of coffee is left on the table, after a while it will achieve equilibrium, having the same temperature with the environment. The entropy of the system is at maximum at this point, and its energy is minimum.

The second law of infodynamics states that the “information entropy” (the average amount of information conveyed by an event), must remain constant or decrease over time – up to a minimum value at equilibrium.

So it is in total opposition to the second law of thermodynamics (that heat always flows spontaneously from hot to cold regions of matter while entorpy rises). For a cooling cup of coffee, it means that the spread of probabilities of locating a molecule in the liquid is reduced. That’s because the spread of energies available is reduced when there’s thermal equilibrium. So information entropy always goes down over time as entropy goes up.

My study indicates that the second law of infodynamics appears to be a cosmological necessity. It is universally applicable with immense scientific ramifications. We know the universe is expanding without the loss or gain of heat, which requires the total entropy of the universe to be constant. However we also know from thermodynamics that entropy is always rising. I argue this shows that there must be another entropy – information entropy – to balance the increase.

My law can confirm how genetic information behaves. But it also indicates that genetic mutations are at the most fundamental level not just random events, as Darwin’s theory suggests. Instead, genetic mutations take place according to the second law of infodynamics, in such a way that the genome’s information entropy is always minimised. The law can also explain phenomena in atomic physics and the time evolution of digital data.

Most interestingly, this new law explains one of the great mysteries of nature. Why does symmetry rather than asymmetry dominate the universe? My study demonstrates mathematically that high symmetry states are the preferred choice because such states correspond to the lowest information entropy. And, as dictated by the second law of infodynamics, that’s what a system will naturally strive for.

I believe this discovery has massive implications for genetic research, evolutionary biology, genetic therapies, physics, mathematics and cosmology, to name a few.

Simulation theory

The main consequence of the second law of infodynamics is the minimisation of the information content associated with any event or process in the universe. This in turn means an optimisation of the information content, or the most effective data compression.

Since the second law of infodynamics is a cosmological necessity, and appears to apply everywhere in the same way, it could be concluded that this indicates that the entire universe appears to be a simulated construct or a giant computer.

A super complex universe like ours, if it were a simulation, would require a built-in data optimisation and compression in order to reduce the computational power and the data storage requirements to run the simulation. This is exactly what we are observing all around us, including in digital data, biological systems, mathematical symmetries and the entire universe.

Further studies are necessary before we can definitely state that the second law of infodynamics is as fundamental as the second law of thermodynamics. The same is true for the simulated universe hypothesis.

But if they both hold up to scrutiny, this is perhaps the first time scientific evidence supporting this theory has been produced – as explored in my recent book.

 

03/05/2024 Découverte des restes d’un serpent préhistorique géant

Des scientifiques ont découvert des restes fossiles d’un reptile géants, sur un territoire qui appartient aujourd’hui à l’Inde. Ils suggèrent qu’ils appartenaient au plus grand serpent connu de la période chaude de l’Éocène. L’animal, d’une longueur de 15 à 20 mètres, aurait vécu il y a 47 millions d’années.

Plus grand que les anacondas ou les pythons actuels, dont la taille peut atteindre jusqu’à six mètres environ, ce serpent est probablement l’un des plus grands à avoir jamais vécu sur Terre.

C’est au cours de fouilles menées dans une mine de charbon de l’État du Gujarat, dans l’ouest de l’Inde, que les scientifiques ont découvert les 27 vertèbres géantes fossilisées qui font aujourd’hui l’objet d’une étude publiée jeudi 18 avril dans la revue Scientific Reports (Voir références ci-dessous)

Il tuait ses proies par asphyxie en s’enroulant autour d’elles;

Source

nature  
Scientific Reports  14, Article number: 8054 (2024)
Published: 18 April 2024

Largest known madtsoiid snake from warm Eocene period of India suggests intercontinental Gondwana dispersal

Abstract

Here we report the discovery of fossils representing partial vertebral column of a giant madtsoiid snake from an early Middle Eocene (Lutetian, ~ 47 Ma) lignite-bearing succession in Kutch, western India. The estimated body length of ~ 11–15 m makes this new taxon (Vasuki indicus gen et sp. nov.) the largest known madtsoiid snake, which thrived during a warm geological interval with average temperatures estimated at ~ 28 °C. Phylogenetically, Vasuki forms a distinct clade with the Indian Late Cretaceous taxon Madtsoia pisdurensis and the North African Late Eocene Gigantophis garstini. Biogeographic considerations, seen in conjunction with its inter-relationship with other Indian and North African madtsoiids, suggest that Vasuki represents a relic lineage that originated in India. Subsequent India-Asia collision at ~ 50 Ma led to intercontinental dispersal of this lineage from the subcontinent into North Africa through southern Eurasia.


03/05/2024 L’univers pourrait-il être en état de superposition quantique?

Des physiciens-théoriciens ont proposé une version du paradoxe du chat de Schrödinger qui pourrait permettre d’unifier la relativité générale et la mécanique quantique. En introduisant de nouveaux paramètres à l’équation initiale, il serait possible de provoquer un mécanisme d’effondrement spontané, quelle que soit la taille du système. Cela permettrait d’expliquer à la fois pourquoi les particules subatomiques obéissent aux lois de la mécanique quantique, tandis que les objets cosmiques semblent obéir aux lois de la physique classique.

D’après la physique quantique,les objets de taille atomique et en dessous peuvent exister selon plusieurs combinaisons d’états à la fois, ainsi que se trouver dans deux endroits différents en même temps. C’est ce que l’on nomme l’état de superposition. Le système conserve cet état de superposition jusqu’au moment où on le mesure. Il acquiert alors une valeur bien définie. Cette modification soudaine de l’état de superposition est appelée « effondrement » ou « collapse ».

Dans les années 1935, Erwin Schrödinger a illustré ce phénomène par son célèbre paradoxe du chat placé dans une boîte scellée contenant une fiole de poison mortel pouvant être brisée selon un détecteur quantique sensible à la mesure. Tant que la boîte reste scellée, on peut considérer que le chat est à la fois mort et vivant, par analogie à l’état de superposition quantique. Cependant, l’ouverture de la boîte implique une mesure par le détecteur quantique conduisant ainsi à l’effondrement du système et révélant l’état définitif du chat.

Mais l’application de ces lois à des scénarios réels comporte des défis les rendant inutilisables a. C’est le cas en ce qui concerne les objets cosmiques. Alors que la superposition quantique s’applique aux particules subatomiques, elle n’a jamais été observée au niveau d’étoiles ou d’amas d’étoiles, pourtant elles-mêmes composées de ces mêmes particules. Au lieu de cela, les objets cosmiques semblent se comporter conformément aux lois de la relativité d’Einstein

Par ailleurs l’application des lois de la mécanique quantique à l’échelle de l’Univers se heurte à un obstacle majeur, étant donné qu’il n’existe pas d’observateur extérieur capables de mesurer son état, à l’instar de celui qui ouvre la boîte pour vérifier l’état du chat.

« La question est de savoir si l’Univers, qui n’a pas d’environnement extérieur, peut se trouver dans une telle superposition », explique Matteo Carlesso, physicien-théoricien à l’Université de Trieste en Italie. Carlesso et ses collègues ont tenté de répondre à cette question en proposant une nouvelle version du paradoxe du chat de Schrödinger. Cette version consiste notamment à introduire de nouveaux paramètres pouvant concilier la mécanique quantique et la relativité pour les objets cosmiques. La nouvelle équation est présentée dans le Journal of High Energy Physics, référencé ci-dessous. Nous y renvoyons le lecteur

D’autre part, les chercheurs ont également supprimé la distinction entre les objets mesurés et les appareils de mesure (ou l’action de mesurer). Cela équivaudrait, dans l’expérience de pensée du chat de Schrödinger, à éliminer l’observateur extérieur ainsi que son action de vérification de l’état du chat.

De cette manière, sans action de la part d’un observateur extérieur, tout système s’effondrerait spontanément dans un état bien défini. Plutôt que d’avoir un chat à la fois mort et vivant, il serait ainsi mort ou vivant (état classique).

Restera à démontrer l’intérêt pratique de telles manipulations. Si elles aboutissaient à la réconciliation de la physique einsténienne et de la mécanique quantique, elles vaudraient plusieurs prix Nobel à leurs auteurs.

Référence

Spontaneous collapse models lead to the emergence of classicality of the Universe

Vol 2924, art number 193

José Luis Gaona-ReyesLucía Menéndez-PidalMir Faizal & Matteo Carlesso

https://link.springer.com/article/10.1007/JHEP02(2024)193

ABSTRACT

Assuming that Quantum Mechanics is universal and that it can be applied over all scales, then the Universe is allowed to be in a quantum superposition of states, where each of them can correspond to a different space-time geometry. How can one then describe the emergence of the classical, well-defined geometry that we observe? Considering that the decoherence-driven quantum-to-classical transition relies on external physical entities, this process cannot account for the emergence of the classical behaviour of the Universe. Here, we show how models of spontaneous collapse of the wavefunction can offer a viable mechanism for explaining such an emergence. We apply it to a simple General Relativity dynamical model for gravity and a perfect fluid. We show that, by starting from a general quantum superposition of different geometries, the collapse dynamics leads to a single geometry, thus providing a possible mechanism for the quantum-to-classical transition of the Universe. Similarly, when applying our dynamics to the physically-equivalent Parametrised Unimodular gravity model, we obtain a collapse on the basis of the cosmological constant, where eventually one precise value is selected, thus providing also a viable explanation for the cosmological constant problem. Our formalism can be easily applied to other quantum cosmological models where we can choose a well-defined clock variable.

02/05/2024 La France ne devrait pas manquer d’uranium pour ses centrales nucléaires.

L’énergie nucléaire est un avantage stratégique crucial pour la France. Selon le ministère de l’Environnement, le nucléaire représente 75% du mix électrique français, soit un peu plus de 40% de son mix énergétique. Alors que l’Europe est en proie à la crise énergétique, le nucléaire permet à la France d’assurer une partie de son autonomie énergétique, et de bénéficier d’une source d’énergie propre et compétitive à l’export.

Pour faire fonctionner les 56 réacteurs nucléaires en activité, la France a besoin de 8 000 à 9 000 tonnes d’uranium naturel par an. L’uranium naturel est extrait sous forme de poudre jaune qui est ensuite transmise dans une usine de conversion chimique. Il est ensuite transformé en tétrafluorure d’uranium (UF4), puis en hexafluorure d’uranium (UF6). L’UF6 est alors enrichi à la centrifugeuse avant d’être ensuite transformé en tétrafluorure d’uranium (UF4), puis en hexafluorure d’uranium (UF6). L’UF6 est alors enrichi à la centrifugeuse avant d’être modifié en oxyde d’uranium,

Pour obtenir le combustible final destiné aux centrales nucléaires, quatre étapes sont donc nécessaires. Le français Orano, anciennement AREVA, maîtrise totalement ou en partie chacune des étapes nécessaires à la production de l’uranium : l’extraction, la transformation chimique, l’enrichissement et enfin la fabrication du combustible. 

Comme la France n’extrait plus d’uranium naturel sur son sol depuis 2001, elle est entièrement dépendante de l’étranger concernant l’approvisionnement en uranium naturel.

Sur les dix dernières années, la France a importé 88 200 tonnes d’uranium naturel. Selon le comité Euratom, ces importations proviennent majoritairement de 4 pays : le Kazakhstan (environ 27%), le Niger (environ 20%), l’Ouzbékistan (environ 19%) et la Namibie (environ 15%). Ainsi, 80% de l’extraction provient de 4 pays. L’approvisionnement en uranium est donc extrêmement concentré. Une crise survenant dans l’un de ces pays menacerait considérablement la filière nucléaire.

A titre d’exemple, le cas du Niger permet de mesurer les risques induits par cette concentration. Le coup d’État survenu en 2023 a déjà un impact significatif sur la chaîne d’approvisionnement. Sous la pression des sanctions imposées par la communauté économique des États de l’Afrique de l’Ouest (CEDEAO) et la fermeture des frontières du Niger, Orano a dû mettre provisoirement fin à la production d’uranium sur place en raison d’une pénurie de matières premières. De plus, l’exportation de l’uranium depuis le Niger vers la France passe par le Bénin, un pays touché par les troubles politiques de son voisin, ce qui perturbe d’autant plus la chaîne logistique de l’uranium. Si le groupe assure que la situation n’est pas menaçante à court terme, il risque d’être exposé durablement à des risques multiples comme la nationalisation, ou l’expropriation selon l’évolution de la situation.

L’approvisionnement de la France en uranium est également soumis à la menace d’une guerre économique et informationnelle dans laquelle la Chine et la Russie déploient des stratégies d’influence et de contre influence à l’égard de la France, comme les Russes ont pu le faire au Niger par exemple. La France a subi de nombreux revers diplomatiques ces dernières années comme au Mali, au Burkina, en Centrafrique ou au Maghreb. Le risque d’une déconvenue similaire en Namibie n’est  donc pas à écarter compte-tenu du sentiment antifrançais et des ingérences de ses  adversaires stratégiques.

D’un point de vue géopolitique, la dépendance à ces quatre pays (Kazakhstan, Ouzbékistan, Namibie, Niger) pose la question de la sécurité de nos approvisionnements en cas de conflits avec la Chine et la Russie. Un scénario que l’on ne peut pas exclure compte-tenu de la tension diplomatique et militaire actuelle.

Face à leurs voisins, comment réagiraient le Kazakhstan et l’Ouzbékistan ? Prendraient-ils le risque de s’opposer à la Russie ou à la Chine pour défendre leurs intérêts commerciaux, ou bien s’aligneraient-ils  sous  la contrainte ? En cas de déstabilisation de la région ou de crise politico-militaire avec la Russie, pratiquement la moitié de notre approvisionnement en uranium se trouverait menacé. La même question se pose avec les pays africains. Alors que ces derniers sont alimentairement dépendants de la Russie, et financièrement dépendants de la Chine (la Chine détenant 20% de la dette africaine), les intérêts commerciaux avec la France pèseraient-ils lourd dans la balance des négociations ? La France ne peut se permettre d’attendre les réponses à ces questions.

C’est là qu’intervient l’uranium canadien, stratégique pour les centrales nucléaires françaises

La mine de Cigar Lake

Située au cœur de la Saskatchewan, la mine est l’une des plus riches en uranium au monde. L’usine de McClean Lake, qui le traite, est exploitée par une filiale d’Orano et vend 40 % de sa production à EDF. C’est à 700 kilomètres au nord de Saskatoon, la capitale économique de la Saskatchewan, que le minerai est extrait.

Cette province, plus grande que la France et soixante-dix fois moins peuplée, dispose d’importantes richesses minières. Son sous-sol possède vingt-trois des trente minéraux critiques et stratégiques retenus par le Canada comme étant nécessaires à la transition énergétique, tels que la potasse, le lithium, le cuivre, l’hélium, les terres rares, mais aussi, et surtout, l’uranium.

Les réserves canadiennes en uranium sont estimées à 588 500 tonnes, soit 10 % des réserves connues au monde. Une manne financière, alors que le cours du minerai a été multiplié par quatre depuis 2020, jusqu’à franchir la barre des 100 dollars la livre (94 euros pour 0,45 kg) en février.

Le gisement de Cigar Lake, localisé dans le nord de la Saskatchewan (province de l’ouest du Canada) a été découvert en 1981, à 40 km à l’ouest de la limite est du bassin de l’Athabasca, près du lac de Waterbury, à environ 60 km au nord-est de la mine d’uranium de McArthur River1. Le dépôt sensiblement orienté est-ouest s’étend sur une longueur de près de 2 000 m et une largeur variable de 20 à 100 m, à 500 m sous terre. C’est un gisement d’uranium dans du grès, reposant sur le socle.

Ce gisement serait le deuxième plus grand gisement d’uranium à haute teneur dans le monde après la mine d’uranium de McArthur River, située elle aussi au Canada. Il est opéré par Cameco, plus important producteur d’uranium au monde.

D’autres gisements, comme celui d’Olympic Dam en Australie, contiennent plus d’uranium ; mais les teneurs n’y sont pas aussi élevées que dans les gisements de la Saskatchewan : la teneur en uranium (= rapport (masse du métal U) / (masse roche totale) ) moyenne à Cigar Lake est de 20 %, alors que la moyenne mondiale des gisements exploités est inférieure à 1 %.

Les réserves prouvées et probables de la mine sont estimées à 537 100 t d’oxyde d’uranium (U3O8) pour une exploitation à un taux moyen de 17,4 %.

La mine est exploitée en mine souterraine, par abattage hydraulique automatisé (donc sans intervention locale d’opérateurs). Les grès encaissants, poreux et saturés d’eau à haute pression, imposent au préalable de geler le terrain dans la masse, pour le stabiliser et éviter des inondations. La mine étant dans le grand nord canadien, au nord de la province de Saskatchewan, le gel est plus facile.

La construction des installations souterraines a débuté en 2005, pour un début de production initialement planifié pour 2007.

Cependant, le 23 octobre 2006, c’est l’échec de l’ouverture de la Mine de Cigar Lake, victime d’une seconde inondation en moins de 6 mois, pour les mêmes raison qu’avait échoué en 2003 celle de la mine d’uranium de McArthur River6: le gel de la terre ne suffit pas à bloquer l’humidité. Les installations étaient alors complétées à 60 %.

L’inondation du site a entraîné la suspension des travaux et le 1er novembre 2007, l’opérateur principal Cameco confirme que sa mine ne sera fonctionnelle au plus tôt qu’en 2011: il précise devoir d’abord terminer la construction du deuxième puits d’évacuation de la mine avant de compléter les développements souterrains.

Une troisième inondation aura lieu en 2008, pendant que la mine était en cours d’assèchement, la première voie d’eau ayant été maîtrisée. Les travaux d’aménagement ne purent reprendre qu’en 2010.

Les analystes ont estimé que cette inondation fut la cause directe du pic du cours de l’uranium de 2007, où le cours au comptant s’est élevé jusqu’à 300 $/kgU8,. Il a ensuite chuté après la catastrophe de Fukushima, au point que de nombreuses mines sont devenues non-viables.

L’ouverture de l’exploitation a été successivement annoncée pour 2011, puis 2013, et enfin 2014.

La production minière n’a été effectivement entreprise qu’en mars 2014 et le début de l’exploitation commerciale (marquant la fin de l’imputation des dépenses sur l’investissement initial) a été annoncé un an plus tard, fin mai 2015.

Initialement l’exploitant canadien Cameco détient 50,025 % des parts de la mine de Cigar Lake, contre 37,1 % pour l’entreprise française Orano Mining et 7,875 % et 5 % respectivement pour les sociétés japonaises Idemitsu et TEPCO. Puis, en 2022, Cameco et Orano Mining font conjointement l’acquisition des parts de la société Idemitsu, ce qui augmente leur participation à 54,547 % et 40,453 % respectivement

Le 15 juin 2013,  Cameco a annoncé avoir obtenu un permis de la Commission canadienne de sûreté nucléaire (CCSN) pour exploiter la mine de Cigar Lake jusqu’en juin 2021

Le minerai extrait est traité dans l’usine canadienne de McClean Lake (58° 11′ 27″ N, 103° 42′ 24″ O), puis exploitée par Orano Mining dans la province de la Saskatchewan, située à 70 km de la mine.

l. 

01/05/2024 Le bel avenir des guerres nucléaires

Chaque jour qui passe rapproche l’humanité de ce que les stratèges bien informés nomment l’Apocalypse. Il s’agirait de la destruction, non seulement de toutes les sociétés humaines, mais sans doute d’une partie de la vie animale et végétale. Au mieux ne subsisteraient que des colonies bactériennes anaérobies  enfouies au fond des océans.

La Terre offrirait alors à un improbable observateur située dans le cosmos le visage qui est celui des centaines de planètes que les humains peuvent dorénavant observer dans l’espace-temps au fur et à mesure que se perfectionnent les moyens d’observation interplanétaires, celui de planètes situées dans la zone habitable de leur soleil et qui pourtant semblent dépourvues de toutes formes de vie complexe.

Il est alors tentant de penser, similia similibus curantur, que ces planètes ont été ravagées par des guerres nucléaires analogues à celles qui menaceront de plus en plus la Terre.

Jusqu’à présent, il était entendu que, compte tenu des conséquences potentiellement apocalyptiques de la décision d’engager le feu nucléaire stratégique, cette décision ne pouvait être prise, après un temps de réflexion extrêmement limité, que par une autorité politique censée représenter légitimement son peuple.

Or aujourd’hui, ces autorités politiques sont nombreuses . Mais elles ne s’intéressent qu’aux intérêts particuliers et souvent opposés qu’elles sont officiellement chargées de défendre.

Aucune n’est chargée de définir un quelconque intérêt collectif qui serait celui de l’humanité dans son ensemble. Les personnalités ou groupuscules qui à titre individuel essaieraient de rappeler cet intérêt collectif ne seraient pas entendues et seraient éventuellement poursuivies pour trahison. Plus un conflit nucléaire s’étendrait, plus elles seraient désavouées.

A une échelle bien plus modeste, ce même phénomène avait joué avant et pendant la 1ère guerre mondiale. Il en était résulté des millions de morts inutiles.

Nous faisons ce rappel aujourd’hui alors que se pose en France la question du partage avec d’autres pays européens du contrôle de l’arme nucléaire française. Plus ce pouvoir sera partagé, plus les risques d’un mauvais usage augmenteront.

01/05/2022 Evaluation de la masse des neutrinos

La valeur de la masse des neutrinos est l’une des grandes énigmes de la physique. Après les photons, les neutrinos sont les particules les plus abondantes de l’Univers, mais comme ils interagissent très peu avec la matière, ils sont extrêmement difficiles à observer. Leurs masses étaient jusqu’ici inconnues

Ces particules existent en trois « modèles » qui ont la propriété de pouvoir s’interchanger au long de leur déplacement.

Vestiges du big bang et produits au cœur des étoiles, les neutrinos sont aussi émis dans certaines désintégrations radioactives, comme celle du tritium, un isotope instable de l’hydrogène. C’est grâce à ces désintégrations que l’expérience KATRIN, située à l’Institut de technologie de Karlsruhe, a tenté de déterminer la masse des neutrinos. Celle-ci s’est révélée être plusieurs millions de fois plus faible que la masse des électrons.

Le principe de l’expérience KATRIN

Il s’agit de scruter la désintégration d’un atome radioactif de tritium, qui donne lieu à l’émission d’un électron et d’un antineutrino (dont la masse est identique à celle d’un neutrino). On mesure l’énergie des électrons éjectés lors de la réaction, pour en déduire celle des neutrinos (masse et énergie sont liées, par l’équation E=mc2).

Sans en donner la valeur absolue, les scientifiques de KATRIN viennent toutefois d’annoncer un résultat important : la masse des neutrinos ne dépasse pas 0,8 eV (électronvolts, soit 1,4x 10-36 kg), selon l’article référencé ci-dessous et publié dans la revue Nature Physics

La précédente limite calculée par l’équipe en 2019, après la mise en service du dispositif, était de 1,1 eV.

L’expérience KATRIN est extrêmement sensible et performante. Le dispositif expérimental de 70 m de long abrite la source de tritium la plus intense au monde et un spectromètre géant permettant de mesurer l’énergie des électrons de désintégration avec une précision inédite.

https://www.researchgate.net/figure/Working-principle-of-the-KATRIN-experiment-as-explained-in-the-main-text-The-view-into_fig1_351685364#

Référence

https://www.nature.com/articles/s41567-021-01463-1

Electron-beam energy reconstruction for neutrino oscillation measurements

 24 November 2021

Abstract

Neutrinos exist in one of three types or ‘flavours’—electron, muon and tau neutrinos—and oscillate from one flavour to another when propagating through space. This phenomena is one of the few that cannot be described using the standard model of particle physics (reviewed in ref. 1), and so its experimental study can provide new insight into the nature of our Universe (reviewed in ref. 2). Neutrinos oscillate as a function of their propagation distance (L) divided by their energy (E). Therefore, experiments extract oscillation parameters by measuring their energy distribution at different locations. As accelerator-based oscillation experiments cannot directly measure E, the interpretation of these experiments relies heavily on phenomenological models of neutrino–nucleus interactions to infer E. Here we exploit the similarity of electron–nucleus and neutrino–nucleus interactions, and use electron scattering data with known beam energies to test energy reconstruction methods and interaction models. We find that even in simple interactions where no pions are detected, only a small fraction of events reconstruct to the correct incident energy. More importantly, widely used interaction models reproduce the reconstructed energy distribution only qualitatively and the quality of the reproduction varies strongly with beam energy. This shows both the need and the pathway to improve current models to meet the requirements of next-generation, high-precision experiments such as Hyper-Kamiokande (Japan)3 and DUNE (USA)4.