11/02/2025 Intelligence artificielle et fusion nucléaire, les deux chances de la France

L’intelligence artificielle (IA) est plus qu’une révolution industrielle et technologique. Elle laisse entrevoir de profonds changements dans nos sociétés, dans nos rapports au savoir, au travail, à l’information, à la culture et même au langage. Cette révolution technologique ne connaît pas de frontières.

En ce sens, l’IA est un enjeu scientifique, économique, culturel, politique et citoyen qui nécessite un dialogue étroit entre les Etats, les chercheurs, les entreprises, les créateurs et la société civile. Ces échanges doivent permettre d’adapter et de préparer de manière collaborative la société aux évolutions entraînées par l’IA.

Cette rencontre internationale rassemblera près d’une centaine de pays et plus d’un millier d’acteurs du secteur privé et de la société civile venus de tous les continents. Les acteurs invités sont issus d’horizons très différents et portent chacun un engagement et une contribution forte en faveur des objectifs poursuivis par le Sommet.

C’est en ces termes qu’est présenté ce 3e Sommet. Nous n’avons rien à y redire. Dans une discipline jusqu’ici très envahie par les intérêts des Grands de l’Informatique américains, les start-up françaises commencent à assurer une approche originale, inspiré par un sens du service public et de l’intérêt général que l’on ne retrouve pas toujours dans d’autres parties du monde.

Mais il n’y a pas que dans l’Intelligence Artificielle que des valeurs proprement françaises doivent plus que jamais être affirmées. Il y celui de la fusion nucléaire. La France grâce à l’expérience permise par un parc unique au monde de centrales reposant sur la fission des atomes d’uranium, aborde désormais le domaine infiniment plus riche de la fusion .

La fusion nucléaire

À l’horizon 2050, pourra-t-on reproduire sur Terre l’énergie des étoiles et produire ainsi de l’électricité avec un faible impact sur l’environnement ? Une grande partie de la communauté scientifique internationale pense que le pari peut être gagné. Mais l’avenir de ce programme ambitieux est soumis à des décisions politiques, y compris en termes de financement .

Les centrales actuelles utilisent l’énergie dégagée par la fission de l’atome d’uranium, une réaction qui met en jeu des noyaux lourds. La fusion, en revanche, consiste à rapprocher des isotopes de l’hydrogène (deutérium et tritium), les éléments atomiques les plus légers, pour obtenir de l’hélium et de l’énergie. Cette réaction nécessite une température très élevée, analogue à celle que l’on trouve au cœur des étoiles.

On peut y parvenir en bombardant les isotopes d’hydrogène par un faisceau laser intense. L’inconvénient de cette méthode est qu’elle est très liée aux applications militaires. C’est pourquoi la plupart des scientifiques ont choisi de développer la méthode de la fusion par confinement magnétique

Dans cette option, le plasma est obtenu grâce à différents systèmes de chauffage, notamment par micro-ondes. Pour ne pas détruire les parois qui l’entourent, le plasma est maintenu en suspension au millimètre près par des champs magnétiques intenses.

Le principal avantage de la fusion thermonucléaire est qu’elle libère une quantité d’énergie bien plus grande que la fission et ne produit pas de déchets radioactifs pendant des milliers d’années. De plus, le deutérium est quasiment inépuisable (il est présent dans l’eau) et le tritium est facile à produire.

Mais on est encore loin de maîtriser la fusion, qui nécessite une dépense d’énergie très importante. L’Union européenne, la Russie, le Canada et les États-Unis se sont associés pour construire en commun un réacteur expérimental (ITER) qui actuellement connaît quelques difficultés de financement.

Il faudra ensuite quelques décennies avant d’espérer produire de l’électricité par fusion en quantité suffisante pour alimenter les besoins nationaux.

Pas de dégagement de gaz carbonique (CO2), donc pas d’effet de serre, pas de risque d’accident puisque la réaction s’arrête dès que le plasma n’est plus alimenté… Les avantages de la fusion sont incontestables. La réaction de fusion dégage quand même une petite quantité de déchets radioactifs qu’il faudra malgré tout traiter.

Reste la question de la distribution d’une telle énergie potentielle. La puissance de cette source énergétique nécessitera des réseaux électriques dimensionnés en conséquence. A priori, la fusion thermonucléaire reste donc une piste dont ne pourraient profiter que les pays les plus développés.

I0/02/2025 Le JET et la marche à la fusion nucléaire

Promesse d’une énergie virtuellement infinie et peu polluante, la fusion nucléaire a bénéficié ces derniers mois d’un fort coup d’accélérateur, notamment grâce a un important afflux de capitaux.

Mais c’est du côté de l’un des plus vénérables acteurs du secteur qu’il faut aller chercher un impressionnant record. Basé à Culham près d’Oxford en Angleterre, le Joint European Torus est un vieux projet né avant le début des années 1980 et fondé par l’Union européenne, associée à la Suisse, au Royaume-Uni et à l’Ukraine.

Le JET dispose de l’un des plus grands et plus puissants tokamaks au mond . Le tokamak est le dispositif de confinement magnétique où la réaction de fusion, en l’occurrence de deutérium et de tritium, se déroule à très haute température.

En 1997, cet imposant engin avait réussi à délivrer une énergie de 22 mégajoules environ, un résultat historique qui faisait de la fusion un avenir possible et allait poser les futures bases du projet international ITER, basé dans le sud de la France.

Début février, comme l’a annoncé l’Atomic Energy Authority britannique (UKAEA), le précédent record est tombé, et de beaucoup. Le JET l a cette fois produit et maintenu une énergie de 59 mégajoules pendant une durée de 5 secondes, soit le temps maximal permis par le design et les caractéristiques du tokamak.

«Ces résultats historiques nous ont fait faire un immense pas supplémentaire vers la conquête de l’un des plus grands challenges scientifiques et d’ingénieries qui soient», a déclaré Ian Chapman, chief executive de l’UKAEA.

«En termes de puissance, il s’agit de l’équivalent de quatre turbines éoliennes, on se rapproche d’une échelle industrielle», précise le chercheur Arthur Russel, auteur de l’ouvrage The Star Builder«Cela semble peu, mais cinq secondes représentent une durée énorme à l’échelle nucléaire.»

Si elle n’alimentera pas en électricité les futures voitures électriques du monde, cette production représente surtout la validation de choix industriels et techniques passés, et confirment ce que les simulations numériques et outils de diagnostic prédisaient quant à la fusion du plasma.




I0/02/2025 La fusion nucléaire proposée par Zap Energy

La technologie de fusion nucléaire développée par la start-up américaine Zap Energy vient d’être validée. Leur prototype dévoilé en octobre 2024 aurait produit des plasmas thermiques stables, une étape essentielle pour être utilisé. Un plasma stable est indispensable pour maintenir les fortes températures, car une instabilité peut conduire à une dissipation d’énergie, ce qui diminuerait l’efficacité du processus.

Dans le cadre d’une série d’expériences, au cours desquelles 433 tirs de plasma ont été analysés, les chercheurs de Zap ont pu constater que les émissions de neutrons étaient presque complètement isotropes. C’est-à-dire que leurs propriétés étaient les mêmes dans toutes les directions. D’après Interesting Engineering, il s’agirait d’un bon signe que la fusion se déroule de manière contrôlée dans le réacteur.

Il existe aujourd’hui plusieurs méthodes de fusion testées. La plus répandue – et pour l’instant la plus prometteuse – est la fusion par confinement magnétique, mise en application avec les réacteurs Tokamak, dont la forme de beignet permet de maintenir le plasma à haute température par champ magnétique. C’est notamment le processus utilisé dans le cadre du projet ITER (International Thermonuclear Experimental Reactor).

La technologie développée par Zap est différente. Baptisée FuZE, le dispositif est basé sur la fusion par Z-pinch. Il se présente comme un cylindre et par un effet de pincement, envoi un courant électrique très puissant pour générer un champ magnétique qui comprime un plasma chaud. Sous une telle chaleur et une telle pression, les noyaux d’hydrogène fusionnent pour former un noyau d’hélium, ce qui libère des neutrons hautement énergétiques. Les flux de plasma qui se déplacent « en cisaille », (c’est-à-dire à différentes vitesses entre les couches) sont ainsi plus stables.

Contrairement à la fusion par « faisceau-cible » (une autre méthode), qui entraîne des émissions anisotropes, la technologie de Zap émet des neutrons isotropes : l’énergie ne varie pas selon la direction. « Cela signifie que nous pouvons doubler la taille du plasma et nous attendre à ce que le même type d’équilibre existe« , a déclaré Uri Shumlak, co-fondateur de Zap

Pour Zap, ces résultats sont le fruit d’un long travail de recherche. La fusion par Z-pinch est en réalité l’un des concepts de fusion les plus anciens. Il remonte aux années 1950, au Royaume-Uni, lorsqu’a été montée l’expérience ZETA. L’objectif de créer de la fusion thermique n’avait pas pu être atteint à l’époque. La fusion observée ayant été confondue avec des interactions faisceau-cibles causés par des instabilités magnétiques.

https://www.zapenergy.com/

Commentaire

https://korii.slate.fr/tech/energie-fusion-nucleaire-zap-energy-mini-reacteurs-garage-z-pinch-fuze-q-simulations

Si l’on encore loin de la maîtriser, la technologie de fusion nucléaire porte en elle de nombreux espoirs quant au futur de l’énergie. En envoyant deux isotopes d’hydrogène dans un réacteur circulaire appelé «tokamak» soumis à un magnétisme extrême, ceux-ci fusionnent et produisent un plasma extrêmement chaud, donc de l’énergie, le tout de manière plus propre et sécurisée que la fission que nous connaissons aujourd’hui.

Si les très grands projets financés par les États sont les plus importants espoirs de la fusion, les promesses de cette technologie amènent de plus petits projets expérimentaux à voir le jour. C’est le cas de Zap Energy, une start-up basée à Seattle.

Plutôt que de recourir aux coûteuses bobines magnétiques en cuivre utilisées dans les tokamaks, Zap Energy souhaite s’appuyer sur le champ magnétique créé par le plasma lui-même. Cette technique, appelée «striction axiale» ou «Z-pinch», est étudiée depuis les années 1950, mais reste beaucoup moins populaire que celle des réacteurs circulaires à cause de son instabilité . Lors des tentatives de création de réacteurs Z-Pinch, le plasma se tordait et finissait par s’effondrer sur lui-même.

Cependant, en 2019, une équipe de scientifiques de l’Université de Washington est parvenue, en utilisant la mécanique des fluides, à lisser continuellement le plasma, donc à éviter qu’il ne se déforme et à le rendre potentiellement utile pour une production continue d’énergie.

L’un des auteurs de cette étude, Uri Shumlak, est le fondateur de Zap Energy. Il affirme aujourd’hui que les simulations de son réacteur expérimental, le FuZE-Q, fonctionnent parfaitement.

L’objectif à terme est de parvenir à produire en masse des FuZE-Q suffisamment petits pour tenir dans un garage, et d’autres suffisamment grands pour pouvoir alimenter une ville.

Pour en arriver là. il va falloir que les tests réels soient aussi efficaces que les simulations. Ensuite, si le FuZE-Q résiste théoriquement à une alimentation de 500 kiloampères (kA), et est conçu pour en supporter 650., cette puissance est tout juste suffisante pour obtenir le seuil de rentabilité du réacteur à partir duquel il produirait plus d’électricité qu’il n’en consomme. Autant dire que l’alimentation de villes entières n’est pas pour tout de suite. Si cela arrivait, c’est le monde dans son ensemble qui pourrait s’en trouver bénéficiaire

09/02/2025 L’hypothèse de la conscience quantique

En mécanique quantique, selon le principe de superposition, un même état quantique peut posséder plusieurs valeurs pour une certaine quantité observable (spin, position, quantité de mouvement, etc.)

Ce principe résulte du fait que l’état – quel qu’il soit – d’un système quantique (une particule, une paire de particules, un atome, etc.) est représenté par un vecteur dans un espace vectoriel nommé espace de Hilbert (premier postulat de la mécanique quantique).

Comme tout vecteur de tout espace vectoriel, ce vecteur admet une décomposition en une combinaison linéaire de vecteurs selon une base donnée. Or, il se trouve qu’en mécanique quantique, une observable donnée (comme la position, la quantité de mouvement, le spin, etc.) correspond à une base donnée de l’espace de Hilbert.

En conséquence, si l’on s’intéresse, par exemple, à la position d’une particule, l’état de position doit être représenté comme une somme d’un nombre (infini!) de vecteurs, chaque vecteur représentant une position précise dans l’espace. Le carré de la norme de chacun de ces vecteurs représente la probabilité de présence de la particule à une position donnée.

Principe de superposition quantique — Wikipédia

Le phénomène dit de l’étrangeté quantique (quantum veirdness) désigne des événements inconnus dans la physique newtonienne dite aussi macroscopique. On cite l’intrication quantique, la non-localité quantique, la superposition quantique, le principe d’incertitude, la dualité onde-particule, le caractère probabiliste de l’effondrement de la fonction d’onde

Or il a été depuis longtemps suggéré que la conscience trouvait son origine dans des phénomènes quantiques se produisant dans les neurones du cerveau , plus précisément lorsque la superposition quantique s’y effondrait. Mais comment prouver cette affirmation? N’était ce pas remplacer un mystère par un autre ?

Nous publions ici sur ce sujet un article en anglais que vient de faire paraitre dans le NewScientist du 4 janvier 2025, p.40 Hartmut Neven chef du laboratoire Google Quantum AI https://quantumai.google/ responsable chez Google de la construction des plus puissants calculateurs quantiques à ce jour.

Il a été depuis longtemps été suggéré que la conscience trouvait son origine dans des phénomènes quantiques se produisant dans les neurones du cerveau , plus précisément lorsque la superpositon quantique s’y effondrait. Mais comment prouver cette affirmation? N’est ce pas remplacer un mystère par un autre ?

———————————————————

The suggestion that consciousness has its origins in quantum weirdness has long been viewed as a bit, well, weird. Critics argue that ideas of quantum consciousness, the most famous of which posits that moments of experience arise as quantum superpositions in the brain collapse, do little more than merge one mystery with another. Besides, where is the evidence? And yet there is a vocal minority who insist we should take the idea seriously.

Hartmut Neven, who leads Google’s Quantum Artificial Intelligence Lab, is among them. He originally trained as a physicist and computational neuroscientist before pioneering computer vision – a type of AI that replicates the human ability to understand visual data. Later, Neven founded Google Quantum AI, which in 2019 became the first lab to claim its quantum computers solved calculations that are impossible on a classical computer, a milestone known as quantum supremacy. In December 2024, his team announced another step forward with its new quantum processor, Willow, which it claims is more powerful and reliable than previous chips.

But Neven is also interested in the relationship between mind and matter. And now, in a use case for quantum computers that no one saw coming, he reckons they could be deployed to put the idea of quantum consciousness to the test. Neven spoke to New Scientist about his belief that we live in a multiverse; why Roger Penrose’s theory of quantum consciousness is worth pursuing, albeit possibly with a new twist; and how we can test such ideas by entangling quantum computers with human brains.

Thomas Lewton: How has working at the forefront of quantum computing altered your view of what reality is?

Hartmut Neven: We recently ran a computation on our new quantum processor, named Willow, that would take the best classical supercomputer an astounding amount of time to complete: 1025 years. This mind-boggling number exceeds known timescales in physics and vastly exceeds the age of the universe. To me, this result suggests that quantum processors are tapping into something larger than just our universe, lending credence to the notion that their computation occurs in many parallel universes.

Over the years, I’ve come to appreciate that the most straightforward reading of the equations of quantum mechanics is that, indeed, we live in a multiverse: that every object, including myself or the cosmos at large, exists in many configurations simultaneously. This view of reality has profoundly shaped my everyday outlook on life.

In what way?

My general stance when describing the world is physicalism, which states that every phenomenon we witness can be explained as a manifestation of matter. But the only phenomenon that we are certain exists is conscious experience. Everything starts from experience; without mind, nothing matters.

So then the task you have as a physicalist is to identify the locus of consciousness. Here, I think, quantum mechanics has a unique advantage over classical mechanics – and it is directly related to the multiverse picture.

If the multiverse picture is correct, then there are a vast number of parallel worlds. But right now, you and I coexist in a definite, classical branch of the multiverse. So why do we witness this configuration and not the other ones? This is an opportunity to place consciousness in your physicalist theory. An attractive conjecture is that consciousness is how we experience the emergence of a unique classical reality out of the many that quantum physics tells us there are.

Consciousness seems like a very different kettle of fish to quantum physics. How can one be accommodated into the other?

I’m a disciple of Roger Penrose, who, in his 1989 book The Emperor’s New Mind, put forth the idea that consciousness involves a state of matter in quantum superposition, where a quantum object exists in multiple configurations at the same time. When the superposition collapses during a “measurement” process, one classical branch gets selected out of many possible branches and this implements a conscious moment. I always thought this was beautiful because then qualia – specific subjective experiences such as the redness of a rose or the feelings that music evokes – can naturally be encoded into the state that [the superposition] collapses into.Is there any way to test the idea that consciousness is quantum in origin?

There are already some insights coming from experiments with anaesthesia. Anaesthetics reversibly knock out your consciousness. You are still breathing, your heart is still pumping, but you can’t report conscious experiences anymore. However, even though anaesthetics are a medical godsend and in use for almost 180 years, we still have no clue how they work. Nobody understands it.

Interestingly, the simplest anaesthetics are inert gases like xenon. Even more peculiarly, there are reports that different isotopes of xenon, each of which has slight differences in mass and a quantum property called spin, have different anaesthetic potency. If that can be confirmed, then you can’t possibly explain this without considering quantum mechanics. I feel this is a smoking gun experiment.

And you have proposed another kind of experiment in a recent paper. Can you tell us a bit more about that?

Let’s first picture our brain as containing qubits, which are the basic units of information in quantum computing. I think that’s rather uncontroversial. Some researchers – like our colleague Stuart Hameroff, [the director of the Center for Consciousness Studies at the University of Arizona] – suggest that large protein structures in neurons called microtubules act as qubits. But any biophysicist or biochemist would say that, at the very least, on the level of molecules with electron clouds, there are quantum states in our brain – so we can be said to have qubits in our brains.

Then let’s say we have “N” qubits in our brain and “M” qubits in an external quantum computer, with the letters referring to a certain number of qubits. If a person could entangle their brain with this quantum computer, they could create an expanded quantum superposition involving “N+M” qubits. If we now tickle this expanded superposition to make it collapse, then this should be reported by the person participating in this experiment as a richer experience. That’s because in their normal conscious experience, they typically need “N” bits to describe the experience, but now they need “N+M” bits to describe it.

I call this the “expansion protocol”, as it would allow us to expand consciousness in space, time and complexity. In fact, if we can find a way to set up this experiment, and someone reports these richer experiences, then this would support our explanation that quantum processes generate consciousness.

What do you imagine it would be like to experience this expanded consciousness?

The number of bits per second that we are consciously aware of is not very large. Many things that you could potentially be consciously aware of you’re not. Let’s say the James Webb Space Telescope shoots a beautiful picture, we make a screensaver out of it and we admire it. We are not able to consciously behold all the information that’s in the myriads of photons streaming into the James Webb telescope. That’s an experience we are not able to have.

So, in principle, we could generate way richer experiences than we normally have using our default biological brain. Some extraordinary states of consciousness, such as those experienced under psychedelics, for example, may be sort of a preview of what you could expect here. Entangling one’s brain with a quantum computer could potentially unlock higher levels of consciousness, creativity and understanding.

Would this help you to understand the relationship between mind and matter?

We could use this experimental set-up to identify which quantum states of matter correlate to different qualia. We can do this by asking a person whose brain is entangled with a quantum computer about the specific characteristics of their feelings and measuring the qubits associated with those feelings.

How has considering this experimental concept changed how you think about the origin of conscious moments?

When I started to think about this experimental programme, I realised, oh, wait a minute, there’s actually an issue with Roger’s ideas. If I measure a qubit in the quantum computer, the superposition collapses into a state that instantly goes hand in hand with an experience in the person who is entangled with the computer. If this were to happen, then I could use this entanglement – a unique phenomenon in quantum mechanics where two or more particles become intrinsically linked – as a channel to transmit information faster than light.

So, when Roger associated conscious moments with the collapse of superpositions, this opened the possibility of faster-than-light communication, which goes against fundamental rules of physics. I don’t like this – I’m the more orthodox physicist on this point. But if, instead, we say that a conscious moment is experienced when a superposition forms, not when a superposition collapses, then this challenge with faster-than-light communication goes away.

In our experimental set-up, we could test which of these ideas is correct. In Penrose’s version, the richer experience would be felt when the superposition collapses. However, if conscious moments occur when superpositions form, then the richer experience would be felt as soon as the qubits in someone’s brain become entangled with the qubits of the quantum computer.

What other problems does flipping Penrose’s idea on its head help to solve?

The role of entanglement in the formation of conscious moments naturally explains our unified experience of reality. This is a well-known issue in neuroscience called the binding problem.

When we see an object, such as a face, neurons in the brain’s primary visual cortex fire in response to certain features being present, such as edges in certain orientations, creating the rough outline of a face. Then, this brain activity propagates to the higher visual cortices where richer facial features are represented. Our experience is distributed through the brain, rather than single neurons existing that fire to, say, represent your grandmother. We perceive holistically. So there is a disjoint between what we experience and the structure of our material brains. This is called the binding problem.

We can solve this by proposing that entanglement between qubits creates a unified conscious experience. Entanglement is the only true binding agent we have in physics, as it allows for the creation of holistic states where individual components are fundamentally interconnected. Thus, entanglement offers an elegant solution to the binding problem.

Will it ever be practically possible to entangle a human mind with a quantum computer?

At this point, the expansion protocol is technically still very challenging. But we can do a simpler warm-up experiment.

In recent years, researchers have become adept at growing little balls of human brain cells called brain organoids. We could use two qubits coupled via a brain organoid and carry out a Bell test – a quantum experiment that checks whether or not two systems are entangled. If we were to find that entanglement is needed to explain the results of this Bell test, then we can conclude that the brain organoid, at least in part, deserves a quantum mechanical description.

Maybe all the ideas I’ve been talking about turn out to be incorrect. But if it works, then you could ask, how is the quantum coupling best realised? Do you want to use photons? Do you want to use spin – a quantum property that atomic nuclei or electrons have? Or perhaps you want to use collective modes in microtubules.

How are these ideas about the quantum nature of consciousness received in your circles?

It’s an acquired taste. I’m often surprised how, among scientists, the nature of consciousness is considered a question one shouldn’t ask or be involved with. Whereas I think, look, when I have a toothache, this experience is very real, much more real than, say, the big bang or other constructs of science.

The philosopher of science Thomas Kuhn, in his book The Structure of Scientific Revolutions, said that before “normal science” can begin, there’s a “pre-paradigmatic” phase where we are still searching for the right framework to understand a phenomenon. I believe consciousness research has reached this inflection point. Our conjecture on what creates consciousness and our proposal on how to test it show that the nature of consciousness might be addressed with the methods of experimental science.

08/02/2205 D’où pourrait provenir la prochaine pandémie ?

La pandémie due au corona virus aurait tué 15 millions de personnes dans le monde et infecté 400 millions d’autres en laissant à certains des handicaps à long terme. Elle a créé une récession économique pire que la crise de 1929.

Cependant sur l’échelle mondiale des pandémies, ses effets sont considérés comme modérés. Les experts préviennent que le monde doit se préparer à pire.

Mais quelle infection pourrait provoquer la prochaine pandémie ?. Les réponses ne manquent pas. La référence à la grippe espagnole qui après 1918 a tué des millions de personnes de par le monde n’a pas été oublié par les épidémiologues.

La diffusion du prochain virus par la voie aérienne est la plus à craindre. Tousser et même parler peut répandre très rapidement le virus aérien (air born), notamment dans les milieux urbains à forte densité. S’il est indispensable, le masque facial destiné rappelons le non à se protéger soi-même mais à protéger les autres au cas où vous sériez porteur d’un virus sans encore le savoir, est porté avec trop de négligence pour être suffisamment protecteur.

Le principal souci aujourd’hui résulte de la diffusion mondiale de la grippe aviaire dite H5N1 bird flu. Sur les 1000 cas humains reportés à ce jour, la moitié , soit 500, ont été mortels Voir https://www.cdc.gov/bird-flu/situation-summary/index.html.

Le coronavirus demeure menaçant. Des formes mutantes semblent avoir être identifiés, comme celle observée en 2021 dans un hôpital de Colombia https://www.cuimc.columbia.edu/news/topics/infectious-diseases/covid-19?page=0%2C8?page=0%2C8

Référence

NewScientist, p8, 4 january 2025

06/02/2025 Le cœur profond de Mars serait analogue à celui de la Terre.

Des méthodes de téléprospection séismiques semblent montrer que la planète Mars voisine de la Terre disposerait d’un cœur solide analogue à celui de la Terre.

Il y a quelques années, l’atterrisseur de la Nasa nommé Insight Lander équipé d’un sismomètre permettant de prospecter jusqu’au centre de la planète Mars, avait détecté des ondes produites par des tremblements de terre martiens se heurtant à un centre solide supposé que celui-ci renverrait vers la surface

Depuis des chercheurs de l’université chinoise de science et de technologie ont montré par des mesures plus précises que le noyau solide de Mars était d’un rayon de quelques 600 kilomètres soit 1/5 du rayon de la planète elle-même. Ceci confirmerait l’hypothèse que Mars et la Terre sont de même origine..

Référence

Seismic Detection of a 600-km Solid Inner Core on Mars

Daoyuan Sun, Huixing Bi, Ningyu Sun, Zhu Mao, Mingwei Dai, Douglas Hemingway

This is a preprint; it has not been peer reviewed by a journal.

https://doi.org/10.21203/rs.3.rs-4423842/v1

Abstract

For rocky planets, the presence of a solid inner core has strong implications for the composition and thermal evolution of the core and for the planet’s magnetic history (refs.1-3). On Mars, geophysical observations have confirmed that the core is at least partially liquid (refs.4-7), but it has been unclear whether any part of the core is solid. Here we show from analysis of seismic data acquired by the InSight mission that Mars has a solid inner core. We identify two seismic phases, the deep core-transiting phase, PKKP, and the inner core boundary reflecting phase, PKiKP, indicative of the inner core. Our inversions constrain the radius of the Martian inner core to ~610±50 km, with a compressional velocity jump of ~30% across the inner core boundary. These inner core properties imply a concentration of distinct light elements, supporting inner core crystallization following a “snowing-core” model (ref.8), indicating a relatively low temperature on Mars. This finding provides an anchor point for understanding the thermal and chemical state of Mars. Additionally, the relationship between inner core formation and the Martian magnetic field evolution could offer critical insights into dynamo generation across planetary bodies.

07/02/2025 Batteries électriques. La technologie du « tout solide »

Une batterie solide, également appelée batterie à électrolyte solide ou batterie tout solide désigne un type d’accumulateur électrique pour lequel l’électrolyte, placé entre l’anode et la cathode, est solide, sous forme d’une plaque de verre ou de gel. Voir Wikipedia https://fr.wikipedia.org/wiki/Batterie_solide

La vente des véhicules neufs entièrement électriques est aujourd’hui en recul de 26% par rapport à nov. 2023 , que ce soit chez les particuliers ou les professionnels. CF Auto-Infos https://www.auto-infos.fr/article/le-vehicule-electrique-a-recule-de-3-en-2024.285308. Ceci serait du à la diminution des aides à l’achat de ce type de véhicules. Mais pourquoi de telles aides ? Elles seraient nécessaires pour vaincre les réticences à l’égard de l’achat et de l’entretien de l’important équipement sous forme des batteries traditionnelles dites au lithium-ion qu’exigent aujourd’hui les véhicules électriques. Ces batteries sont lourdes et dans certaines conditions peuvent être dangereuses.

Aussi bien, beaucoup d’espoir est mis aujourd’hui dans le développement de l’ usage des batteries solides. Celles- ci sont déjà de pratique courante quand il s’agit d’alimenter en électricité de petits équipement domestiques, tels que des brosses à dents. Mais avec les véhicules électriques, le besoin change de dimension.

Aujourd’hui, il faut des batteries plus légéres, plus sures et plus rapides à recharger. Les versions récentes de batteries tout solide semblent offrir la solution. Selon Toyota, une recharge de 10 minutes devrait permette de parcourir jusqu’à 1.200 kilomètres. Tous les autres constructeurs annoncent des flottes de démonstration. Plus prudent le géant chinois BYD parle de 2029

Selon l’Agence Internationale de l’Energie, le nombre de véhicules électriques dans le monde pourrait ainsi passer de 16,5 millions en 2021 à environ 350 millions en 2030.

L’Europe

Pour rester dans cette course, l’Europe a lancé l’initiative Battery 2030+, dotée de 150 millions d’euros. « Dans cette course, c’est pour l’instant l’Asie qui est en tête », avertit Corsin Battaglia.

La Chine est leader dans ce domaine. Mais juste derrière, la Corée du Sud espère se tailler la part du lion, avec ses trois principaux fabricants de batteries que sont Samsung SDI, LG Energy Solution et SK On.

Récemment, le gouvernement a d’ailleurs annoncé vouloir investir 15 milliards de dollars d’ici à 2030 pour faire partie du peloton de tête. Et le pays ne part pas de rien: un chercheur de l’Université Dankook, près de Séoul, a ainsi mis au point un matériau pour cette couche médiane des batteries « tout solide » ayant la meilleure conductivité ionique au monde, autrement dit la meilleure efficacité.

Aussi prometteuses qu’elles soient, les batteries « tout-solide » ne semblent toutefois pas encore totalement abouties: le matériau idéal, à la fois robuste et fiable, qui ne se dégrade pas trop vite, mais qui résiste bien aux multiples cycles de charges et décharges (jusqu’à un millier) et qui est facile à fabriquer tout en étant rentable à intégrer dans les accumulateurs, reste à élaborer. L’un des principaux problèmes est la formation de fissures dans cette couche solide, appelées « dendrites », qui peuvent ensuite être sources de courts-circuits dévastateurs.

06/02/2025 La télétransportation quantique

La téléportation quantique est une technique de transmission d’information qui consiste à transférer l’état quantique d’un système vers un autre système similaire et distant, sans devoir transporter physiquement le système initial.

Source Wikipedia

En d’autres termes, c’est un moyen de transmettre l’information contenue dans un système quantique à un autre endroit, sans avoir à déplacer le système physique.

Ce transfert d’état quantique s’appuie sur le phénomène d’intrication quantique selon lequel deux parties d’un système quantique sont liées de manière à agir comme un seul système, même si elles sont séparées par de grandes distances. La téléportation quantique utilise cette « liaison » comme une ressource pour transférer l’état quantique d’un système à un autre en utilisant des processus de mesure et de correction d’erreur.

Pour rendre possible la téléportation d’états quantiques, les physiciens ont élaboré un protocole expérimental : « le protocole de téléportation quantique ».

 Le protocole de téléportation quantique

En 1993, Charles H. BennettGilles BrassardClaude CrépeauRichard JozsaAsher Peres et William K. Wooters introduisent un protocole d’information quantique permettant de téléporter l’état quantique d’un qubit et le nomment : « téléportation quantique ».

En 2009, des chercheurs américains ont transféré de manière instantanée l’état quantique d’un atome d’ytterbium vers un autre, à un mètre de distance. Une expérience précédente n’avait permis de « franchir » que quelques millimètres. C’est la seule téléportation qui ait été expérimentalement mise en œuvre.

En 2016, deux équipes de chercheurs ont réussi à téléporter l’état quantique d’un photon sur des distances respectives de 6 et 12 km via des fibres optiques, exploitant toujours le phénomène d’intrication quantique.

En 2017, une équipe de physiciens chinois a mis en place le projet QUESS (Quantum Experiments at Space Scale, « Expériences quantiques à l’échelle spatiale »), aboutissant au record de distance de téléportation quantique avec un effet EPR via des paires de photons « intriqués » transmises par un satellite (le satellite Mozi, nommé en l’honneur d’un philosophe chinois du même nom). Cette expérience a montré qu’un effet EPR était toujours présent même si les photons intriqués étaient répartis entre deux villes, ici Delingha et Lijiang, distantes d’environ 1 200 km. Un mois plus tard, l’équipe a battu ce record, atteignant 1 400 km. Les états quantiques ont été téléportés entre des paires de photons distantes de 500 à 1 400 km, selon la position du satellite par rapport à la source de photons au sol, installée à Ngari, au Tibet. Aucune expérience antérieure n’avait permis une téléportation quantique entre la Terre et l’espace.

Effet EPR L’effet de perméabilité et de rétention améliorées (EPR) est un concept controversé selon lequel les molécules de certaines tailles (généralement des liposomes, des nanoparticules et des médicaments macromoléculaires) ont tendance à s’accumuler dans les tissus tumoraux beaucoup plus que dans les tissus normaux .

https://reynal.etis-lab.fr/docs/quantum/be/TeleportQuant_PLS_272_036_044.pdf

.


06/02/25 Des stratégies de décarbonisation peuvent être une nouvelle source de pollution

C’est le cas en ce qui concerne de nouveaux carburants maritimes dits Zero-Carbon censés réduire les taux de gaz carbonique rejetés tant en mer que dans l’atmosphère par les fiouls traditionnels. Il s’agira d’un carburant à base d’ammoniaque dite verte, produit à partir d’hydrogène et d’azote et visant à réduire les émissions de CO2 par le trafic maritime actuel.

Prochainement 3 cargos utilisant ce carburant seront mis en service. De nombreux autres pourraient suivre.

Il y aura une contrepartie, une augmentation de la pollution par l’azote. D’importantes quantités d’azote rejetées en mer ou dans l’atmosphère auront des effets négatifs. En mer notamment elles pourraient encourager la prolifération d’algues nuisibles. De l’oxyde nitrique pourrait par ailleurs être produit en grande quantité, avec des effets nuisibles y compris sur l’homme.

Référence

  1. nature reviews earth & environment  
  2. review articles  

Decarbonization is crucial to combat climate change. However, some decarbonization strategies could profoundly impact the nitrogen cycle. In this Review, we explore the nitrogen requirements of five major decarbonization strategies to reveal the complex interconnections between the carbon and nitrogen cycles and identify opportunities to enhance their mutually sustainable management. Some decarbonization strategies require substantial new nitrogen production, potentially leading to increased nutrient pollution and exacerbation of eutrophication in aquatic systems. For example, the strategy of substituting 44% of fossil fuels used in marine shipping with ammonia-based fuels could reduce CO2 emissions by up to 0.38 Gt CO2-eq yr−1 but would require a corresponding increase in new nitrogen synthesis of 212 Tg N yr−1. Similarly, using biofuels to achieve 0.7 ± 0.3 Gt CO2-eq yr−1 mitigation would require new nitrogen inputs to croplands of 21–42 Tg N yr−1. To avoid increasing nitrogen losses and exacerbating eutrophication, decarbonization efforts should be designed to provide carbon–nitrogen co-benefits. Reducing the use of carbon-intensive synthetic nitrogen fertilizer is one example that can simultaneously reduce both nitrogen inputs by 14 Tg N yr−1 and CO2 emissions by 0.04 (0.03–0.06) Gt CO2-eq yr−1. Future research should guide decarbonization efforts to mitigate eutrophication and enhance nitrogen use efficiency in agriculture, food and energy systems.

06/02/2025 Comment se représenter l’univers ?

Les scientifiques ont depuis longtemps imaginé le concept d’espace/temps, dans lequel l’espace et le temps se conjuguent . Le continuum espace-temps comporte quatre dimensions : trois dimensions pour l’espace, « x », « y » et « z », et une pour le temps, « t ».

Un événement se positionne dans le temps et l’espace par ses coordonnées « ct », « x », « y », « z », qui dépendent toutes du référentiel temps. Il est très difficile de s’imaginer que l’échelle des durées ne soit pas la même suivant le référentiel dans lequel on mesure, mais c’est bien le cas : elle n’est donc pas absolue ; il en va de même pour l’espace : la longueur d’un objet peut être différente selon le référentiel de mesure.

Mais n’y a-t-il pas un facteur plus fondamental ? Au lieu des 3 dimensions d’espace et de l’unique dimension de temps, l’univers pourrait-il être représenté par une structure originale en 3D ? Etudier celle-ci pourrait conduire à une Théorie du Tout ( theory of everything) 

L’hypothèse est que le concept d’espace-temps est dépassé . Il doit être remplacé par un concept beaucoup plus abstrait; celui de la fonction d’onde quantique de l’univers.

La fonction d’onde quantique de l’univers

La signification de la fonction d’onde de l’Univers a été activement débattue dans les années 1980. Dans la plupart des travaux sur la cosmologie quantique, il est admis que la fonction d’onde est une amplitude de probabilité pour que l’Univers ait une certaine géométrie spatiale, ou se trouve en un point du superespace de Wheeler.

Il semble que la fonction d’onde donne une description objective maximale compatible avec la théorie quantique. Cependant, la distribution de probabilité ne dépend pas du temps et ne prend pas en compte l’existence de notre Univers en évolution macroscopique.

Ce que nous souhaitons savoir, c’est comment les processus quantiques dans l’Univers primitif ont déterminé l’état de l’Univers actuel dans lequel nous sommes capables d’observer les conséquences macroscopiques de ces processus quantiques. Comme alternative à la gémétrodynamique quantique de Wheeler-DeWitt, nous considérons l’image qui peut être obtenue dans l’approche de l’espace de phase étendu pour la quantification de la gravité. La fonction d’onde dans cette approche décrit différents états de l’Univers qui correspondent à différentes étapes de son évolution.

Source
Sur la signification de la fonction d’onde de l’Univers
Vol. 28, n° 13, 1941009 (2019)
Revue internationale de physique moderne https://www.worldscientific.com/doi/abs/10.1142/S0218271819410098)