15/02/2025 Le principe cosmologique

Le principe cosmologique est un pilier fondamental de la physique moderneIl stipule que, à grande échelle, l’univers est homogène et isotrope, c’est-à-dire qu’il présente les mêmes propriétés quelle que soit la direction dans laquelle on l’observe.

Depuis des siècles, l’humanité s’interroge sur la nature de l’univers. Est-il homogène et symétrique, ou présente-t-il des irrégularités cachées ? Une récente étude s’est attaquée à cette question en analysant la direction de rotation des ondes gravitationnelles émises par des fusions de trous noirs. Ses résultats pourraient avoir des implications profondes sur notre compréhension de la physique fondamentale et de la formation de l’univers.

Le principe cosmologique est un pilier fondamental de la physique moderne. Il repose sur l’idée selon laquelle à grande échelle, l’univers est homogène et isotrope, c’est-à-dire qu’il présente les mêmes propriétés quelle que soit la direction dans laquelle on l’observe. Cela implique qu’aucune orientation particulière ne devrait être favorisée, notamment en ce qui concerne la rotation des objets cosmiques.

En d’autres termes, quand on observe les mouvements des galaxies, des étoiles ou des trous noirs, on vois autant de rotations dans le sens des aiguilles d’une montre que dans le sens inverse. On parle de symétrie miroir, une propriété qui garantit qu’il n’existe pas de préférence pour une orientation rotative donnée.

Le deuxième concept est celui de la symétrie. En cosmologie, ce principe indique que tout processus physique reste identique, même si le temps recule, si l’espace est inversé ou si les particules sont remplacées par des antiparticules.

Mais que se passe-t-il si cet univers n’est que le jumeau d’un autre univers qui s’est formé en même temps à ce point et qui s’est développé dans la direction opposée ?

C’est la proposition audacieuse récemment formulée par un groupe de cosmologistes du Perimeter Institute, un institut de physique théorique au Canada dirigée par les professeurs Neil Turok et Latham Boyle, qui répond à cette question.

https://perimeterinstitute.ca/news/a-mirror-universe-might-tell-a-simpler-story-neil-turok

Dans l’anti-univers qu’ils proposent, comme cet anti-univers se déplace dans la direction opposée au nôtre, le temps se déplace également dans la direction opposée. Cette hypothèse, aussi complexe qu’elle puisse paraître, est une tentative de ses auteurs d’expliquer, de manière plus simple et plus économique, plusieurs mystères du cosmos, dont l’énigmatique matière noire.

Deux concepts sont essentiels pour comprendre l’idée d’un anti-univers. Le premier concerne le modèle standard de la physique des particules, la théorie qui décrit les particules fondamentales dont l’univers est constitué et les forces qui les font interagir les unes avec les autres.

Selon le modèle standard, chaque fois qu’une particule de matière apparaît, sa contrepartie d’antimatière, une particule identique avec une charge différente, apparaît également. Cela signifie que la même quantité de matière et d’antimatière aurait a été produite lors du Big Bang.

Le deuxième concept est celui de la symétrie. En cosmologie, ce principe indique que tout processus physique reste le même, si le temps recule, si l’espace est inversé ou si les particules sont remplacées par des antiparticules.

Dans l’étude menée par le Perimeter Institute, les auteurs se sont penchés sur un type de symétrie appelé CPT, les initiales pour charge, parité et temps.

Cette symétrie indique que si la charge, l’image et le temps d’une interaction entre particules sont inversés, l’interaction se comportera de la même manière que précédemment.

Ainsi, la symétrie qui s’applique aux particules, selon les auteurs de l’étude, pourrait également s’appliquer à l’univers dans son ensemble, ouvrant la possibilité d’un univers symétrique.

« L’univers dans son ensemble est symétrique par rapport à la CPT », écrivent les auteurs .

Selon cette hypothèse, le Big Bang est un point de départ d’où proviennent l’univers et son image miroir.

« Nous suggérons que l’univers avant le Big Bang est l »anti-vers de l’univers après le Big Bang », déclarent les auteurs.

« Pour le moment nous pensons que l’anti-vers est une véritable image miroir reflétée dans le temps, avec des particules et des anti-particules échangées », a déclaré Latham Boyle à la BBC.

Selon ce point de vue, l’antivers n’est pas un univers indépendant, mais simplement un reflet de notre univers.

« Nous avons un ‘anti-self’ dans l’autre univers, mais il n’est pas indépendant. Si tu choisis de manger des œufs au petit-déjeuner, ta version de l’anti-verse ne peut pas choisir de manger du bacon au petit-déjeuner. Si tu prends des œufs au petit-déjeuner, il devra prendre des anti-œufs au petit-déjeuner », explique Latham. Boyle.

Et le temps dans l’anti-univers ?

Selon la proposition de Latham Boyle et de ses collègues, le Big Bang est comme un miroir qui inverse non seulement l’image, mais aussi le sens du temps.

Des deux côtés de l’univers, le temps s’éloigne du Big Bang, mais d’un côté la flèche du temps va vers la droite, et de l’autre elle va vers la gauche.

« Chaque côté de l’univers pense que c’est parfaitement normal. Ils croient tous les deux que leur temps est en train d’avancer. De notre point de vue, dans l’anti-vers, le temps recule, mais pour eux, c’est nous qui allons dans l’autre sens », dit Latham . Boyle.

Cette idée offre une autre possibilité: c’est peut-être nous qui sommes dans l’anti-univers et qui ne le savons pas.

Se pose une autre question : est-il possible de voyager dans cet anti-univers ?

« Nous ne pouvons pas passer de l’autre côté du miroir. Pour cela, il faudrait pouvoir voyager dans le passé. Autrement dit, il faudrait voyager dans l’espace-temps, traverser la singularité du Big Bang et ressortir de l’autre côté« , dit Latham Boyle.

Leur proposition offre un aperçu stimulant de trois concepts fondamentaux de la cosmologie : la matière noire, l’inflation après le Big Bang et les ondes gravitationnelles.

La matière noire est un ingrédient mystérieux qui constitue 25 % de l’univers, mais jusqu’à présent, personne n’a pu observer ce qu’elle est ou de quoi elle est faite. En revanche, elle se remarque par l’influence gravitationnelle qu’elle exerce sur le cosmos.

Au fil des ans, les scientifiques ont proposé plusieurs théories pour expliquer ce qu’est la matière noire, mais personne n’a encore trouvé de réponse convaincante.

Selon quelques-unes des réponses possibles, la matière noire est constituée d’une particule que nous ne connaissons pas encore, c’est-à-dire qu’elle est en dehors du modèle standard.

L’étude de Latham Boyle offre toutefois une réponse « moins coûteuse » à l’énigme de la matière noire.

Le modèle standard décrit les particules fondamentales dont l’univers est constitué. Sa proposition est que pour expliquer la matière noire, il n’est pas nécessaire d’imaginer de nouvelles particules.

Des neutrinos droitiers ?

Une réponse pourrait être de dire que la matière noire est composée de « neutrinos droitiers », une variété de neutrinos, une particule qui fait partie du modèle standard.

L’existence des « neutrinos droitiers » n’a pas encore été prouvée, mais selon Latham Boyle, de nombreux scientifiques s’accordent à dire que ceux-ci pourraient faire partie du modèle standard.

Jusqu’à présent, les neutrinos connus sont « gauchers », en référence à la direction dans laquelle ils tournent . Mais dans un univers symétrique, on s’attendrait à ce qu’un neutrino droit, c’est-à-dire un antineutrino, existe également, écrit l’astrophysicien Paul Sutter, dans un article du portail Live Science, dans lequel il passe en revue l’étude de Latham Boyle.

Ces neutrinos droitiers seraient largement invisibles et ne pourraient être détectés que par la gravité.

« Or, une particule invisible qui inonde l’univers et n’interagit que par le biais de la gravité ressemble beaucoup à la matière noire », explique Latham Sutter.

Le professeur Joseph Formaggio, un physicien qui étudie le rôle des neutrinos en cosmologie, dit trouver intéressante la proposition de Latham Sutter pour expliquer la matière noire.

« J’aime son modèle minimaliste », a déclare à la BBC le Pr Formaggio, qui n’a pas participé à la recherche et qui dirige la division de la physique nucléaire expérimentale et de la physique des particules au Massachusetts Institute of Technology..

« Habituellement, en physique des particules, on peut expliquer beaucoup de phénomènes en introduisant de nouvelles particules, interactions et champs. Il est donc facile de se perdre. Mais cette recherche adopte une approche différente, elle n’apporte rien de plus que ce que nous avons déjà observé », conclut le Pr . Formaggio,

Pas d’inflation, pas d’ondes gravitationnelles ?

Enfin, l’étude remet en question l’existence de l’inflation cosmologique et des ondes gravitationnelles primordiales.

Le modèle de Latham Boyle remet en question l’existence d’une période d’expansion rapide de l’univers après le Big Bang, un concept connu sous le nom d’inflation.

Cette inflation, à son tour, aurait pu créer des ondes gravitationnelles primordiales, qui sont des ondulations se propageant dans le tissu de l’espace-temps, comme les ondulations générées par un caillou jeté dans un lac.

La proposition de Latham Boyle soutient qu’au lieu de l’inflation, la matière de l’univers s’est étendue de manière moins forcée, sans qu’une « époque inflationnaire toire » nécessaire.

Ainsi, selon ce modèle, s’il n’y a pas eu d’inflation, il n’y a pas eu non plus d’ondes gravitationnelles primordiales.

En 2015, des ondes gravitationnelles ont été détectées pour la première fois. Mais Latham Boyle prévient toutefois que celles-ci correspondent à des événements bien plus tardifs que le Big Bang, il ne s’agit donc pas d’ondes gravitationnelles primordiales.

15/02/2024 Détection d’un neutrino d’une énergie exceptionnelle

Cette découverte d’un neutrino d’une énergie inédite d’environ 220 pétaélectronvolts (PeV), soit trente fois supérieure à celle de tous les neutrinos précédemment détectés à l’échelle mondiale, est exceptionnelle.

La découverte a été faite grâce au Télescope Neutrino du Kilomètre Cubique (KM3NeT). Encore en construction, il est réparti sur deux sites: ARCA, dédié à l’astronomie des hautes énergies, à 3.450 mètres de profondeur au large de la Sicile (Italie) et ORCA, optimisé pour étudier les propriétés fondamentales du neutrino, à 2.450 m de profondeur au large de Toulon dans le Var

L’impact de ce neutrino a eu la résonance d’un séisme. C’est littéralement ce qu’ont enregistré les détecteurs de l’expérience dite KM3NeT/ARCA. 

La découverte, qui vient de faire l’objet d’un article dans la revue Nature (Voir référence ci-dessous), fait l’effet d’une véritable bombe chez les astrophysiciens.

Comme ces neutrinos interagissent très peu avec la matière et peuvent voyager quasi éternellement sans être modifiés, ils constituent des messagers précieux pour étudier les phénomènes qui les émettent. Le revers de la médaille, c’est qu’ils sont presque impossibles à attraper. Pour preuve, des milliards de milliards d’entre eux nous traversent en permanence sans que l’on s’en rende compte. CNRS

Malgré leur abondance dans l’Univers, les neutrinos n’interagissent que très peu avec la matière ce qui rend ces « particules fantômes » difficiles à détecter. Pour espérer en capter quelques-uns au passage, il faut un volume d’eau considérable- au moins un kilomètre cube, l’équivalent de 400.000 piscines olympiques.

Référence

Nature
NEWS
12 February 2025
Record-breaking neutrino is most energetic ever detected

Although still under construction, the sea-floor KM3NeT detector spotted a neutrino 20 times more powerful than any previously detected.

  • 12 February 2025
  • Davide Castelvecchi
  • others
  • Astrophysicists have observed the most energetic neutrino ever. The particle — which probably came from a distant galaxy — was spotted by the Cubic Kilometre Neutrino Telescope (KM3NeT), a collection of light-detecting glass spheres on the floor of the Mediterranean Sea, on 13 February 2023. Researchers monitoring the telescope did not notice the detection until early 2024, when they completed the first analysis of their data. They unveiled it as a potentially record event last year at a conference in Milan, Italy, but did not disclose details such as the timing, direction or energy of the neutrino.

“We had to convince ourselves that it wasn’t something strange or weird with the telescope,” says Paschal Coyle, a neutrino physicist at Aix-Marseille University in France and KM3NeT spokesperson. The result was published on 12 February in Nature, and will be described in four preprints due to be posted on the arXiv preprint server.

a

14/02/2025 L’énergie sombre

On considère que l’énergie sombre constitue l’essentiel de l’univers. Néanmoins personne n’est encore capable de dire ce en quoi elle consiste. En 2026, dans l’Arizona, le Dark Energy Spectroscopic Instrument (DESI) devrait fournir des indices en ce sens.

Il a été conçu notamment pour montrer comment cette force avait évolué au fur et à mesure que l’univers se transformait. Il risque de montrer en fait l’étendue de notre ignorance concernant l’espace temps et son évolution., tant passée que contemporaine.

Les chercheurs disposeront à cette date des données collectées pendant les trois années de fonctionnement de DESI. Elles concernent la façon dont 31 millions de galaxies ont évolué dans cette période en formant des amas (cluster) et comment l’énergie sombre à la source de cette évolution se serait ralentie comme on le soupçonne actuellement.

Un premier regard semble montrer aujourd’hui que l’énergie sombre aurait été plus forte dans le passé. Mais ceci à ce jour ne suffit pas pour remettre en cause le modèle cosmologique traditionnel selon lequel l’énergie sombre serait une constante. Aussi les cosmologistes se disent très pressés de voir ce que peuvent apporter les données de DESI en ce domaine .

Il existe de nombreux autres problèmes pour lesquels les données du Spectroscope sont attendues avec impatience. Il y a ainsi les éventuelles variations dans la constante de Hubble qui mesure la vitesse de l’expansion de l’univers.

Un autre problème, encore plus important, que DESI pourrait contribuer à résoudre serait l’évaluation de la présence et de la masse des « particules fantômes » que sont les neutrinos. Ils n’interagissent pratiquement pas avec les autres particules, mais jouent un rôle déterminant dans les nouvelles hypothèses concernant l’univers.

Référence

Voir sur ces sujets les travaux de la française Nathalie Palanque Delabrouille
https://fr.wikipedia.org/wiki/Nathalie_Palanque-Delabrouille

13/02/2025 Les viroïdes

Découverts par T. O. Diener en 1971 et quasiment ignorés à l’époque, les viroïdes sont des molécules d ‘ARN (acide ribonucléaire) non codantes et infectieuses capables de se multiplier et de se propager dans un organisme .

Composés exclusivement d’un ARN circulaire de 246 à 401 nucléotides, les viroïdes sont environ vingt fois plus petits que le génome du virus de la mosaïque du tabac (tobacco mosaic virus, TMV) et six fois plus petits que le génome du virus de l’hépatite delta (hepatitis delta virus, HDV) humaine décrits comme étant les plus petits agents infectieux connus à ce jour. (

Contrairement aux virus, les viroïdes ne codent pour aucune protéine et, par conséquent, ne sont pas encapsidés. La capside est l’enveloppe protéinique d’un virus enfermant son matériel génétique.  Ils ont donc la capacité de s’accumuler in vivo sous forme d’acides nucléiques circulaires « nus ».

En raison de la forte auto-complémentarité de leur séquence nucléotidique, leur ARN génomique se replie dans une conformation compacte et fortement structurée. Malgré leur petite taille et leur simplicité, les viroïdes peuvent infecter un large éventail d’espèces végétales et induire des pathologies souvent à terme mortelles chez plusieurs hôtes. Leurs effets peuvent varier d’asymptomatique à létal, en fonction des hôtes et des viroïdes.

Depuis plusieurs décennies, les biologistes tentent de comprendre comment de tels ARN circulaires peuvent affecter le fonctionnement cellulaire et induire une pathologie . En effet, la modification d’un seul nucléotide du viroïde du tubercule en fuseau de la pomme de terre (potato spindle tuber viroid, PSTVd) peut entraîner une augmentation de sa pathogénicité passant d’un état non infectieux à létal.

Cette découverte fondamentale a permis d’identifier plusieurs motifs structuraux impliqués dans l’induction de la maladie, notamment les structures en épingle à cheveux (incluant des boucles au sein de l’ARN). Leur importance a été confirmée lorsque les chercheurs ont découvert que des plants de tomates transgéniques exprimant une construction en épingle à cheveux du PSTVd (se composant de répétitions inversées) présentaient des symptômes similaires aux viroïdes.

L’étude de la pathogénicité des viroïdes a alors pris un tournant en évaluant le rôle de l’interférence par l’ARN (iARN) dans la pathogénicité des viroïdes. Entre-temps, d’autres études sur les interactions viroïde-hôte ont révélé différentes facettes de la pathogénicité des viroïdes, telles que l’expression différentielle de certains gènes de l’hôte induite par l’infection d’un viroïde ou encore l’interaction directe d’un viroïde avec des protéines de l’hôte.

Des pertes considérables

Les viroïdes sont à l’origine de pertes considérables à l’échelle mondiale chez les espèces végétales monocotylédones et dicotylédones comme chez les plantes herbacées et ligneuses. Des études menées sur le terrain et en serre ont démontré que les viroïdes se transmettent par différentes voies : par des outils agricoles contaminés, par contact entre les plantes, par les semences, par le pollen et par les insectes. À l’heure actuelle, il n’existe pas de mécanisme de résistance naturelle connu contre les viroïdes, c’est pourquoi la lutte repose sur la détection moléculaire et l’éradication des plantes infectées.

Bien que les viroïdes soient connus comme des agents pathogènes destructeurs, certains viroïdes n’induisent pas automatiquement de pathologies sévères tandis que d’autres peuvent entraîner la mort de la plante hôte. Par exemple, le viroïde australien de la vigne (australian grapevine viroid, AGVd) n’est pas connu pour induire des symptômes chez ses plantes hôtes (vignes). À l’inverse, les infections par le viroïde cadang cadang du cocotier (coconut cadang-cadang viroid, CCCVd) entraînent la mort de celui-ci .

La plupart des espèces de viroïdes induisent des symptômes chez des plantes hôtes où l’intensité peut varier en fonction de l’intensité de l’infection, la réduction du nombre de fleurs, le changement de la forme et de la couleur des fleurs et des fruits et la stérilité sont également observés .

Comme les viroïdes se déplacent à travers les tissus par l’intermédiaire du phloème ou tissu conducteur dela sève, ils sont également connus pour affecter le système racinaire en réduisant son volume et en provoquant des malformations (par exemple, les tubercules en forme de fuseau provoqués par le PSTVd chez la pomme de terre)

En raison de la simplicité des viroïdes, leur structure est utilisée comme critère fondamental pour la classication et la taxonomie. La taxonomie permet l’organisation systématique et cohérente des organismes selon leurs caractéristiques prédéterminées (structure secondaire, motif ARN répété, etc.). Les viroïdes sont répliqués par des polymérases à ARN de l’hôte En utilisant une matrice d’ARN, ces polymérases à ARN dépendante de l’ADN sont alors sujettes à un taux d’erreur beaucoup plus élevé. De ce fait, les viroïdes s’accumulent chez les hôtes sous forme de populations hétérogènes de variants de séquences étroitement liées et légèrement différentes les unes des autres, appelées « quasi-espèces »

Il est donc important de tenir compte de la variabilité des séquences lors de la classication des viroïdes. Bien que les viroïdes diffèrent des virus sur plusieurs aspects essentiels, leur classication est officiellement réglementée par le Comité international de taxonomie des virus (ICTV, https://talk.ictvonline.org/).

12/02/ 2025 Rappel historique Le séisme du 23 janvier 1556 au Shaanxi

Le 23 janvier 1556, un tremblement de terre dans le Shaanxi, en Chine, fait environ 830 000 morts. Le décompte des victimes est souvent imprécis après des catastrophes de grande ampleur, surtout avant le XXe siècle, mais cette catastrophe est toujours considérée comme la plus meurtrière de tous les temps.

Le séisme s’est produit en fin de soirée et des répliques ont continué à se faire entendre le lendemain matin. Des recherches scientifiques ont révélé que la magnitude du séisme était d’environ 8,0 à 8,3, ce qui n’est pas proche de la secousse la plus forte jamais enregistrée. Cependant, le séisme s’est produit au milieu d’une zone densément peuplée avec des bâtiments et des maisons mal construits, ce qui a entraîné un nombre de morts effroyable.

L’épicentre du séisme se trouvait dans la vallée de la rivière Wei, dans la province du Shaanxi, près des villes de Huaxian, Weinan et Huayin. À Huaxian, tous les bâtiments et toutes les maisons se sont effondrés, tuant plus de la moitié des habitants de la ville, un nombre estimé à plusieurs dizaines de milliers. Le même scénario s’est produit à Weinan et Huayin. À certains endroits, des crevasses profondes de 20 mètres se sont ouvertes dans le sol. Des destructions et des morts graves se sont produites jusqu’à 480 kilomètres de l’épicentre. Le séisme a également provoqué des glissements de terrain, qui ont contribué au bilan massif des victimes.

Même si le nombre de décès causés par le tremblement de terre du Shaanxi a été légèrement surestimé, il s’agirait néanmoins de loin de la pire catastrophe de l’histoire.

https://www.history.com/this-day-in-history/deadliest-earthquake-in-history-rocks-china

Voir aussi https://fr.wikipedia.org/wiki/Séisme_du_23_janvier_1556_au_Shaanxi

11/02/2025 Intelligence artificielle et fusion nucléaire, les deux chances de la France

L’intelligence artificielle (IA) est plus qu’une révolution industrielle et technologique. Elle laisse entrevoir de profonds changements dans nos sociétés, dans nos rapports au savoir, au travail, à l’information, à la culture et même au langage. Cette révolution technologique ne connaît pas de frontières.

En ce sens, l’IA est un enjeu scientifique, économique, culturel, politique et citoyen qui nécessite un dialogue étroit entre les Etats, les chercheurs, les entreprises, les créateurs et la société civile. Ces échanges doivent permettre d’adapter et de préparer de manière collaborative la société aux évolutions entraînées par l’IA.

Cette rencontre internationale rassemblera près d’une centaine de pays et plus d’un millier d’acteurs du secteur privé et de la société civile venus de tous les continents. Les acteurs invités sont issus d’horizons très différents et portent chacun un engagement et une contribution forte en faveur des objectifs poursuivis par le Sommet.

C’est en ces termes qu’est présenté ce 3e Sommet. Nous n’avons rien à y redire. Dans une discipline jusqu’ici très envahie par les intérêts des Grands de l’Informatique américains, les start-up françaises commencent à assurer une approche originale, inspiré par un sens du service public et de l’intérêt général que l’on ne retrouve pas toujours dans d’autres parties du monde.

Mais il n’y a pas que dans l’Intelligence Artificielle que des valeurs proprement françaises doivent plus que jamais être affirmées. Il y celui de la fusion nucléaire. La France grâce à l’expérience permise par un parc unique au monde de centrales reposant sur la fission des atomes d’uranium, aborde désormais le domaine infiniment plus riche de la fusion .

La fusion nucléaire

À l’horizon 2050, pourra-t-on reproduire sur Terre l’énergie des étoiles et produire ainsi de l’électricité avec un faible impact sur l’environnement ? Une grande partie de la communauté scientifique internationale pense que le pari peut être gagné. Mais l’avenir de ce programme ambitieux est soumis à des décisions politiques, y compris en termes de financement .

Les centrales actuelles utilisent l’énergie dégagée par la fission de l’atome d’uranium, une réaction qui met en jeu des noyaux lourds. La fusion, en revanche, consiste à rapprocher des isotopes de l’hydrogène (deutérium et tritium), les éléments atomiques les plus légers, pour obtenir de l’hélium et de l’énergie. Cette réaction nécessite une température très élevée, analogue à celle que l’on trouve au cœur des étoiles.

On peut y parvenir en bombardant les isotopes d’hydrogène par un faisceau laser intense. L’inconvénient de cette méthode est qu’elle est très liée aux applications militaires. C’est pourquoi la plupart des scientifiques ont choisi de développer la méthode de la fusion par confinement magnétique

Dans cette option, le plasma est obtenu grâce à différents systèmes de chauffage, notamment par micro-ondes. Pour ne pas détruire les parois qui l’entourent, le plasma est maintenu en suspension au millimètre près par des champs magnétiques intenses.

Le principal avantage de la fusion thermonucléaire est qu’elle libère une quantité d’énergie bien plus grande que la fission et ne produit pas de déchets radioactifs pendant des milliers d’années. De plus, le deutérium est quasiment inépuisable (il est présent dans l’eau) et le tritium est facile à produire.

Mais on est encore loin de maîtriser la fusion, qui nécessite une dépense d’énergie très importante. L’Union européenne, la Russie, le Canada et les États-Unis se sont associés pour construire en commun un réacteur expérimental (ITER) qui actuellement connaît quelques difficultés de financement.

Il faudra ensuite quelques décennies avant d’espérer produire de l’électricité par fusion en quantité suffisante pour alimenter les besoins nationaux.

Pas de dégagement de gaz carbonique (CO2), donc pas d’effet de serre, pas de risque d’accident puisque la réaction s’arrête dès que le plasma n’est plus alimenté… Les avantages de la fusion sont incontestables. La réaction de fusion dégage quand même une petite quantité de déchets radioactifs qu’il faudra malgré tout traiter.

Reste la question de la distribution d’une telle énergie potentielle. La puissance de cette source énergétique nécessitera des réseaux électriques dimensionnés en conséquence. A priori, la fusion thermonucléaire reste donc une piste dont ne pourraient profiter que les pays les plus développés.

I0/02/2025 Le JET et la marche à la fusion nucléaire

Promesse d’une énergie virtuellement infinie et peu polluante, la fusion nucléaire a bénéficié ces derniers mois d’un fort coup d’accélérateur, notamment grâce a un important afflux de capitaux.

Mais c’est du côté de l’un des plus vénérables acteurs du secteur qu’il faut aller chercher un impressionnant record. Basé à Culham près d’Oxford en Angleterre, le Joint European Torus est un vieux projet né avant le début des années 1980 et fondé par l’Union européenne, associée à la Suisse, au Royaume-Uni et à l’Ukraine.

Le JET dispose de l’un des plus grands et plus puissants tokamaks au mond . Le tokamak est le dispositif de confinement magnétique où la réaction de fusion, en l’occurrence de deutérium et de tritium, se déroule à très haute température.

En 1997, cet imposant engin avait réussi à délivrer une énergie de 22 mégajoules environ, un résultat historique qui faisait de la fusion un avenir possible et allait poser les futures bases du projet international ITER, basé dans le sud de la France.

Début février, comme l’a annoncé l’Atomic Energy Authority britannique (UKAEA), le précédent record est tombé, et de beaucoup. Le JET l a cette fois produit et maintenu une énergie de 59 mégajoules pendant une durée de 5 secondes, soit le temps maximal permis par le design et les caractéristiques du tokamak.

«Ces résultats historiques nous ont fait faire un immense pas supplémentaire vers la conquête de l’un des plus grands challenges scientifiques et d’ingénieries qui soient», a déclaré Ian Chapman, chief executive de l’UKAEA.

«En termes de puissance, il s’agit de l’équivalent de quatre turbines éoliennes, on se rapproche d’une échelle industrielle», précise le chercheur Arthur Russel, auteur de l’ouvrage The Star Builder«Cela semble peu, mais cinq secondes représentent une durée énorme à l’échelle nucléaire.»

Si elle n’alimentera pas en électricité les futures voitures électriques du monde, cette production représente surtout la validation de choix industriels et techniques passés, et confirment ce que les simulations numériques et outils de diagnostic prédisaient quant à la fusion du plasma.




I0/02/2025 La fusion nucléaire proposée par Zap Energy

La technologie de fusion nucléaire développée par la start-up américaine Zap Energy vient d’être validée. Leur prototype dévoilé en octobre 2024 aurait produit des plasmas thermiques stables, une étape essentielle pour être utilisé. Un plasma stable est indispensable pour maintenir les fortes températures, car une instabilité peut conduire à une dissipation d’énergie, ce qui diminuerait l’efficacité du processus.

Dans le cadre d’une série d’expériences, au cours desquelles 433 tirs de plasma ont été analysés, les chercheurs de Zap ont pu constater que les émissions de neutrons étaient presque complètement isotropes. C’est-à-dire que leurs propriétés étaient les mêmes dans toutes les directions. D’après Interesting Engineering, il s’agirait d’un bon signe que la fusion se déroule de manière contrôlée dans le réacteur.

Il existe aujourd’hui plusieurs méthodes de fusion testées. La plus répandue – et pour l’instant la plus prometteuse – est la fusion par confinement magnétique, mise en application avec les réacteurs Tokamak, dont la forme de beignet permet de maintenir le plasma à haute température par champ magnétique. C’est notamment le processus utilisé dans le cadre du projet ITER (International Thermonuclear Experimental Reactor).

La technologie développée par Zap est différente. Baptisée FuZE, le dispositif est basé sur la fusion par Z-pinch. Il se présente comme un cylindre et par un effet de pincement, envoi un courant électrique très puissant pour générer un champ magnétique qui comprime un plasma chaud. Sous une telle chaleur et une telle pression, les noyaux d’hydrogène fusionnent pour former un noyau d’hélium, ce qui libère des neutrons hautement énergétiques. Les flux de plasma qui se déplacent « en cisaille », (c’est-à-dire à différentes vitesses entre les couches) sont ainsi plus stables.

Contrairement à la fusion par « faisceau-cible » (une autre méthode), qui entraîne des émissions anisotropes, la technologie de Zap émet des neutrons isotropes : l’énergie ne varie pas selon la direction. « Cela signifie que nous pouvons doubler la taille du plasma et nous attendre à ce que le même type d’équilibre existe« , a déclaré Uri Shumlak, co-fondateur de Zap

Pour Zap, ces résultats sont le fruit d’un long travail de recherche. La fusion par Z-pinch est en réalité l’un des concepts de fusion les plus anciens. Il remonte aux années 1950, au Royaume-Uni, lorsqu’a été montée l’expérience ZETA. L’objectif de créer de la fusion thermique n’avait pas pu être atteint à l’époque. La fusion observée ayant été confondue avec des interactions faisceau-cibles causés par des instabilités magnétiques.

https://www.zapenergy.com/

Commentaire

https://korii.slate.fr/tech/energie-fusion-nucleaire-zap-energy-mini-reacteurs-garage-z-pinch-fuze-q-simulations

Si l’on encore loin de la maîtriser, la technologie de fusion nucléaire porte en elle de nombreux espoirs quant au futur de l’énergie. En envoyant deux isotopes d’hydrogène dans un réacteur circulaire appelé «tokamak» soumis à un magnétisme extrême, ceux-ci fusionnent et produisent un plasma extrêmement chaud, donc de l’énergie, le tout de manière plus propre et sécurisée que la fission que nous connaissons aujourd’hui.

Si les très grands projets financés par les États sont les plus importants espoirs de la fusion, les promesses de cette technologie amènent de plus petits projets expérimentaux à voir le jour. C’est le cas de Zap Energy, une start-up basée à Seattle.

Plutôt que de recourir aux coûteuses bobines magnétiques en cuivre utilisées dans les tokamaks, Zap Energy souhaite s’appuyer sur le champ magnétique créé par le plasma lui-même. Cette technique, appelée «striction axiale» ou «Z-pinch», est étudiée depuis les années 1950, mais reste beaucoup moins populaire que celle des réacteurs circulaires à cause de son instabilité . Lors des tentatives de création de réacteurs Z-Pinch, le plasma se tordait et finissait par s’effondrer sur lui-même.

Cependant, en 2019, une équipe de scientifiques de l’Université de Washington est parvenue, en utilisant la mécanique des fluides, à lisser continuellement le plasma, donc à éviter qu’il ne se déforme et à le rendre potentiellement utile pour une production continue d’énergie.

L’un des auteurs de cette étude, Uri Shumlak, est le fondateur de Zap Energy. Il affirme aujourd’hui que les simulations de son réacteur expérimental, le FuZE-Q, fonctionnent parfaitement.

L’objectif à terme est de parvenir à produire en masse des FuZE-Q suffisamment petits pour tenir dans un garage, et d’autres suffisamment grands pour pouvoir alimenter une ville.

Pour en arriver là. il va falloir que les tests réels soient aussi efficaces que les simulations. Ensuite, si le FuZE-Q résiste théoriquement à une alimentation de 500 kiloampères (kA), et est conçu pour en supporter 650., cette puissance est tout juste suffisante pour obtenir le seuil de rentabilité du réacteur à partir duquel il produirait plus d’électricité qu’il n’en consomme. Autant dire que l’alimentation de villes entières n’est pas pour tout de suite. Si cela arrivait, c’est le monde dans son ensemble qui pourrait s’en trouver bénéficiaire

09/02/2025 L’hypothèse de la conscience quantique

En mécanique quantique, selon le principe de superposition, un même état quantique peut posséder plusieurs valeurs pour une certaine quantité observable (spin, position, quantité de mouvement, etc.)

Ce principe résulte du fait que l’état – quel qu’il soit – d’un système quantique (une particule, une paire de particules, un atome, etc.) est représenté par un vecteur dans un espace vectoriel nommé espace de Hilbert (premier postulat de la mécanique quantique).

Comme tout vecteur de tout espace vectoriel, ce vecteur admet une décomposition en une combinaison linéaire de vecteurs selon une base donnée. Or, il se trouve qu’en mécanique quantique, une observable donnée (comme la position, la quantité de mouvement, le spin, etc.) correspond à une base donnée de l’espace de Hilbert.

En conséquence, si l’on s’intéresse, par exemple, à la position d’une particule, l’état de position doit être représenté comme une somme d’un nombre (infini!) de vecteurs, chaque vecteur représentant une position précise dans l’espace. Le carré de la norme de chacun de ces vecteurs représente la probabilité de présence de la particule à une position donnée.

Principe de superposition quantique — Wikipédia

Le phénomène dit de l’étrangeté quantique (quantum veirdness) désigne des événements inconnus dans la physique newtonienne dite aussi macroscopique. On cite l’intrication quantique, la non-localité quantique, la superposition quantique, le principe d’incertitude, la dualité onde-particule, le caractère probabiliste de l’effondrement de la fonction d’onde

Or il a été depuis longtemps suggéré que la conscience trouvait son origine dans des phénomènes quantiques se produisant dans les neurones du cerveau , plus précisément lorsque la superposition quantique s’y effondrait. Mais comment prouver cette affirmation? N’était ce pas remplacer un mystère par un autre ?

Nous publions ici sur ce sujet un article en anglais que vient de faire paraitre dans le NewScientist du 4 janvier 2025, p.40 Hartmut Neven chef du laboratoire Google Quantum AI https://quantumai.google/ responsable chez Google de la construction des plus puissants calculateurs quantiques à ce jour.

Il a été depuis longtemps été suggéré que la conscience trouvait son origine dans des phénomènes quantiques se produisant dans les neurones du cerveau , plus précisément lorsque la superpositon quantique s’y effondrait. Mais comment prouver cette affirmation? N’est ce pas remplacer un mystère par un autre ?

———————————————————

The suggestion that consciousness has its origins in quantum weirdness has long been viewed as a bit, well, weird. Critics argue that ideas of quantum consciousness, the most famous of which posits that moments of experience arise as quantum superpositions in the brain collapse, do little more than merge one mystery with another. Besides, where is the evidence? And yet there is a vocal minority who insist we should take the idea seriously.

Hartmut Neven, who leads Google’s Quantum Artificial Intelligence Lab, is among them. He originally trained as a physicist and computational neuroscientist before pioneering computer vision – a type of AI that replicates the human ability to understand visual data. Later, Neven founded Google Quantum AI, which in 2019 became the first lab to claim its quantum computers solved calculations that are impossible on a classical computer, a milestone known as quantum supremacy. In December 2024, his team announced another step forward with its new quantum processor, Willow, which it claims is more powerful and reliable than previous chips.

But Neven is also interested in the relationship between mind and matter. And now, in a use case for quantum computers that no one saw coming, he reckons they could be deployed to put the idea of quantum consciousness to the test. Neven spoke to New Scientist about his belief that we live in a multiverse; why Roger Penrose’s theory of quantum consciousness is worth pursuing, albeit possibly with a new twist; and how we can test such ideas by entangling quantum computers with human brains.

Thomas Lewton: How has working at the forefront of quantum computing altered your view of what reality is?

Hartmut Neven: We recently ran a computation on our new quantum processor, named Willow, that would take the best classical supercomputer an astounding amount of time to complete: 1025 years. This mind-boggling number exceeds known timescales in physics and vastly exceeds the age of the universe. To me, this result suggests that quantum processors are tapping into something larger than just our universe, lending credence to the notion that their computation occurs in many parallel universes.

Over the years, I’ve come to appreciate that the most straightforward reading of the equations of quantum mechanics is that, indeed, we live in a multiverse: that every object, including myself or the cosmos at large, exists in many configurations simultaneously. This view of reality has profoundly shaped my everyday outlook on life.

In what way?

My general stance when describing the world is physicalism, which states that every phenomenon we witness can be explained as a manifestation of matter. But the only phenomenon that we are certain exists is conscious experience. Everything starts from experience; without mind, nothing matters.

So then the task you have as a physicalist is to identify the locus of consciousness. Here, I think, quantum mechanics has a unique advantage over classical mechanics – and it is directly related to the multiverse picture.

If the multiverse picture is correct, then there are a vast number of parallel worlds. But right now, you and I coexist in a definite, classical branch of the multiverse. So why do we witness this configuration and not the other ones? This is an opportunity to place consciousness in your physicalist theory. An attractive conjecture is that consciousness is how we experience the emergence of a unique classical reality out of the many that quantum physics tells us there are.

Consciousness seems like a very different kettle of fish to quantum physics. How can one be accommodated into the other?

I’m a disciple of Roger Penrose, who, in his 1989 book The Emperor’s New Mind, put forth the idea that consciousness involves a state of matter in quantum superposition, where a quantum object exists in multiple configurations at the same time. When the superposition collapses during a “measurement” process, one classical branch gets selected out of many possible branches and this implements a conscious moment. I always thought this was beautiful because then qualia – specific subjective experiences such as the redness of a rose or the feelings that music evokes – can naturally be encoded into the state that [the superposition] collapses into.Is there any way to test the idea that consciousness is quantum in origin?

There are already some insights coming from experiments with anaesthesia. Anaesthetics reversibly knock out your consciousness. You are still breathing, your heart is still pumping, but you can’t report conscious experiences anymore. However, even though anaesthetics are a medical godsend and in use for almost 180 years, we still have no clue how they work. Nobody understands it.

Interestingly, the simplest anaesthetics are inert gases like xenon. Even more peculiarly, there are reports that different isotopes of xenon, each of which has slight differences in mass and a quantum property called spin, have different anaesthetic potency. If that can be confirmed, then you can’t possibly explain this without considering quantum mechanics. I feel this is a smoking gun experiment.

And you have proposed another kind of experiment in a recent paper. Can you tell us a bit more about that?

Let’s first picture our brain as containing qubits, which are the basic units of information in quantum computing. I think that’s rather uncontroversial. Some researchers – like our colleague Stuart Hameroff, [the director of the Center for Consciousness Studies at the University of Arizona] – suggest that large protein structures in neurons called microtubules act as qubits. But any biophysicist or biochemist would say that, at the very least, on the level of molecules with electron clouds, there are quantum states in our brain – so we can be said to have qubits in our brains.

Then let’s say we have “N” qubits in our brain and “M” qubits in an external quantum computer, with the letters referring to a certain number of qubits. If a person could entangle their brain with this quantum computer, they could create an expanded quantum superposition involving “N+M” qubits. If we now tickle this expanded superposition to make it collapse, then this should be reported by the person participating in this experiment as a richer experience. That’s because in their normal conscious experience, they typically need “N” bits to describe the experience, but now they need “N+M” bits to describe it.

I call this the “expansion protocol”, as it would allow us to expand consciousness in space, time and complexity. In fact, if we can find a way to set up this experiment, and someone reports these richer experiences, then this would support our explanation that quantum processes generate consciousness.

What do you imagine it would be like to experience this expanded consciousness?

The number of bits per second that we are consciously aware of is not very large. Many things that you could potentially be consciously aware of you’re not. Let’s say the James Webb Space Telescope shoots a beautiful picture, we make a screensaver out of it and we admire it. We are not able to consciously behold all the information that’s in the myriads of photons streaming into the James Webb telescope. That’s an experience we are not able to have.

So, in principle, we could generate way richer experiences than we normally have using our default biological brain. Some extraordinary states of consciousness, such as those experienced under psychedelics, for example, may be sort of a preview of what you could expect here. Entangling one’s brain with a quantum computer could potentially unlock higher levels of consciousness, creativity and understanding.

Would this help you to understand the relationship between mind and matter?

We could use this experimental set-up to identify which quantum states of matter correlate to different qualia. We can do this by asking a person whose brain is entangled with a quantum computer about the specific characteristics of their feelings and measuring the qubits associated with those feelings.

How has considering this experimental concept changed how you think about the origin of conscious moments?

When I started to think about this experimental programme, I realised, oh, wait a minute, there’s actually an issue with Roger’s ideas. If I measure a qubit in the quantum computer, the superposition collapses into a state that instantly goes hand in hand with an experience in the person who is entangled with the computer. If this were to happen, then I could use this entanglement – a unique phenomenon in quantum mechanics where two or more particles become intrinsically linked – as a channel to transmit information faster than light.

So, when Roger associated conscious moments with the collapse of superpositions, this opened the possibility of faster-than-light communication, which goes against fundamental rules of physics. I don’t like this – I’m the more orthodox physicist on this point. But if, instead, we say that a conscious moment is experienced when a superposition forms, not when a superposition collapses, then this challenge with faster-than-light communication goes away.

In our experimental set-up, we could test which of these ideas is correct. In Penrose’s version, the richer experience would be felt when the superposition collapses. However, if conscious moments occur when superpositions form, then the richer experience would be felt as soon as the qubits in someone’s brain become entangled with the qubits of the quantum computer.

What other problems does flipping Penrose’s idea on its head help to solve?

The role of entanglement in the formation of conscious moments naturally explains our unified experience of reality. This is a well-known issue in neuroscience called the binding problem.

When we see an object, such as a face, neurons in the brain’s primary visual cortex fire in response to certain features being present, such as edges in certain orientations, creating the rough outline of a face. Then, this brain activity propagates to the higher visual cortices where richer facial features are represented. Our experience is distributed through the brain, rather than single neurons existing that fire to, say, represent your grandmother. We perceive holistically. So there is a disjoint between what we experience and the structure of our material brains. This is called the binding problem.

We can solve this by proposing that entanglement between qubits creates a unified conscious experience. Entanglement is the only true binding agent we have in physics, as it allows for the creation of holistic states where individual components are fundamentally interconnected. Thus, entanglement offers an elegant solution to the binding problem.

Will it ever be practically possible to entangle a human mind with a quantum computer?

At this point, the expansion protocol is technically still very challenging. But we can do a simpler warm-up experiment.

In recent years, researchers have become adept at growing little balls of human brain cells called brain organoids. We could use two qubits coupled via a brain organoid and carry out a Bell test – a quantum experiment that checks whether or not two systems are entangled. If we were to find that entanglement is needed to explain the results of this Bell test, then we can conclude that the brain organoid, at least in part, deserves a quantum mechanical description.

Maybe all the ideas I’ve been talking about turn out to be incorrect. But if it works, then you could ask, how is the quantum coupling best realised? Do you want to use photons? Do you want to use spin – a quantum property that atomic nuclei or electrons have? Or perhaps you want to use collective modes in microtubules.

How are these ideas about the quantum nature of consciousness received in your circles?

It’s an acquired taste. I’m often surprised how, among scientists, the nature of consciousness is considered a question one shouldn’t ask or be involved with. Whereas I think, look, when I have a toothache, this experience is very real, much more real than, say, the big bang or other constructs of science.

The philosopher of science Thomas Kuhn, in his book The Structure of Scientific Revolutions, said that before “normal science” can begin, there’s a “pre-paradigmatic” phase where we are still searching for the right framework to understand a phenomenon. I believe consciousness research has reached this inflection point. Our conjecture on what creates consciousness and our proposal on how to test it show that the nature of consciousness might be addressed with the methods of experimental science.

08/02/2205 D’où pourrait provenir la prochaine pandémie ?

La pandémie due au corona virus aurait tué 15 millions de personnes dans le monde et infecté 400 millions d’autres en laissant à certains des handicaps à long terme. Elle a créé une récession économique pire que la crise de 1929.

Cependant sur l’échelle mondiale des pandémies, ses effets sont considérés comme modérés. Les experts préviennent que le monde doit se préparer à pire.

Mais quelle infection pourrait provoquer la prochaine pandémie ?. Les réponses ne manquent pas. La référence à la grippe espagnole qui après 1918 a tué des millions de personnes de par le monde n’a pas été oublié par les épidémiologues.

La diffusion du prochain virus par la voie aérienne est la plus à craindre. Tousser et même parler peut répandre très rapidement le virus aérien (air born), notamment dans les milieux urbains à forte densité. S’il est indispensable, le masque facial destiné rappelons le non à se protéger soi-même mais à protéger les autres au cas où vous sériez porteur d’un virus sans encore le savoir, est porté avec trop de négligence pour être suffisamment protecteur.

Le principal souci aujourd’hui résulte de la diffusion mondiale de la grippe aviaire dite H5N1 bird flu. Sur les 1000 cas humains reportés à ce jour, la moitié , soit 500, ont été mortels Voir https://www.cdc.gov/bird-flu/situation-summary/index.html.

Le coronavirus demeure menaçant. Des formes mutantes semblent avoir être identifiés, comme celle observée en 2021 dans un hôpital de Colombia https://www.cuimc.columbia.edu/news/topics/infectious-diseases/covid-19?page=0%2C8?page=0%2C8

Référence

NewScientist, p8, 4 january 2025