19/02/2024 Vers une nouvelle théorie du tout (Theory of Everything)

Cet article est une traduction et une adaptation de celui de Michaël Brooks dans le Newscientist du 10 février 2024 The shape of reality

La théorie du tout est une théorie physique susceptible de décrire de manière cohérente et unifiée l’ensemble des interactions fondamentales. Une telle théorie n’a pas encore été découverte à l’heure actuelle, principalement en raison de l’impossibilité de trouver une description de la gravitation qui soit compatible avec le modèle standard de la physique des particules. Celles-ci est le cadre théorique utilisé pour la description des trois autres interactions connues (électromagnétismeinteraction faible et interaction forte). Wikipedia

Découvrir la théorie du tout est le but ultime de la physique et plus généralement de toutes les sciences. Selon un mot de Stephen Hawking, ce serait trouver l’esprit de Dieu. Si bien qu’espérer la découvrir est généralement considéré comme irréaliste. A ce jour, découper la réalité en morceaux toujours plus fondamentaux n’a guère réussi.

Il n’empêche que beaucoup de théoriciens y travaillent encore, Les retombées scientifiques et philosophiques d’un succès en ce domaine seraient si importants que peu y renoncent.  Mais aujourd’hui certains s’orientent vers une nouvelle approche. Comme une théorie du tout doit prendre en compte les divers aspects de la réalité , en incluant l’espace et le temps, ils considèrent qu’il faut adopter l’approche la plus basique possible, c’est-à-dire faire appel à l’abstraction géométrique .

L’abstraction géométrique est une forme d’art abstrait basée sur l’utilisation de formes géométriques parfois, mais pas toujours, placées dans un espace non illusionniste et combinées dans des compositions non objectives (non figuratives). Wikipedia

Peter Woit, mathématicien à l’Université Columbia, New-York, l’a bien compris. Nos meilleures théories, selon lui , sont déjà profondément géométriques. La physique des décennies précédentes s’en était rendu compte. La Relativité Générale d’Einstein explique comment des objets massifs déforment l’espace-temps et produisent la gravité. La physique quantique caractérise de façon incomparable les comportements de la nature aux plus petites échelles. La cosmologie moderne rend compte de la façon dont l’univers est apparu et a évolué. La thermodynamique montre comment la chaleur et l’énergie coopèrent pour créer le mouvement.

Cependant ces différentes disciplines se présentent comme des mondes séparés traitant d’aspects différents de la réalité. Au contraire, une théorie du tout devrait offrir un cadre unique dans lequel ces diverses disciplines coopéreraient. Au mieux, il s’agirait d’une seule équation. De plus, cette équation devrait préciser la nature de l’énergie noire et de la matière noire dont on pressant mais sans pouvoir le préciser, le rôle fondamental. Or cet adjectif de noire symbolise notre ignorance à leur égard.

Pourrait-on dire que la nouvelle démarche devrait être  réductionniste, au sens où le réductionnisme cherche à découvrir les composants les plus élémentaires de toutes choses. Mais c’est déjà le cas. Aujourd’hui ont été mis en évidence les atomes, les protons , les quarks, tous ayant permis de construire le « modèle standard des particules élémentaires ». Désormais on peut ajouter à cette liste un tetraquark exotique récemment découvert au CERN c’est-à-dire un hadron composé de deux quarks et de deux antiquarks. Les physiciens lui ont conféré le nom de Tcc+.

A l’opposé du réductionnisme, beaucoup considèrent que pour découvrir le fondement ultime de la réalité il faut faire appel à une approche dite « unification ». Celle-ci est pratiquée depuis longtemps. Elle montre que deux domaines que l’on croyait séparés sont en fait les mêmes. Ainsi en est-il du magnétisme et de l’électricité unifiés dans l’électromagnétisme, ou de l’espace et du temps unifiés dans l’espace-temps.

En poussant l’unification plus loin, ne pourrait-on pas aboutir à une « grande théorie unifiée ». Celle-ci ne serait pas très différente de la théorie du tout évoquée au début de cet article. Elle ne pourrait pas sans doute permettre de comprendre l’énergie noire, mais elle nous en rapprocherait.

Aujourd’hui, la démarche d’unification est souvent envisagée. Ainsi la Théorie des Cordes n’est pas loin de la M-Theory qui unifie les divers aspects de la Théorie des Supercordes. Celle-ci pourrait être considérée comme la phase ultime du réductionnisme précité. Elle postule qu’il n’existe pas une description unique de l’univers, mais 10 puissance 500 possibilités de descriptions différentes, plus qu’il y a d’atomes dans notre univers.

Quelquefois les deux approches peuvent se conjuguer. Le Théorie des Cordes et sa parente la M-Theory sont les meilleures candidates pour une théorie finale qui serait le sommet à la fois de l’unification et du réductionnisme. Pour elle les composants premiers de la réalité ne seraient pas des quarks mais des cordes unidimensionnelles (one-dimensional strings), pourtant difficiles à imaginer. Celles-ci avaient suscité l’enthousiasme au début du 20e siècle du fait qu’elles rapprochaient de l’unification. Elles paraissaient être des particules semblant proposer une version quantique de la gravité.

Cependant la théorie des cordes a ensuite déçu. Elle conduisait à un univers pouvant être décrit de 10puissance500 façons différentes, plus qu’il ne semble y avoir d’atomes dans l’univers.

Devant ce flou, de plus en plus de physiciens considèrent qu’ils doivent approcher la question autrement, d’une façon encore plus basique, c’est-à-dire par la géométrie. La géométrie étudie les relations entre les lignes, les surfaces et les bordures . Il n’est pas nécessaire que celles-ci existent sous une forme physique.

Un des domaines de la géométrie abstraite est connu sous le nom de amplituhèdron ou amplituhèdre, qui semble pouvoir décrire convenablement un ensemble de particules physiques fondamentales. L’amplituhédron devrait ainsi permettre de reformuler les lois fondamentales de la nature dans un langage géométrique, selon Jaroslav Trnka de l’Université de Californie, un des pères de la théorie de l’amplituhédron.

Recourir à la géométrie permet d’éviter de faire appel aux mathématiques complexes de la  théorie quantique des champs, QFT. Cependant l’amplituhèdron n’est pas aussi fondamental qu’il apparaît. Il est construit en utilisant différents composants géométriques dont l’un est un « twistor » . La théorie du twistor avait été proposée en 1967 par Roger Penrose pour conduire à l’étude de la gravité quantique. Les twistors peuvent être décomposés mathématiquement en spinors, spinor gauche ou spinor droit.

Peter Woit pour sa part utilise les twistors et les spinors pour jeter les fondations d’une future théorie du tout. Il décrit l’espace et le temps en utilisant des vecteurs qui représentent des instructions mathématiques pour se déplacer d’un point à un autre dans l’espace et le temps. Ces vecteurs sont le produit de deux spinors.

Après essais, Woit a crée l’espace-temps en utilisant deux copies des mêmes spinors droits. Il a découvert ensuite que ceci donnait aux spinors de gauche la possibilité de créer des particules relevant de la physique des particules.

Dans la théorie quantique des champs, qui est une approche en physique théorique pour construire des modèles décrivant l’évolution des particules, notamment leur apparition ou disparition lors des processus d’interaction, les spinors sont utilisés pour décrire les fermions qui sont des particules de la matière ordinaire. Aussi cette intrusion dans la géométrie des spinors pourrait, comme l’espère Woit, conduire à une loi décrivant la « sainte trinité » de l’espace, du temps et de la matière. Derrière celle-ci pourraient peut-être apparaître des descriptions de la matière noire. 

Pour d’autres physiciens, la théorie des cordes ne doit pas être abandonnée trop vite. Mais tous reconnaissent que derrière ses hypothèses actuelles, la quête pour la théorie du tout est plus basée sur l’intuition que sur des faits . Pour la physicienne Renate Loll de l’Université Radbout en Hollande, il n’est pas certain que l’on puisse trouver une formule miracle d’où découleraient des réponses à toutes les questions. Elle propose cependant une approche dite Triangulations Dynamiques Causales CDT . Pour la CDT, le temps permet la notion de causalité, c’est-à-dire l’exigence que la cause précède l’effet. Dans les calculs de Renate Loll, l’intégrale de chemin suggère que l’univers que nous voyons est en réalité une combinaison quantique de toutes les formes possibles de l’espace-temps.

Renate Loll connecte en effet des triangles et des tetrahédons pour créer une surface avec une courbure comparable à celle de l’espace-temps d’Einstein. Elle complète cela par un schéma mathématique qui donne une structure de type cause à effet aux évènements qui surviennent dans son espace-temps afin de refléter la causalité que l’on constate dans notre propre univers.

Loll convient du fait qu’il serait possible de retrouver ainsi certains traits de la théorie quantique. Mais son approche est plus sophistiquée. Elle utilise un espace-temps multicouche qui pourrait aider à simuler l’approche de la physique quantique voire à terme d’envisager des expériences en relation avec la CMB primordiale ( cosmic microwave background radiation  ).

Le mathématicien danois Jesper Moller Grimstrup vient de proposer, avec le mathématicien allemand Johannes Aastrup, une approche algébrique dite quantum holonomy-diffeomorphism QHD . Il en déduit un espace de configuration, configuration space. Celui-ci comporte un nombre infini de dimensions et contient les différentes façons dont certains objets , désignés comme stuff, peuvent être déplacés dans cet espace. En physique et plus particulièrement en mécanique classique et en mécanique statistique, l’espace de configuration d’un système physique est l’ensemble des positions possibles que ce système peut atteindre. Wikipédia

Les espaces de configuration ne sont pas des idées nouvelles. Ce qui est nouveau, selon Grimstrup et Aastrup, est la façon dont nous analysons la configuration de cet espace. Ils y ont retrouvé les signatures de fermions encodées dans la géométrie de cet espace.

Plus excitant, selon eux, est que la vision de la gravité telle que conçue par Einstein y apparaît aussi. Mais elle n’y apparait pas comme élément fondateur. Elle y apparaît comme émergente. Ceci sera vérifié dans les prochains mois.

Ajoutons que la géométrie QHD donne naissance à un phénomène appelé « Dynamical ultra-violet regularisation » Voir arXiv:2309.06374v3 [hep-th] 24 Oct 2023. Celle-ci ne se manifeste que des conditions très énergétiques comme celles des trous noirs. Elle travaille à l’opposé de la gravité. Serait-il possible que cette force anti-gravité puisse expliquer l’énergie noire qui semble accélérer l’expansion de l’univers?

En résumé, les deux auteurs ont posé les mathématiques de cet espace vide et en ont vu émerger spontanément les bases de ces deux piliers fondamentaux de la physique que sont la théorie quantique des champs et la relativité générale. Il ne s’agit pas d’une théorie générale mais des bases de ce que pourrait être celle-ci, une fois qu’elle serait mieux approfondie

.

18/02/2024 Tout savoir sur l’Intelligence Artificielle et les technologies de l’information grâce à l’Armée de l’air et de l’Espace française

Quand on fait voler des Rafales qui restent les meilleurs avions de combat du monde, quoi que l’on en pense, il faut tout savoir sur l’IA avancée et les dernières générations de Technologies de l’information.

C’est ce qu’à compris depuis longtemps l’Armée de l’Air et de l’Espace française.

Mais cette institution n’a pas le savoir égoïste. Elle partage ses compétences et ses informations avec le grand public francophone.

Voyez

La Revue Vortex https://www.calameo.com/cesa/read/00694028836ec273548b7

Le Centre d’étude stratégique de l’armée de l’air et de l’espace https://air.defense.gouv.fr/cesa

Rappelons que pour l’avenir, l’enjeu annoncé est l’avion hypersonique et furtif. Ainsi  l’US Air Force annonce avoir fait voler le démonstrateur d’un nouvel avion de combat développé secrètement dans le cadre du programme Next Generation Air Dominance (NGAD) et ouvrirait ainsi l’ère des appareils de combat hypersoniques et furtifs

Rassurons nos lecteurs, la France, avec ou sans l’Allemagne, mais avec Dassault, aura sa version.

17/02/2024 Face à la Russie, que peuvent faire les Européens en matière d’armement ?

Les gouvernements européens s’engagent actuellement dans des dépenses militaires de plus en plus lourdes. Celles-ci se font au détriment de la recherche scientifique , fondamentale et appliquée, civile et militaire, dont les budgets sont en réduction constante, notamment dans le domaine spatial. Faut-il y consentir ou compter sur la bienveillance intéressée du lobby militaro-industriel américain ?

Les difficultés actuelles de la Russie face à l’armée ukrainienne commandée avec beaucoup de courage et de dextérité par le jeune président Volodomir Zelensky et son état-major pourrait les rassurer. Les Russes subissent autant de pertes humaines qu’ils en infligent. Les routes sont bordées de dizaines d’épaves de leurs chars abandonnés par leurs équipages après avoir reçu un coup au but ou sauté sur une mine (russe).

Dans le domaine nouveau des drones de combat lanceurs de missiles, les matériels ukrainiens payés par une généreuse aide occidentale maîtrisent les airs, malgré une forte présence russe. Quant à ce que l’on sait du moral des militaires russes, recrutés à la hâte et sans formation suffisante, pleurant dans leurs téléphones portables au su de tout le voisinage, il n’est guère rassurant.

La Russie posséde évidement un puissant arsenal nucléaire, y compris dans le nucléaire de proximité. Il en est de même des autres armes de destruction massive, notamment bactériologiques. Mais dans un champ de bataille aussi réduit que l’est l’Europe du nord, il suffit d’un simple retournement de vent pour que la destruction massive soit aussi celle de l’envoyeur.

Inutile d’ajouter que la puissante flotte russe de la Mer Noire, au train actuel, face aux drones navals ukrainiens, il n’en restera bientôt plus grand chose.

On dira que le grand allié chinois est prêt à voler au secours de la Russie. Mais vu les distances géographiques, cela ne se fera pas très vite.

Ceci dit, si les Européens continuent à compter sur les Etats-Unis pour assurer leur défense, ils seront vite dans l’état actuel de déliquescence de la Russie. Il faut donc qu’ils ne renoncent pas à leurs industries militaires, quitte à ne pas utiliser cet armement. C’est ce que fait la France avec son programme Rafale.

14/02/2024 Une première détection de matière noire (Black matter)

L’espace est empli d’une matière que nous pouvons voir, soit de nos yeux, soit à l’aide d’instruments d’optique, galaxies, astres, planètes et autres débris ou poussières. . Mais il comporte aussi quelques 85% d’une matière que nous ne pouvons voir mais dont nous constatons en permanence les effets, matière dite pour cette raison matière noire.. Mais la matière noire se serait comparable à la matière ordinaire, prenant par exemple la forme d’astres qe nous ne pourrions voir.

La matière noire ou matière sombre est une catégorie de matière hypothétique, invoquée dans le cadre du Modèle ΛCDM pour rendre compte de certaines observations astrophysiques, notamment les estimations de la masse des galaxies ou des amas de galaxies et les propriétés des fluctuations du fond diffus cosmologique. Wikipédia

Le modèle ΛCDM ou modèle de concordance est un modèle cosmologique du Big Bang comprenant une constante cosmologique notée par la lettre grecque Λ et associée à l’énergie dite elle- même sombre, laquelle commande l’ expansion de l’univers.

Selon la théorie de la formation des structures de l’univers, la matière de l’univers primitif était initialement répartie de manière homogène. Par la suite, sous l’influence de la gravité, la matière a commencé à s’agglomérer en structures plus denses. La structure à grande échelle de l’univers observable ressemble désormais à une gigantesque toile cosmique se caractérisant par une distribution en réseau des galaxies et d’amas de galaxies reliés par de vastes filaments de matière. Entre ces filaments et nœuds de matière se trouvent ce que l’on nomme  les vides cosmiques, qui ne sont vides que par comparaison.

La toile cosmique est le résultat de l’interaction dynamique entre la matière noire et l’énergie sombre qui constituent la majeure partie de l’univers. La première exerce une attraction gravitationnelle, attirant la matière ordinaire vers les régions les plus denses, tandis que la seconde contribue à l’accélération de l’expansion de l’univers, influençant la formation et l’évolution des structures à grande échelle.

Cette toile cosmique joue un rôle essentiel dans la compréhension de l’évolution de l’univers. Son analyse pourrait ainsi permettre de répondre à certaines des questions clés de la cosmologie, telles que la nature de ces deux mystérieuses entités mentionnées ci-dessus, matière noire et énergie sombre .

De tels travaux pourraient aussi permettre de mieux appréhender l’origine des fluctuations primordiales qui ont conduit à la formation des structures cosmiques.

En utilisant les données du James Webb Telescope, des astronomes de l’Université d’Arizona ont isolé l’un de ces filaments de matière s’étendant sur plus de trois millions d’années-lumière et composé d’une dizaine de galaxies anciennes. Formé à peine 830 millions d’années après le Big Bang, il pourrait représenter le plus ancien fil connu de la toile cosmique.

Le filament nouvellement découvert serait ancré sur un quasar. Le quasar est un objet céleste extrêmement brillant intégrant un trou noir supermassif en son centre. La brillance de cet objet est la raison pour laquelle les astronomes ont découvert ce brin de galaxies.

En effet, la découverte a été faite dans le cadre du projet ASPIRE
ou A SPectroscopic Survey of Biased Halos in the Reionization Era…

Les astronomes ont déterminé que les structures de la matière noire se présentent sous forme de longs brins minces. Grâce au télescope Subaru, une équipe vient en effet de réaliser la première détection directe de ces filaments au sein d’un vaste amas de galaxies. Cette découverte offre ainsi de nouvelles données probantes pour évaluer les théories sur l’évolution de l’Univers.

Cette structure, connue sous le nom de toile cosmique, est formée de filaments massifs constitués de matière. Ces filaments, qui alimentent les galaxies en gaz et guident leur regroupement, jouent un rôle clé dans l’évolution cosmique.

Or, des astronomes de l’Université Yonsei de Séoul ont pour la première fois réussi à détecter de la matière noire sur ces filaments de matière. Cette observation révolutionnaire a été rendue possible grâce à l’utilisation du télescope Subaru, situé à Hawaï, et à l’effet de la gravité sur la lumière, appelé lentille gravitationnelle.

Albert Einstein avait prédit en 1915 que la masse courbe l’espace-temps, ce qui influence le passage de la lumière. Concrètement, lorsqu’une source lumineuse se retrouve sur la trajectoire d’une masse, cette lumière se retrouve déviée, ce qui crée un effet de lentille gravitationnelle. Bien que la matière noire elle-même ne soit pas directement observable, son influence gravitationnelle peut ainsi être détectée à travers cet effet.

L’observation a été réalisée sur l’amas du Coma  composé de plus d’un millier de galaxies, situé à 321 millions d’années-lumière de la Terre. Cet amas fait partie intégrante de la Grande Muraille, considérée comme l’une des premières grandes structures cosmiques identifiées.

Grâce à la sensibilité et à la résolution élevées de l’Hyper Suprime-Cam (HSC) du télescope Subaru, l’équipe a donc réussi à percevoir les effets de lentille gravitationnelle causés par la matière noire sur les filaments intra-amas, une partie moins étudiée de la toile cosmique.

Ainsi l’on trouve une confirmation cruciale de l’existence de la toile cosmique à grande échelle, structure essentielle dans la compréhension de la formation et de l’évolution des galaxies. Alors que la matière noire demeure insaisissable directement, son rôle en tant qu’échafaudage cosmique invisible se révèle une fois de plus à travers les subtilités de la gravité et de la lentille gravitationnelle.

Référence

article

Nature Astronomy (2024)

  • Abstract

The concordance cosmological model predicts that galaxy clusters grow at the intersection of filaments that structure the cosmic web and extend tens of megaparsecs. Although this hypothesis has been supported by the baryonic components, no observational study has detected the dark matter component of the intracluster filaments (ICFs), the terminal segment of the large-scale cosmic filaments at their conjunction with individual clusters. We report weak-lensing detection of ICFs in the Coma cluster field from the ∼12-deg2 Hyper Suprime-Cam imaging data. The detection is based on two methods, the matched-filter technique and the shear-peak statistic. The matched-filter technique yields detection significances of 6.6σ and 3.6σ for the northern and western ICFs at 110° and 340°, respectively. The shear-peak statistic yields detection significances of 3.1σ and 2.8σ for these ICFs. Both ICFs are highly correlated with the overdensities in the weak-lensing mass reconstruction and are well aligned with the known large-scale (>10 Mpc) cosmic filaments associated with the Coma supercluster.

14/02/2024 Nouvelle hypothèse concernant la matière noire

Dans l’étude complexe de la matière noire, une nouvelle hypothèse proposée par Hai-Bo Yu, professeur de physique et d’astronomie à l’Université de Californie à Riverside et son équipe, bouleverse notre compréhension actuelle. Selon cette hypothèse, la matière noire serait composée de particules qui interagissent fortement entre elles via une « force sombre ». Cette idée pourrait enfin élucider les densités extrêmes observées dans les halos de matière noire entourant les galaxies.

Les simulations à haute résolution de structures cosmiques basées sur des observations astronomiques réelles, présentent des interactions fortes entre particules de matière noire. Ces interactions entraînent un transfert de chaleur dans le halo, diversifiant ainsi la densité de la matière noire dans les régions centrales des galaxies. Ainsi, certains halos présentent des densités centrales plus élevées, tandis que d’autres sont moins denses, les détails dépendant de l’histoire évolutive et de l’environnement de chaque halo.

Selon cette étude la matière noire interagissant par une « force sombre » pourrait offrir une solution que la théorie de la matière noire froide ne fournit pas. Elle présente la matière noire comme un élément potentiellement plus complexe et dynamique que prévu.

Les chercheurs espèrent que leurs découvertes encourageront davantage d’études dans ce domaine prometteur, en particulier avec l’arrivée prochaine de données issues de nouveaux observatoires astronomiques, tels que le Télescope spatial James Webb et l’Observatoire Rubin. Leurs travaux ont été publiés en novembre dans The Astrophysical Journal Letters.

Pour en savoir plus
 Ethan O. Nadler et al, A Self-interacting Dark Matter Solution to the Extreme Diversity of Low-mass Halo Properties, The Astrophysical Journal Letters (2023). DOI: 10.3847/2041-8213/ad0e09

16/02/2024 Assassinat politique en Russie. Mort de l’opposant Alexeï Navalny

Les services pénitentiaires russes rapportent le vendredi 16 février 2024, qu’Alexeï Navalny, 47 ans, est mort en prison.

Principal opposant politique à Vladimir Poutine, condamné à une peine de 19 ans de prison pour « extrémisme« , vient de mourir dans sa prison en Arctique, ont annoncé les services pénitentiaires russes (FSIN) ce vendredi 16 février.

Ayant survécu en Allemagne à une tentative d’empoisonnement  » d’origine inconnue », il avait voulu retourner à Moscou pour mieux y fédérer l’opposition démocratique au régime politique actuel.

Prévenu plusieurs fois qu’il allait y risquer sa vie, il avait toujours répondu « qu’ils n’oseront pas » vu sa réputation mondialement connue.

Ils ont osé.

15/02/2024 Découverte d’un nouveau viröide réplicateur

Bien que ceci soit parfois encore discuté, la majorité des virologues considèrent
les virus comme non-vivants car ils ne remplissent pas tous les critères du vivant. En effet, ils sont acellulaires, ne peuvent ni se reproduire, ni métaboliser sans infecter une cellule hôte.

Considérant cependant la complexité biologique des virus et leur capacité à infecter sans cesse des cellules vivantes , beaucoup de biologistes estiment que les virus sont vivants. On parle de « formes de vie élémentaires ». La preuve en est que si l’on découvrait sur la Lune ou Mars des virus analogues à ceux qui existent sur la Terre, on annoncerait tout de suite que ces planètes sont porteuses de vie. Il s’agirait d’une annonce de portée considérable.

En dessous des virus dans l’échelle de la complexité se trouvent les viroïdes. Un viroïde est une particule virale simple, composée d’un seul ARN circulaire sans capside, qu’on différencie des virus acapsidés car sa séquence n’encode aucune protéine. Il appartient cependant aux virus car il se fait répliquer en infectant une cellule hôte, tout en ayant des effets pathogènes comparables à ceux des virus encodant des protéines.

Plus petites que les virus (environ 50 nm de long), ces particules ont été découvertes en 1971 par le spécialiste américain des maladies végétales Theodor Otto Diener en recherchant l’agent causal de la maladie des tubercules fusiformes de la pomme de terre. La preuve de leur nature infectieuse n’a été obtenue qu’en 1972, lorsque des infections expérimentales purent être réalisées. Wikipedia

Or récemment Andrew Fire, prix Nobel 2006 en physiologie-médecin, vient de découvrir à Stanford dans un intestin humain un nouvel agent viroïde réplicateur, bien plus simple qu’un virus. Cet agent a été baptisé « obelisk ». Il s’agit en fait d’une catégorie tout à fait nouvelle. Il n’est pas protégé comme le virus Covid 19 par une enveloppe protéinique. Il s’agit seulement d’un simple cercle constitué d’ARN, si petit qu’il n’ a été découvert que dans les années 1970.

Il diffère cependant du fait que son ARN code (commande la reproduction)d’une protéine jusqu’ici inconnue. Son découvreur l’a nomme « oblin ». La séquence d’ARN est en forme de baguette (rod-like ) plutôt que circulaire. Le viroide a été découvert dans des bouches humaines, mais il semble répandu ailleurs.

Qui plus est, il a été montré récemment que le viroide se reproduisait par l’intermédiaire de la bactérie Streptococcus sanguinis. Celle-ci se trouve aussi dans des bouches humaines. Si elle passe de la bouche dans le sang, elle peut provoquer des inflammations du cœur ou endocardites. De nouvelles études seront entreprises d’urgence pour apprécier le caractère pathogène du viroide, et s’en garder si nécessaire.

Voir https://theconversation.com/a-new-virus-like-entity-has-just-been-discovered-obelisks-explained-222296

14/02/2024 L’Hydrogène blanc. Pourquoi si peu d’enthousiasme ?

L’hydrogène naturel (ou hydrogène blanc) fait l’objet d’un intérêt croissant dans un contexte où il est devenu indispensable de trouver des alternatives aux combustibles fossiles. Produit au niveau des rides médio-océaniques lentes, à la faveur de réactions d’hydratation du manteau (serpentinisation), l’H2 naturel semble pouvoir aussi se former en contexte continental loin de toute roche mantellique. Des concentrations bien supérieures aux teneurs atmosphériques ont été mesurées dans les cratons vieux de plus de 500 millions d’années. L’origine et le comportement géochimique de cet H2 naturel continental restent encore mal comprise et il est difficile d’avoir aujourd’hui une estimation fiable de la ressource en H2. Mais certains la disent inépuisable, aux rythmes actuels de consommation.

Rappelons que l’hydrogène (H²) est une alternative intéressante aux combustibles fossiles traditionnels. Aujord’hui sa production est onéreuse et énergivore et les foyers naturels d’hydrogène sont rares. En Albanie, la mine de Bulqizë, l’une des plus grandes mines de chrome de la planète située à 40 kilomètres au nord-est de Tirana, est une nouvelle source d’espoir. Des chercheurs grenoblois y ont trouvé un énorme réservoir d’hydrogène blanc, révèle une étude publiée le 8 février 2024 dans la revue Science. Le gaz miracle y serait présent en quantité suffisante pour offrir une importante source d’énergie propre.

Nous rapportons des mesures directes d’un taux de dégazage élevé de 84 % (en volume) de gaz H² provenant de la mine souterraine profonde de chromite de Bulqizë« , rapporte l’étude. Au minimum 200 tonnes d’hydrogène seraient évacuées chaque année dans ces galeries,« ce qui en fait l’un des débits de H² les plus importants enregistrés à ce jour ». Selon le document, jusqu’à 50 000 tonnes d’hydrogène pourraient se trouver dans le réservoir de la mine.

Référence

HOMESCIENCEVOL. 383, NO. 6683

A DEEP RESERVOIR FOR HYDROGEN DRIVES INTENSE DEGASSING

SCIENCE

8 Feb 2024
Vol 383, Issue 6683
pp. 618-621

DOI: 10.1126/science.adk9099

Editor’s summary

Hydrogen is an attractive alternative to traditional fossil fuels because it can be used to produce energy without generating carbon dioxide as a by-product. However, natural sources of hydrogen are rare and producing it is energy intensive. Truche et al. found a large natural source of hydrogen gas emitting from deep within the Bulqizë chromite mine. This large hydrogen flux is likely from long-term accumulation within a faulted reservoir. Places with similar geology should be good targets for finding other natural sources of hydrogen. —Brent Grocholski

Abstract

Deep crustal production of hydrogen (H2) is a potential source of primary energy if recoverable accumulations in geological formations are sufficiently large. We report direct measurements of an elevated outgassing rate of 84% (by volume) of H2 from the deep underground Bulqizë chromite mine in Albania. A minimum of 200 tons of H2 is vented annually from the mine’s galleries, making it one of the largest recorded H2 flow rates to date. We cannot attribute the flux solely to the release of paleo-fluids trapped within the rocks or to present-day active and pervasive serpentinization of ultramafic rocks; rather, our results demonstrate the presence of a faulted reservoir deeply rooted in the Jurassic ophiolite massif. This discovery suggests that certain ophiolites may host economically useful accumulations of H2

14/02/2024 Pourra-t-on un jour expliquer toutes les étrangetés du monde quantique?

Cet article est la traduction résumée et discutée de « Where quantum weirdness hides » de Tom Rivlin, New Scientist 3 february 2024, p. 39

Comment les particules quantiques qui se trouvent dans un nuage d’états possibles, peuvent-elles donner naissance au monde solide et bien défini dans lequel nous vivons ?

La réponse à cette question se trouve-t-elle dans la thermodynamique, comme le pensait le physicien autrichien Ludwig Boltzmann au 19e siècle ? Cette théorie était centrée sur l’entropie qui cherche à mesurer le niveau de désordre dans lequel se trouvent les composants du monde.

L’entropie est une grandeur physique qui caractérise le degré de désorganisation d’un système. Introduite en 1865 par Rudolf Clausius, elle est nommée à partir du grec ἐντροπή, littéralement « action de se retourner » pris au sens de « action de se transformer »2. La thermodynamique statistique fournit un nouvel éclairage à cette grandeur physique abstraite : elle peut être interprétée comme la mesure du degré de désordre d’un système au niveau microscopique. Plus l’entropie du système est élevée, moins ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques, et plus grande est la part de l’énergie inutilisable pour l’obtention d’un travail, c’est-à-dire libérée de façon incohérente. Wikipedia

L’entropie explique aussi la mécanique quantique dont les règles ont été développées au début du 20e siècle pour comprendre comment la lumière et la matière peuvent parfois se comporter comme des ondes et parfois des particules . En 1936 Erwin Schrödinger montra comment les traiter d’une façon cohérente dans le cadre mathématique de la fonction d’onde .

Historiquement, la notion de fonction d’onde fut introduite de façon implicite par Louis de Broglie dans sa thèse en 1924. Son nom s’explique par le fait qu’elle revenait à donner à toute particule les propriétés d’interférence typiques d’une onde, généralisant la dualité onde-corpuscule introduite pour la lumière par Albert Einstein. C’est Erwin Schrödinger qui approfondit cette notion, en proposant en 1926 l’équation (portant désormais son nom) qui permet de déterminer la fonction d’onde Wikipedia.

Les lois de la mécanique quantique décrivent avec une grande précision le monde microscopique. Mais elles sont étranges. Elles permettent à une particule d’exister dans plusieurs endroits à la fois, par exemple. Dans le monde macroscopique, on ne voit jamais rien de tel .

Parmi ses concepts, on peut citer la dualité onde corpuscule, la superposition quantique, l’intrication quantique ou encore la non-localité.

De plus, le fait d’observer (mesurer) une particule quantique la reconduit immédiatement dans le monde classique. C’est ce que l’on nomme parfois le measurement mystery. Quel que soit le nombre d’endroits où ait pu se trouver un électron quantique, le fait de l’observer, c’est-à-dire d’interagir avec lui en utilisant n’importe quel instrument le réintroduit immédiatement dans le monde classique.

Des débats pour comprendre cette étrangeté se sont déroulés pendant plus d’un siècle . En 1920, Von Neuman et d’autres physiciens introduisirent l’idée que l’observation faisait s’ « effondrer » la fonction d’onde, en fonction du phénomène dit « réduction du paquet d’ondes » Ceci fut appelé l’interprétation de Copenhague

Elle est basée sur le principe de complémentarité de Bohr. Ce principe tire son inspiration de l’exemple de la théorie de la relativité, dans lequel la solution des contradictions de la mécanique newtonienne avec l’électromagnétisme de Maxwell a consisté à remettre en cause l’existence d’un temps absolu et d’une existence indépendante de l’espace et du temps. De la non-mesure d’un mouvement absolu et de l’existence d’une vitesse limite pour tous les signaux causaux dans l’univers, on en déduisait la vacuité du concept de mouvement absolu, et une fusion de l’espace et du temps en la géométrie de l’espace-temps de Minkowski.

L’effondrement de la fonction d’onde est dit aussi « décohérence ». Dans les années 2000, les physiciens Robert Blume-Koout, alors au California Institute of Technology et Wojciech Zurek du Los Alamos National Laboratory à New Mexico montrèrent que la décohérence ne se produisait pas seulement en laboratoire. Une molécule d’air ordinaire heurtant une particule chargée répandait dans l’environnement toute l’information quantique dont elle était porteuse . Cette information quantique permet la propriété de « superposition », «  deux emplacements en même temps ou « two places at one ». Mais elle permet aussi d’autres curieux effets quantiques, tels que l’intrication grâce à laquelle à tout moment une interaction instantanée entre deux objets quantiques peut s’établir, quelle que soit la distance dans l’univers les séparant.

Les deux physiciens précités affirment que ce sont seulement certains types d’informations qui peuvent être retrouvés après le processus de diffusion résumé ci-dessous . Il s’agit pour eux de l’information classique. L’information quantique est bien là, il est seulement impossible d’y accéder. Ils emploient dans ce cas le terme de darwinisme quantique. Selon ce terme, l’environnement autour d’un objet quantique le sélectionne comme le mieux à même de porter et diffuser le message quantique. Mais jusqu’à ce jour les détails de ce processus étaient restés vagues.

C’est ici qu’intervient l’auteur de l’article et son groupe de travail. Leur hypothèse est que chaque étape du processus décrit ci-dessus peut être au mieux expliqué par la thermodynamique. Ils s’intéressent à ce que deviennent les états quantiques quand apparemment ils disparaissent, question que ne se pose pas le darwinisme quantique.

Or pour eux la thermodynamique propose des réponses à cette question. A ses yeux, l’énergie ne peut pas être créée ou détruite. Par ailleurs, l’univers devient de plus en plus désordonné avec le temps. Or le concept de mesure semble contredire ce qui précède. elles sous-entend une destruction de l’information. Quand une particule se trouvant simultanément dans deux emplacement se retrouve dans un seul emplacement, que devient l’information concernant l ‘autre emplacement ? Pour répondre à ces questions et à d’autres de même, ils élaborèrent un cadre de réflexion qu’ils nommèrent « MEH, measurement equilibration hypothesis » 

MEH décrit la mesure comme un processus dans lequel un objet quantique interagit avec un instrument de mesure. L’instrument de mesure n’est pas nécessairement un instrument au sens propre, mais tout objet non quantique en relation avec l’objet quantique. Ce processus permet à l’information quantique de diffuser dans l’instrument jusqu’à ce qu’un point d’équilibre soit atteint.

L’article dont on trouvera ci-dessous les références est l’un des deux articles publiés sur ce sujet. Ils sont tous deux soumis à relecture par leurs pairs.

Il faudra attendre la discussion de ces articles pour juger de leur pertinence. On notera seulement qu’ils pourraient commencer à expliquer d’une façon scientifiquement discutable toutes les interprétations dites du monde multiple

Référence

[Submitted on 22 Feb 2023]

Quantum measurements and equilibration: the emergence of objective reality via entropy maximisation

Emanuel SchwarzhansFelix C. BinderMarcus HuberMaximilian P. E. Lock

Textbook quantum physics features two types of dynamics, reversible unitary dynamics and irreversible measurements. The latter stands in conflict with the laws of thermodynamics and has evoked debate on what actually constitutes a measurement. With the help of modern quantum statistical mechanics, we take the first step in formalising the hypothesis that quantum measurements are instead driven by the natural tendency of closed systems to maximize entropy, a notion that we call the Measurement-Equilibration Hypothesis. In this paradigm, we investigate how objective measurement outcomes can emerge within an purely unitary framework, and find that: (i) the interactions used in standard measurement models fail to spontaneously feature emergent objectivity and (ii) while ideal projective measurements are impossible, we can (for a given form of Hamiltonian) approximate them exponentially well as we collect more physical systems together into an « observer » system. We thus lay the groundwork for self-contained models of quantum measurement, proposing improvements to our simple scheme.

Comments:7+6 pages, 1 figure
Subjects:Quantum Physics (quant-ph)
Cite as:arXiv:2302.11253 [quant-ph]
 (or arXiv:2302.11253v1 [quant-ph] for this version)

,