21/12/2023 Des qu-bits réalisés pour la première fois à partir de molécules intriquées

Des physiciens américains de l’Université de Princeton ont réussi pour la première fois à provoquer et contrôler une intrication quantique entre deux molécules. Ce phénomène d’intrication quantique se manifeste quand deux particules (ou groupes de particules) sont liées de manière à ce que l’état quantique de l’une influence instantanément l’état quantique de l’autre, indépendamment de la distance qui les sépare.

Cette caractéristique, initialement considérée comme irréelle par Einstein, est désormais reconnue comme un principe fondamental de la physique quantique.

Une telle capacité d’interaction à distance entre molécules, et non plus simplement entre atomes, ouvre la voie vers des applications pratiques révolutionnaires, notamment dans le développement d’ordinateurs quantiques plus puissants.

Les molécules, contrairement aux atomes, possèdent une structure complexe et donc plus de degrés de liberté dans le contexte quantique. Cela signifie qu’elles peuvent exister dans un plus grand nombre d’états quantiques différents. Cette complexité moléculaire permettra des méthodes innovantes pour le stockage et le traitement de l’information quantique .

En effet, les molécules ont la capacité de vibrer et de tourner dans plusieurs modes différents. Chacun de ces modes peut être utilisé pour représenter différents états quantiques via des bits quantiques (qubits) – les unités fondamentales de l’information dans un ordinateur quantique. Cette polyvalence offrirait une richesse de configurations pour coder l’information, bien au-delà des possibilités offertes par les atomes seuls.

Les chercheurs précités ont utilisé des faisceaux laser très focalisés pour piéger et contrôler des particules extrêmement petites, telles que les molécules. Il s’agit de « pinces optiques ». Le principe de fonctionnement des pinces optiques repose sur la pression de radiation – la pression exercée par la lumière sur les objets physiques. En ajustant les propriétés du faisceau laser, telles que son intensité et sa focalisation, les scientifiques peuvent positionner avec précision et maintenir en place des molécules individuelles.

L’utilisation des pinces optiques pour refroidir les molécules à des températures ultrabasses est essentielle. A ces températures, les molécules sont moins susceptibles d’être perturbées par l’énergie thermique environnante. Cela permet aux chercheurs de les placer dans des états quantiques spécifiques nécessaires pour les expériences d’intrication.

De plus, les chercheurs utilisent des impulsions micro-ondes pour induire des interactions contrôlées entre les molécules. Les micro-ondes, en agissant sur les molécules piégées, permettent de modifier leurs états quantiques de manière cohérente et contrôlée. Cette cohérence est essentielle pour l’intrication, car elle assure que les états quantiques des molécules sont liés de manière prévisible et répétable.

L’intrication réalisée avec cette méthode est un élément fondamental pour le développement de l’informatique quantique . Les ordinateurs quantiques basés sur des molécules présenteraient en effet une caractéristique unique par rapport à ceux utilisant des qubits traditionnels, comme les ions ou les photons.  En informatique quantique, les qubits sont des unités d’information qui peuvent exister dans une superposition d’états quantiques |0⟩ et |1⟩. Les qutrits, en revanche, sont une unité d’information quantique qui peut exister dans une superposition de trois états quantiques orthogonaux, souvent dénotés |0⟩, |1⟩, et |2⟩. Cette capacité à opérer avec trois états quantiques, plutôt que deux, offre une plus grande complexité et flexibilité dans le traitement de l’information quantique, par rapport aux qubits.

Hannah Williams, physicienne à l’Université de Durham, met en lumière l’importance de telles avancées dans un article de Nature référencé ci-dessous. Elle souligne que le rythme rapide des progrès dans l’utilisation des molécules pour la simulation quantique indique que cette approche pourrait bientôt devenir une plate-forme de choix dans ce domaine. Les molécules offrent une flexibilité et une capacité de modélisation qui pourraient surpasser les plates-formes quantiques actuelles, rendant possible l’exploration de domaines de la physique et de la chimie jusqu’alors hors de portée.

Un autre groupe de recherche, mené par John Doyle, Kang-Kuen Ni et Wolfgang Ketterle, a obtenu des résultats similaires, confirmant l’importance de ces découvertes.

Référence

nature  

https://www.nature.com/articles/d41586-023-03943-1

news  

Quantum-computing approach uses single molecules as qubits for first time
Platforms based on molecule

Physicists have taken the first step towards building quantum computers out of individual molecules trapped with laser devices called optical tweezers. Two teams report their results in Nature and Science on 7 December . In both cases they made pairs of calcium monofluoride molecules interact so that they became entangled — a crucial effect for quantum computing.

Accès payant pour la suite

20.12.2023 ITER, un bon projet mais des contre-performances françaises à la réalisation

La France, en retard dans de nombreux domaines scientifico-industriels sur les Etats-Unis , la Russie et bientôt la Chine, pouvait se féliciter de ses performances dans l’électro-nucléaire. En matière de fission, ses centrales regroupent un total de 56 réacteurs dont 32 produisent chacun une puissance électrique de 900 MWe, 20 réacteurs de 1300 MWe, tandis que les quatre derniers délivrent 1450 MWe. Elle avait pris quelques retards à Flamanville, mais celui-ci est en voie de rattrapage.

En matière de fusion, le programme international ITER  International Thermonuclear Experimental Reactor, est un prototype de réacteur à fusion nucléaire en construction en France à Cadarache depuis 2006. Il s’agit d’une collaboration entre 35 pays dans laquelle les équipes françaises jouent un rôle encore dominant. D’autres expériences de fusion entreprises à l’étranger annoncent aujourd’hui avoir réussi le processus, mais il s’agit quasiment encore de réalisations de laboratoire.

Or aujourd’hui le journal Scientific American confirme ce que l’on commençait à savoir en France. Le programme ITER éprouve de grands difficultés
https://www.scientificamerican.com/article/worlds-largest-fusion-project-is-in-big-trouble-new-documents-reveal/

Qui plus est , ces difficultés ne sont pas liées à des questions de fond comme il s’en découvre inévitablement . Il s’agit essentiellement de problèmes de chaudronnerie.

Selon le 4e directeur général d’ITER l’italien Pietro Barabaschi, deux problèmes techniques se sont annoncés. Des « non-conformités dimensionnelles » sur trois secteurs du tokamak (qui en comporte neuf au total), livrés par la Corée du Sud : jusqu’à deux centimètres d’écart entre deux parties devant être soudées Deux centimètres !!!. Il fallait vraiment avoir les yeux dans les poches pour ne pas s’en apercevoir avant recette.

Un des secteurs ayant déjà été installé dans la fosse, il devra être retiré. Cette soudure est nécessaire pour la « chambre à vide », (19 mètres de diamètre pour 11 mètres de hauteur) où se produirait la réaction de fusion.

Second problème, des traces de corrosion sur « l’écran thermique », censé protéger de la chaleur générée par la fusion. C’est un défaut de fabrication de la pièce, pouvant engendrer des fuites d’hélium, qu’il faut donc réparer ou changer.

Au-delà du respect du calendrier, l’impact financier est très important . Le coût a déjà quadruplé par rapport aux premières estimations, avoisinant les 20 milliards d’euros. Ce chiffre va de façon certaine être amené à augmenter en fonction des problèmes techniques découverts. De plus les réparations pourraient prendre des années.

De nationalité italienne, Pietro Barabaschi est le quatrième directeur général d’ITER Organization, après les Japonais Kaname Ikeda (2006-2010) et Osamu Motojima (2010-2015), et le Français Bernard Bigot (2015-2022).

A l’origine, ITER visait à réaliser son premier plasma en 2025 et d’autres tests en 2035. Aujourd’hui, aucune prévision n’est désormais crédible

Inévitablement se pose la question de la responsabilité des directeurs généraux successifs et de leurs collaborateurs. Leur rôle n’était-il pas de vérifier depuis longtemps si la Corée du Sud et autres sous-traitants imposés sans doute pour des raisons diplomatiques s’acquittaient convenablement de leurs tâches.

Pour en savoir plus

https://www.boursorama.com/actualite-economique/actualites/fusion-nucleaire-le-programme-iter-mine-par-des-problemes-de-soudure-des-annees-de-retard-en-vue-1ce9e294db42a879ee199b90aa9a187e

https://fr.euronews.com/next/2023/12/19/reacteur-iter-reproduire-le-pouvoir-du-soleil-pour-alimenter-la-terre-en-energie

19/12/2023 L’effet pathogène des nanoplastiques

Les emballage en plastique pour produits alimentaires sont devenus incontournables, du fait des facilités qu’ils procurent, tant aux consommateurs finals qu’aux commerçants. Des chercheurs ont récemment découverts cependant que ces facilités pouvaient avoir un prix non négligeable en matière de santé humaine.

Quand on les jette, où que ce soit, ils finissent par se désagréger en particules que l’on nomme, selon leur taille, des microplastiques ou des nanoplastiques. Elles peuvent contaminer les aliments et les eaux de consommation des animaux comme des humains. On les retrouve de plus en plus dans le sang de ceux-ci

https://theconversation.com/nanoplastics-linked-to-parkinsons-and-some-types-of-dementia-new-study-218188

Bien plus elles peuvent entrer dans les neurones du cerveau en franchissant touts les barrières existantes. Elles y provoquent des troubles normalement associés à la maladie de Parkinson. https://www.science.org/doi/10.1126/sciadv.adi8716

Elles y interagissent avec une protéine dite alpha-synuclein qui joue un rôle pour faciliter la communication entre cellules nerveuses. Elles y provoquent la formation et l’accumulation de fibrilles jouant un rôle dans la maladie de Parkinson et d’autres types de démence.

Les chercheurs ont étudié en laboratoire les troubles provoqués chez les souris par l’absorption de nanoplastiques de polystyrène. Ils y ont retrouvé des troubles analogues à ceux observés chez les humains lors de certaines maladies cérébrales ou de cancers.

Ces recherches devraient être poursuivies avant que l’on en tire des conclusions définitives.

Voir aussi

https://www.futura-sciences.com/sante/actualites/cerveau-microplastiques-notre-environnement-alterent-fonctionnement-notre-cerveau-105005/

Référence

Anionic nanoplastic contaminants promote Parkinson’s disease–associated α-synuclein aggregation

SCIENCE ADVANCES
17 Nov 2023
Vol 9, Issue 41

Abstract

Recent studies have identified increasing levels of nanoplastic pollution in the environment. Here, we find that anionic nanoplastic contaminants potently precipitate the formation and propagation of α-synuclein protein fibrils through a high-affinity interaction with the amphipathic and non-amyloid component (NAC) domains in α-synuclein. Nanoplastics can internalize in neurons through clathrin-dependent endocytosis, causing a mild lysosomal impairment that slows the degradation of aggregated α-synuclein. In mice, nanoplastics combine with α-synuclein fibrils to exacerbate the spread of α-synuclein pathology across interconnected vulnerable brain regions, including the strong induction of α-synuclein inclusions in dopaminergic neurons in the substantia nigra. These results highlight a potential link for further exploration between nanoplastic pollution and α-synuclein aggregation associated with Parkinson’s disease and related dementias.


19/12/23 La relance du nucléaire de fission français

Les mesures tant attendues, parce qu’indispensables au maintien de l’indépendance énergétique de la France, vis-à-vis notamment du gaz russe et du pétrole de schiste américain, viennent enfin d’être annoncées.

A deux mois de l’élection présidentielle, Emmanuel Macron a dévoilé à l’occasion d’un déplacement à Belfort, son plan de relance du nucléaire pour la France. Il souhaite prolonger la durée de vie des centrales françaises et construire de nouveaux réacteurs d’ici 2035. Les chantiers intéressant l’énergie renouvelable seront par ailleurs poursuivis.

https://www.francebleu.fr/infos/economie-social/nucleaire-emmanuel-macron-1644503639

Des précisions concernant la relance du nucléaire français sont apportées sur les sites révolution-energétique et Les voix du Nucléaire

La première phase du programme de relance du nucléaire, annoncée par Emmanuel Macron à Belfort en 2022, va désormais pouvoir réellement commencer. Selon les premières estimations, ce chantier devrait coûter près de 52 milliards d’euros et nécessiter le recrutement de près de 30 000 personnes dans les années à venir. EDF prévoit, dans le meilleur des cas, une mise en service des réacteurs de Penly en 2035, de ceux de Gravelines en 2038 et des deux du Bugey en 2042.

La question du personnel ingénieurs et techniciens est essentiel. La France avait précédemment découragé du fait de sa timidité nombre des compétences dont elle disposait en ce domaine. Des programmes de recrutement et de formation doivent être annoncés dans les meilleurs délais.

En parallèle de la construction de ces 6 EPR2, l’État souhaite le prolongement de la durée de vie à 60 ans ou plus de tous les réacteurs actuels lorsque cela est possible. Il envisagera dans les années à venir la construction de 8 réacteurs supplémentaires afin d’atteindre la neutralité carbone d’ici à 2050.

L’association « Les Voix du nucléaire » a proposé un scénario de transition énergétique particulièrement volontariste. Ses experts, outre les travaux d’extension des centrales existantes et le lancement des nouveaux chantiers, recommandent de généraliser le stockage par STEP, qui permettrait à la France d’atteindre la neutralité carbone sans incertitudes ni dépendance aux pays voisins.

Les STEP

Précisons que les STEP sont des stations de transfert d’énergie par pompage dont le principal but est d’adapter en temps réel la production à la consommation en permettant le stockage de l’électricité . Ainsi la centrale hydroélectrique de Montézic est une unité de production très particulière. Il s’agit d’une station de transfert d’énergie par pompage dont le principal atout est d’adapter en temps réel la production à la consommation en permettant le stockage de l’électricité sous la forme d’eau. En effet, par définition, l’électricité ne se stocke pas, elle doit être produite en fonction des besoins.

Le principe de la STEP est le suivant : lorsque le réseau a besoin d’électricité, la STEP utilise  l’eau qui se trouve dans le bassin supérieur pour produire de l’électricité (mode turbine). C’est la force de l’eau qui fait tourner la turbine.

Aux heures de faible consommation, lorsque l’électricité est disponible sur le réseau, l’eau est pompée (mode pompe) de la retenue inférieure vers la retenue supérieure. C’est alors le réseau qui alimente l’alternateur comme un moteur électrique. Il fait tourner la turbine en sens inverse  dans le sens pompe pour remonter l’eau vers la retenue supérieure. Le stock d’énergie potentielle est ainsi reconstitué pour un nouveau cycle de production et ce, indépendamment de l’eau des pluies et des autres cours d’eau naturels.

Ce système a un rôle essentiel dans le mix énergétique français : il permettra de consommer  via le mode pompe l’énergie dite excédentaire ou non utilisée produites par les nouvelles énergies renouvelables comme l’éolien et le photovoltaïque.

Le rôle de la France dans le projet international de fusion nucléaire ITER

Les propositions d’Emmanuel Macron dans le nucléaire de fission ne devraient pas se traduire par une moindre participation au programme international ITER de fusion nucléaire dont un pilier essentiel se trouve à Cadarache.

18/12/2023 Décarboner l’atmosphère, une industrie d’avenir

Capter et stocker le CO2 ne sont pas à proprement parler des actions innovantes. Plusieurs grandes entreprises hautement émettrices en carbone, comme les centrales électriques au gaz ou au fioul ou encore les raffineries de pétrole, utilisent déjà cette technique d’extraction du carbone. Habituellement, le gaz est filtré directement à la sortie des cheminées des bâtiments.

 Capter du CO2 à la sortie des cheminées d’usines (cimenteries, aciéries…) est bien plus facile et moins coûteux que le rechercher dans l’atmosphère, car sa concentration en volume est de 4 % à 40 %, voire plus, alors que dans l’air, le CO2 est extrêmement dilué (0,04 %) 

On distingue trois grandes familles de procédés. La première, le captage en « post-combustion », consiste à extraire le CO2 des fumées industrielles de combustion de ressources fossiles (bois, gaz naturel, pétrole et charbon) à l’aide d’un solvant qui présente une affinité pour les molécules de CO2. Positionnée en aval des processus industriels, cette technologie peut être mise en œuvre sur des installations préexistantes et appliquée au traitement des fumées d’industries diverses. Si le taux de captage dépasse les 90 % du CO₂ émis, elle s’accompagne néanmoins d’une forte « pénalité énergétique » requise lors de la séparation du CO2 du solvant, ce qui entraîne un coût de mise en œuvre élevé, soit entre 10 et 100 € par tonne de CO2 évité (et donc non émis).

La seconde famille, dite de captage en « oxy-combustion », consiste à réaliser une combustion en présence d’oxygène (presque) pur, plutôt qu’à l’air. Le gaz de combustion ainsi produit est constitué presque exclusivement de vapeur d’eau et de CO2. Il est alors beaucoup plus simple d’extraire le CO2 que lorsqu’il est dilué dans l’azote de l’air. Cette technologie présente ainsi une pénalité énergétique plus faible mais nécessite une refonte de la chambre de combustion. Elle est donc envisagée pour certaines applications, comme les cimenteries, et pour de nouvelles unités de conversion des combustibles biomasse et fossiles.

La troisième famille enfin, dite de captage en « précombustion », consiste à extraire le CO2 en amont de la combustion en transformant le combustible initial en un « gaz de synthèse » : il s’agit de gazéifier le combustible pour obtenir un mélange de CO + H20, puis d’opérer une transformation chimique pour obtenir un mélange CO2 + H2 et enfin d’extraire du CO2 par solvant. La mise en œuvre de ce procédé nécessite d’être intégrée en amont, au moment de la construction de l’unité industrielle.

Ce procédé permet de capturer le CO2 au niveau d’installations industrielles, mais aussi de retirer du CO₂ présent l’atmosphère comme sur le site d’Orca en Islande (qui devrait capter environ 4000 tonnes par an).

Après le captage vient le transport et l’enfouissement. En aval de la chaîne précédente , le CO2 se transporte au même titre que le gaz naturel, par gazoducs, train ou bateau, en fonction de la quantité de CO2 à transporter et de la distance. Les infrastructures de transport et de stockage ne posent donc pas de problème technique particulier, mais il faut les sécuriser et assurer leur maintenance, comme l’exige tout équipement industriel.

Ensuite, le CO2 capté est stocké dans d’anciens gisements d’hydrocarbures ou des roches poreuses (aquifères salins profonds). Le CO2 est injecté sous forme dense à une profondeur d’au moins 800 mètres. Il est alors piégé par des mécanismes chimiques et géologiques : dissolution dans la saumure (eau salée) présente dans les roches, immobilisation dans les pores des roches, puis, à terme, minéralisation. Il n’est pas exclu d’utiliser la roche ainsi obtenue dans la construction.

Les sites de stockage font l’objet d’une sélection rigoureuse afin de garantir la pérennité et la sécurité du stockage sur le long terme (fuite du CO2 hors du site de stockage). Les opérations de stockage s’accompagnent d’un protocole de surveillance qui intègre, entre autres, un suivi géophysique du comportement du CO2 dans le sous-sol, des mesures de gaz et des prélèvements en profondeur dans le sous-sol et en surface, une surveillance des événements microsismiques, 

Élaborés dans le cadre de projets de recherche européens tels que Strategy CCUS sur la base de facteurs techniques (volumes de CO2 impliqués, zones géographiques concernées, usages possibles du CO2 à proximité des lieux de capture, lieux de stockage possibles) et environnementaux (via les méthodologies d’analyse de cycle de vie), les scénarios prennent aussi en compte des facteurs économiques et sociaux, tels que la création d’emploi et les préoccupations des communautés locales, qu’il est impératif d’associer au plus tôt à la construction d’un projet.

L’enjeu est aujourd’hui de créer les conditions pour permettre le déploiement de la filière du CCUS à grande échelle dès 2030. Si les technologies sont là, des mécanismes de soutien financier et un cadre réglementaire sont nécessaires pour accélérer la mise en place de la filière. En l’état actuel des estimations, le prix du quota de carbone émis est encore inférieur aux dépenses que les industriels devraient engager pour investir dans ces installations, soit entre 50 et 180 € par tonne de CO2 évités.

Sources
National Geographic.fr
The conversation

Note.

Faut-il rappeler que le meilleur moyen d’éviter la production de CO2 serait d’éviter les guerres et la fabrication puis l’emploi des armements nécessaires. Ainsi, avec un budget militaire annuel de 842 milliards de dollars, les Etats-Unis doivent produire chaque année quelques milliards de tonnes de CO2

17/12/2023 Un rayon cosmique d’une énergie exceptionnelle vient de percuter la Terre

Des astronomes de l’Osaka Metropolitan University au Japon viennent de détecter le second plus puissant rayon cosmique jamais observé. Il semble provenir d’une région presque vide de l’univers (Cosmic void) où rien n’apparaît capable de l’avoir engendré. Il a été nommé Amaterasu d’après le nom de la déesse du soleil japonaise.

Le rayonnement cosmique, selon Wikipedia, est principalement constitué de particules chargées : protons (88 %), noyaux d’hélium (9 %), antiprotonsélectronspositrons et particules neutres (rayons gammaneutrinos et neutrons). La source de ce rayonnement se situe selon les cas dans le Soleil, à l’intérieur ou à l’extérieur de notre galaxieCertaines des astroparticules qui composent le rayonnement cosmique ont une énergie qui dépasse 1020 eV et qui n’est expliquée par aucun processus physique identifié.

Amaterasu pourrait résulter de puissants flux magnétiques ayant dévié le rayon origine de sa trajectoire initiale mais aussi d’une source invisible située dans une autre galaxie, ou même provenir d’une cause encore inconnue. Cette dernière possibilité intéresserait évidemment les astronomes, car ils devraient la rechercher.

Référence

SCIENCE
VOL. 382, NO. 6673
An extremely energetic cosmic ray observed by a surface detector array

TELESCOPE ARRAY COLLABORATION*,   76 authors
23 Nov 2023

Editor’s summary

Cosmic rays are charged particles from space. At low energies, they mostly originate from the Sun, whereas at high energies, they are expected to be emitted by nearby active galaxies. The Telescope Array Collaboration now reports the detection of a cosmic ray event with an energy of about 240 exa–electron volts, more than a million times higher than that achieved by artificial particle accelerators. Such high-energy particles should experience only small deflections by foreground magnetic fields, but tracing back the arrival direction shows no obvious source galaxy. The authors suggest that the foreground magnetic fields might be stronger than expected, or there could be unknown particle physics at high energies. —Keith T. Smith

Abstract

Cosmic rays are energetic charged particles from extraterrestrial sources, with the highest-energy events thought to come from extragalactic sources. Their arrival is infrequent, so detection requires instruments with large collecting areas. In this work, we report the detection of an extremely energetic particle recorded by the surface detector array of the Telescope Array experiment. We calculate the particle’s energy as 244±29 stat. −76+51syst. exa–electron volts (~40 joules). Its arrival direction points back to a void in the large-scale structure of the Universe. Possible explanations include a large deflection by the foreground magnetic field, an unidentified source in the local extragalactic neighborhood, or an incomplete knowledge of particle physics.

17/12/2023 Des centaines de milliards de dollars pour augmenter la consommation de pétrole saoudien

Alors que le temps presse pour réduire la dépendance mondiale aux énergies fossiles, l’Arabie saoudite élabore un vaste plan d’investissement visant à accroître la demande pour ses hydrocarbures dans les pays en développement, selon une enquête du Center for Climate Reporting relayée par le Guardian (voir référence ci-dessous)

Le programme de durabilité de la demande pétrolière (ODSP), dirigé par le prince héritier Mohammed ben Salmane, implique de nombreuses organisations telles que le Fonds d’investissement public (PIF) de 700 milliards de dollars, ainsi que Aramco, la plus grande compagnie pétrolière du monde.
L’objectif principal en est de « supprimer les obstacles » à l’énergie et aux transports dont souffrent de nombreux pays en développement.

Ainsi l’ODSP souhaite accélérer le développement d’un « transport aérien supersonique » qui, selon le plan, consommerait trois fois plus de carburant que les avions conventionnels.

Outre l’aérien, le projet vise aussi à accroître l’utilisation sur l’ensemble du continent africain d’automobiles et de transports publics dotés de moteurs à explosion alimentés avec des énergies fossiles . Le plan prévoit également de faire usage du fioul lourd et du gaz polluant « pour fournir de l’électricité aux communautés côtières »;

Rappelons que le projet ITER destiné à concrétiser les perspectives de l’énergie nucléaire de fusion est constamment ralenti par le manque de crédits, qu’ils soient publics ou capitalistes privés. Rappelons que le projet ITER destiné à concrétiser les perspectives de l’énergie nucléaire de fusion est constamment ralenti par le manque de crédits, qu’ils soient publics ou privés.

Lors d’une prochaine visite, le Président de la république française ne devrait-il pas solliciter le sémillant MBS pour qu’il verse quelques pétro-dollars dans la caisse d’ITER?

https://www.theguardian.com/environment/2023/nov/27/revealed-saudi-arabia-plan-poor-countries-oil

https://www.connaissancedesenergies.org/afp/ryad-veut-stimuler-la-demande-en-petrole-malgre-ses-promesses-sur-le-climat-231128

16/12/2023 Une théorie post- classique de la gravité classique

Des chercheurs de l’University College London (UCL) ont proposé une nouvelle théorie unifiant la gravité et la mécanique quantique, tout en préservant la vision classique de l’espace-temps d’Einstein. Cette théorie, si elle s’avère exacte, pourrait modifier notre compréhension de l’Univers.

Merci à Techno-science


La physique moderne repose sur deux principes: la théorie quantique, qui régit les particules y compris les plus petites, et la théorie de la relativité générale d’Einstein, expliquant la gravité par la courbure de l’espace-temps. Malheureusement, ces deux théories se contredisent. Pendant longtemps, on a pensé que pour résoudre ce conflit, il fallait modifier la théorie de la gravité d’Einstein pour l’adapter à la théorie quantique.

Le professeur Jonathan Oppenheim de l’UCL propose une approche différente. Sa théorie, présentée dans Physical Review X, suggère que l’espace-temps pourrait rester classique, c’est-à-dire non influencé par la théorie quantique. Cette « théorie post-quantique de la gravité classique » modifie la théorie quantique elle-même et prédit des fluctuations aléatoires et intenses dans l’espace-temps, rendant imprévisible le poids des objets si mesuré avec une extrême précision.

Cf ci-dessous 1

Un autre article, publié dans Nature Communications, explore les implications de cette théorie et propose une expérience pour la tester. Il s’agit de mesurer avec une grande précision le poids d’une masse pour voir si ce dernier fluctue dans le temps. Si les fluctuations observées sont inférieures à celles prédites, la théorie pourrait être remise en question.

Le professeur Oppenheim et ses collègues ont mis au défi les conceptions actuelles sur la gravité et la mécanique quantique. Leur théorie indique que si l’espace-temps est classique, il doit y avoir des fluctuations aléatoires spécifiques dans sa courbure, détectables expérimentalement.

Les implications de cette théorie vont au-delà de la simple compréhension de la gravité. Elle remet en question le besoin du « postulat de mesure » en théorie quantique, affirmant que les superpositions quantiques se localisent naturellement en interagissant avec l’espace-temps classique.

Cette approche innovante pourrait également apporter des éclaircissements sur le problème de l’information des trous noirs en physique quantique et en relativité générale. Cette théorie, si elle est validée par des expériences futures, pourrait donc redéfinir notre vision de l’Univers et de ses lois fondamentales.

Cf ci-dessous 1 puis 2

1. A Postquantum Theory of Classical Gravity?

DOI:10.1103/PhysRevX.13.041040

Authors:
Jonathan Oppenheim

Abstract

The effort to discover a quantum theory of gravity is motivated by the need to reconcile the incompatibility between quantum theory and general relativity. Here, we present an alternative approach by constructing a consistent theory of classical gravity coupled to quantum field theory. The dynamics is linear in the density matrix, completely positive, and trace preserving, and reduces to Einstein’s theory of general relativity in the classical limit. Consequently, the dynamics does not suffer from the pathologies of the semiclassical theory based on expectation values. The assumption that general relativity is classical necessarily modifies the dynamical laws of quantum mechanics; the theory must be fundamentally stochastic in both the metric degrees of freedom and in the quantum matter fields. This breakdown in predictability allows it to evade several no-go theorems purporting to forbid classical quantum interactions. The measurement postulate of quantum mechanics is not needed; the interaction of the quantum degrees of freedom with classical space-time necessarily causes decoherence in the quantum system. We first derive the general form of classical quantum dynamics and consider realizations which have as its limit deterministic classical Hamiltonian evolution. The formalism is then applied to quantum field theory interacting with the classical space-time metric. One can view the classical quantum theory as fundamental or as an effective theory useful for computing the backreaction of quantum fields on geometry. We discuss a number of open questions from the perspective of both viewpoints.

___________________________________________

2 Gravitationally induced decoherence vs space-time diffusion: testing the quantum nature of gravity

Nature Communications 
volume14, Article number: 7910 (2023) 

Abstract

We consider two interacting systems when one is treated classically while the other system remains quantum. Consistent dynamics of this coupling has been shown to exist, and explored in the context of treating space-time classically. Here, we prove that any such hybrid dynamics necessarily results in decoherence of the quantum system, and a breakdown in predictability in the classical phase space. We further prove that a trade-off between the rate of this decoherence and the degree of diffusion induced in the classical system is a general feature of all classical quantum dynamics; long coherence times require strong diffusion in phase-space relative to the strength of the coupling. Applying the trade-off relation to gravity, we find a relationship between the strength of gravitationally-induced decoherence versus diffusion of the metric and its conjugate momenta. This provides an experimental signature of theories in which gravity is fundamentally classical. Bounds on decoherence rates arising from current interferometry experiments, combined with precision measurements of mass, place significant restrictions on theories where Einstein’s classical theory of gravity interacts with quantum matter. We find that part of the parameter space of such theories are already squeezed out, and provide figures of merit which can be used in future mass measurements and interference experiments.

14/12/2023 L’Europe peut-elle espérer « maitriser ses flux migratoires » ?

Le ministère français de l’Intérieur et des Outre-mer vient de publier un document intitulé

Mieux maîtriser les flux migratoires au niveau européen et international


Dans ce texte, il propose de:

  • Poursuivre le renforcement des contrôles aux frontières extérieures de l’Union européenne (UE)
  • Œuvrer dans le sens d’une plus grande solidarité
  • Agir sur les flux au niveau européen et sur la scène internationale


Ces actions s’imposent. Ce n’est pas le lieu ici d’écrire le contraire. Encore faudra-t-il que l’Europe (Union européenne ? Tous Etats européens sans distinction ?) se donnent les moyens budgétaire et matériels pour les mener à bien.

– Ainsi, le renforcement des frontières au niveau européen ne pourra pas se limiter à (nous citons )Finaliser la transformation de Frontex en agence européenne des garde-frontières et des garde-côtes. La nouvelle agence doit se saisir immédiatement de ses compétences dans l’évaluation de la solidité des dispositifs des Etats membres de contrôles aux frontières. Elle doit pouvoir disposer, dès les prochains mois, d’une réserve opérationnelle de 1 500 hommes disponible à tout moment ; au total, les effectifs de l’agence devront progressivement augmenter, conformément à l’engagement du Président de la République, pour atteindre à terme 5 000 hommes.

5.000 hommes pour surveiller des milliers de miles de frontières maritimes et 14.000 km de frontières terrestres dont beaucoup sont alpines n’aura guère d’effets. Les migrants, officiels et clandestins, passeront toujours, surtout avec l’aide de milliers de passeurs criminels. Il faudrait des frontières analogues à celles dont s’était dotée l’ex URSS, avec les effectifs d’un quart de l’Armée Rouge, pour espérer y réussir.

– De même  « Agir dans le sens d’une grande solidarité » ne pourra pas se traduire par, entre autres, poursuivre les efforts d’installation en Europe des millions de migrants qui décideraient d’y rester. D’ores et déjà, les maires des villes françaises estiment impossible d’augmenter les effectifs des migrants installés dans les banlieues. Dans les communes rurales, l’accueil d’éventuels migrants se fera à coups de fusil, compte tenu du manque d’emploi dont souffrent les autochtones.

– Enfin « Agir sur les flux au niveau européen et sur la scène internationale » supposera notamment d’agir pour augmenter les perspectives d’emploi dans les pays d’origine. Cela fera rire les futurs candidats à l’immigration. Ils ne visent pas à travailler dans leurs pays d’origine, ce qu’ils pourraient faire pour la plupart, mais travailler, ou plutôt chômer en Europe, en bénéficiant des politiques d’assurances sociales qui leur seront offertes.

Les pouvoirs publics européens devraient en fait prendre en compte deux réalités qu’ils ne veulent pas voir.

Pour l’Etat Islamique et autres Daesh, encourager les migrations en Europe de ressortissants des pays africains et moyen-orientaux constitue déjà et constituera de plus en plus un moyen d’introduire des militants islamistes armés échappant à tous les contrôles.

Plus généralement les prévisions en matière de natalité en Afrique montrent que d’ici la fin du siècle l’Afrique sera, compte tenu de son taux de natalité, inévitablement peuplée de 2 milliards d’habitant au lieu du 1,2 milliard actuel. De même, en matière de réchauffement climatique, l’Afrique sera soumise à des flux de désertification comme à des inondations de grande ampleur qui la rendront en grande partie invivable pour sa population autochtone.

Dans ces conditions, que devraient proposer, dès maintenant ou pour le long terme, les pays européens ? A ce jour, nous n’avons pas de réponse

15/12/2023. La gravité est-elle quantique?

Nous reprenons ici, pour observations de votre part un article qui vient de paraitre sur Enerzine

Des scientifiques développent une expérience pour tester si la gravité est quantique – l’une des questions les plus difficiles concernant notre univers.

  • En mécanique quantique, qui décrit le comportement des atomes et des molécules, les objets se comportent différemment de tout ce que nous savons : ils peuvent être notamment dans une superposition quantique, se trouvant à deux endroits en même temps.
  • Aujourd’hui, des scientifiques étudient un moyen de déterminer si la gravité fonctionne de cette manière, en faisant léviter des microdiamants dans le vide.
  • Si la gravité est quantique, elle « emmêlera » les diamants – un phénomène qui lie fortement deux objets d’une manière impossible dans la vie quotidienne.
  • Cette recherche contribuera à mieux comprendre les trous noirs, le Big Banget l’univers
Expérience de gravité quantique

Les scientifiques développent une expérience pour tester si la gravité est quantique – l’une des questions les plus profondes concernant notre univers.

La relativité générale et la mécanique quantique sont les deux descriptions les plus fondamentales de la nature dont nous disposons. La relativité générale explique la gravité à grande échelle tandis que la mécanique quantique explique le comportement des atomes et des molécules.

Le défi des théories unificatrices

Le problème non résolu le plus important en physique fondamentale est sans doute la manière correcte de réunir ces deux théories – pour déterminer si la gravité opère à un niveau quantique. Même si les travaux théoriques ont proposé de nombreuses possibilités, des expériences sont nécessaires pour bien comprendre le comportement de la gravité.

Un faisceau laser dans le laboratoire de Gavin Morley sonde les propriétés quantiques d’un diamant. Crédit : Gavin Morley

Expérience révolutionnaire du Consortium mondial

Pendant cent ans, les expériences sur la nature quantique de la gravité semblaient hors de portée, mais désormais des scientifiques basés aux universités de Warwick, UCL, Yale (États-Unis), Northwestern (États-Unis) et Groningen (Hollande) vont travailler ensemble pour enquêter sur cette énigme. .
Leur nouvelle idée est de faire léviter deux microdiamants dans le vide et de les placer chacun dans une superposition quantique consistant à se trouver à deux endroits en même temps. Ce comportement contre-intuitif est une caractéristique fondamentale de la mécanique quantique.

Le point de vue du professeur Morley sur l’expérience

Chaque diamant peut être considéré comme une version plus petite du chat de Schrödinger. Chercheur principal Professeur Gavin Morley, Département de physique, Université de Warwick, explique : « Le chat de Schrödinger est une expérience de pensée montrant qu’il serait vraiment étrange que les objets du quotidien (et les animaux de compagnie !) puissent se trouver dans une superposition quantique, c’est-à-dire se trouver à deux endroits à la fois. Nous souhaitons tester les limites de cette idée.

« Les atomes et les molécules ont été mis avec succès dans un tel état de superposition, mais nous voulons le faire avec des objets beaucoup plus gros. Nos diamants sont constitués d’un milliard d’atomes ou plus. Pour tester la nature quantique de la gravité, nous rechercherions les interactions entre deux de ces diamants dues à la gravité.

« Si la gravité est quantique, elle serait alors capable d’enchevêtrer les deux diamants. L’intrication est un effet quantique unique dans lequel deux choses sont liées plus fortement que ce qui est possible dans notre vie quotidienne. Par exemple, si deux pièces peuvent être empêtrées, vous constaterez peut-être que chaque fois que vous les lancez, elles atterrissent toutes les deux dans la même direction, même s’il est impossible de savoir à l’avance si elles seront toutes les deux face ou face.

Défis et implications

Il reste encore de nombreux défis à relever pour concrétiser cette idée, sur lesquels l’équipe étudiera au cours du projet. « Par exemple, nous devons éliminer toutes les interactions entre les nanoparticules autres que la gravité, ce qui est incroyablement difficile puisque la gravité est si faible », explique le Dr David Moore, de Université de Yale.

Le professeur Morley, directeur fondateur de Warwick Quantum, une nouvelle initiative interdisciplinaire de recherche sur la technologie quantique, a ajouté : « Pour moi, le problème le plus important en physique à l’heure actuelle est de développer une expérience capable de tester la nature quantique de la gravité. Ce nouveau projet est une accélération dans notre voyage passionnant vers cet objectif.

Points de vue des scientifiques collaborateurs

Le professeur Sougato Bose, UCL, a commenté : « Il est difficile d’exagérer à quel point il serait important pour les physiciens de disposer d’expériences capables de sonder la manière correcte de combiner la mécanique quantique et la relativité générale. Les personnes travaillant sur les théories de la gravité quantique, comme la théorie des cordes, se concentrent généralement sur ce qui se passe aux hautes énergies, à proximité des trous noirs et au Big Bang.

« En revanche, notre travail se situe dans un régime de faible énergie ici même sur Terre, mais il fournirait également des informations inestimables sur si la gravité est quantique. En outre, l’expérience peut être considérée comme la vérification d’une prédiction générique de toute théorie quantique de la gravité aux basses énergies.

Le professeur Anupam Mazumdar, de l’Université de Groningen, ajoute : « En vue de comprendre la nature quantique de la gravité, nous pourrons peut-être tester d’autres aspects de la physique fondamentale, tels que les déviations exotiques de la gravité newtonienne sur de courtes distances. »

« Il s’agit d’une expérience difficile, et ce projet est un pionnier pour relever certains des principaux défis techniques permettant de faire de ces tests des aspects quantiques de la gravité une réalité », déclare Andrew Geraci, professeur agrégé de physique, Université du nord-ouest.

Le projet s’appelle « MAST-QG : Superpositions macroscopiques pour observer la nature quantique de la gravité ».