Les emballage en plastique pour produits alimentaires sont devenus incontournables, du fait des facilités qu’ils procurent, tant aux consommateurs finals qu’aux commerçants. Des chercheurs ont récemment découverts cependant que ces facilités pouvaient avoir un prix non négligeable en matière de santé humaine.
Quand on les jette, où que ce soit, ils finissent par se désagréger en particules que l’on nomme, selon leur taille, des microplastiques ou des nanoplastiques. Elles peuvent contaminer les aliments et les eaux de consommation des animaux comme des humains. On les retrouve de plus en plus dans le sang de ceux-ci
Bien plus elles peuvent entrer dans les neurones du cerveau en franchissant touts les barrières existantes. Elles y provoquent des troubles normalement associés à la maladie de Parkinson. https://www.science.org/doi/10.1126/sciadv.adi8716
Elles y interagissent avec une protéine dite alpha-synuclein qui joue un rôle pour faciliter la communication entre cellules nerveuses. Elles y provoquent la formation et l’accumulation de fibrilles jouant un rôle dans la maladie de Parkinson et d’autres types de démence.
Les chercheurs ont étudié en laboratoire les troubles provoqués chez les souris par l’absorption de nanoplastiques de polystyrène. Ils y ont retrouvé des troubles analogues à ceux observés chez les humains lors de certaines maladies cérébrales ou de cancers.
Ces recherches devraient être poursuivies avant que l’on en tire des conclusions définitives.
Recent studies have identified increasing levels of nanoplastic pollution in the environment. Here, we find that anionic nanoplastic contaminants potently precipitate the formation and propagation of α-synuclein protein fibrils through a high-affinity interaction with the amphipathic and non-amyloid component (NAC) domains in α-synuclein. Nanoplastics can internalize in neurons through clathrin-dependent endocytosis, causing a mild lysosomal impairment that slows the degradation of aggregated α-synuclein. In mice, nanoplastics combine with α-synuclein fibrils to exacerbate the spread of α-synuclein pathology across interconnected vulnerable brain regions, including the strong induction of α-synuclein inclusions in dopaminergic neurons in the substantia nigra. These results highlight a potential link for further exploration between nanoplastic pollution and α-synuclein aggregation associated with Parkinson’s disease and related dementias.
Les mesures tant attendues, parce qu’indispensables au maintien de l’indépendance énergétique de la France, vis-à-vis notamment du gaz russe et du pétrole de schiste américain, viennent enfin d’être annoncées.
A deux mois de l’élection présidentielle, Emmanuel Macron a dévoilé à l’occasion d’un déplacement à Belfort, son plan de relance du nucléaire pour la France. Il souhaite prolonger la durée de vie des centrales françaises et construire de nouveaux réacteurs d’ici 2035. Les chantiers intéressant l’énergie renouvelable seront par ailleurs poursuivis.
La première phase du programme de relance du nucléaire, annoncée par Emmanuel Macron à Belfort en 2022, va désormais pouvoir réellement commencer. Selon les premières estimations, ce chantier devrait coûter près de 52 milliards d’euros et nécessiter le recrutement de près de 30 000 personnes dans les années à venir. EDF prévoit, dans le meilleur des cas, une mise en service des réacteurs de Penly en 2035, de ceux de Gravelines en 2038 et des deux du Bugey en 2042.
La question du personnel ingénieurs et techniciens est essentiel. La France avait précédemment découragé du fait de sa timidité nombre des compétences dont elle disposait en ce domaine. Des programmes de recrutement et de formation doivent être annoncés dans les meilleurs délais.
En parallèle de la construction de ces 6 EPR2, l’État souhaite le prolongement de la durée de vie à 60 ans ou plus de tous les réacteurs actuels lorsque cela est possible. Il envisagera dans les années à venir la construction de 8 réacteurs supplémentaires afin d’atteindre la neutralité carbone d’ici à 2050.
L’association « Les Voix du nucléaire » a proposé un scénario de transition énergétique particulièrement volontariste. Ses experts, outre les travaux d’extension des centrales existantes et le lancement des nouveaux chantiers, recommandent de généraliser le stockage par STEP, qui permettrait à la France d’atteindre la neutralité carbone sans incertitudes ni dépendance aux pays voisins.
Les STEP
Précisons que les STEP sont des stations de transfert d’énergie par pompage dont le principal but est d’adapter en temps réel la production à la consommation en permettant le stockage de l’électricité . Ainsi la centrale hydroélectrique de Montézic est une unité de production très particulière. Il s’agit d’une station de transfert d’énergie par pompage dont le principal atout est d’adapter en temps réel la production à la consommation en permettant le stockage de l’électricité sous la forme d’eau. En effet, par définition, l’électricité ne se stocke pas, elle doit être produite en fonction des besoins.
Le principe de la STEP est le suivant : lorsque le réseau a besoin d’électricité, la STEP utilise l’eau qui se trouve dans le bassin supérieur pour produire de l’électricité (mode turbine). C’est la force de l’eau qui fait tourner la turbine.
Aux heures de faible consommation, lorsque l’électricité est disponible sur le réseau, l’eau est pompée (mode pompe) de la retenue inférieure vers la retenue supérieure. C’est alors le réseau qui alimente l’alternateur comme un moteur électrique. Il fait tourner la turbine en sens inverse dans le sens pompe pour remonter l’eau vers la retenue supérieure. Le stock d’énergie potentielle est ainsi reconstitué pour un nouveau cycle de production et ce, indépendamment de l’eau des pluies et des autres cours d’eau naturels.
Ce système a un rôle essentiel dans le mix énergétique français : il permettra de consommer via le mode pompe l’énergie dite excédentaire ou non utilisée produites par les nouvelles énergies renouvelables comme l’éolien et le photovoltaïque.
Le rôle de la France dans le projet international de fusion nucléaire ITER
Les propositions d’Emmanuel Macron dans le nucléaire de fission ne devraient pas se traduire par une moindre participation au programme international ITER de fusion nucléaire dont un pilier essentiel se trouve à Cadarache.
Capter et stocker le CO2ne sont pas à proprement parler des actions innovantes. Plusieurs grandes entreprises hautement émettrices en carbone, comme les centrales électriques au gaz ou au fioul ou encore les raffineries de pétrole, utilisent déjà cette technique d’extraction du carbone. Habituellement, le gaz est filtré directement à la sortie des cheminées des bâtiments.
Capter du CO2à la sortie des cheminées d’usines (cimenteries, aciéries…) est bien plus facile et moins coûteux que le rechercher dans l’atmosphère, car sa concentration en volume est de 4 % à 40 %, voire plus, alors que dans l’air, le CO2est extrêmement dilué (0,04 %)
On distingue trois grandes familles de procédés. La première, le captage en « post-combustion », consiste à extraire le CO2 des fumées industrielles de combustion de ressources fossiles (bois, gaz naturel, pétrole et charbon) à l’aide d’un solvant qui présente une affinité pour les molécules de CO2. Positionnée en aval des processus industriels, cette technologie peut être mise en œuvre sur des installations préexistantes et appliquée au traitement des fumées d’industries diverses. Si le taux de captage dépasse les 90 % du CO₂ émis, elle s’accompagne néanmoins d’une forte « pénalité énergétique » requise lors de la séparation du CO2 du solvant, ce qui entraîne un coût de mise en œuvre élevé, soit entre 10 et 100 € par tonne de CO2 évité (et donc non émis).
La seconde famille, dite de captage en « oxy-combustion », consiste à réaliser une combustion en présence d’oxygène (presque) pur, plutôt qu’à l’air. Le gaz de combustion ainsi produit est constitué presque exclusivement de vapeur d’eau et de CO2. Il est alors beaucoup plus simple d’extraire le CO2 que lorsqu’il est dilué dans l’azote de l’air. Cette technologie présente ainsi une pénalité énergétique plus faible mais nécessite une refonte de la chambre de combustion. Elle est donc envisagée pour certaines applications, comme les cimenteries, et pour de nouvelles unités de conversion des combustibles biomasse et fossiles.
La troisième famille enfin, dite de captage en « précombustion », consiste à extraire le CO2 en amont de la combustion en transformant le combustible initial en un « gaz de synthèse » : il s’agit de gazéifier le combustible pour obtenir un mélange de CO + H20, puis d’opérer une transformation chimique pour obtenir un mélange CO2 + H2 et enfin d’extraire du CO2 par solvant. La mise en œuvre de ce procédé nécessite d’être intégrée en amont, au moment de la construction de l’unité industrielle.
Après le captage vient le transport et l’enfouissement. En aval de la chaîne précédente , le CO2 se transporte au même titre que le gaz naturel, par gazoducs, train ou bateau, en fonction de la quantité de CO2 à transporter et de la distance. Les infrastructures de transport et de stockage ne posent donc pas de problème technique particulier, mais il faut les sécuriser et assurer leur maintenance, comme l’exige tout équipement industriel.
Ensuite, le CO2 capté est stocké dans d’anciens gisements d’hydrocarbures ou des roches poreuses (aquifères salins profonds). Le CO2 est injecté sous forme dense à une profondeur d’au moins 800 mètres. Il est alors piégé par des mécanismes chimiques et géologiques : dissolution dans la saumure (eau salée) présente dans les roches, immobilisation dans les pores des roches, puis, à terme, minéralisation. Il n’est pas exclu d’utiliser la roche ainsi obtenue dans la construction.
Les sites de stockage font l’objet d’une sélection rigoureuse afin de garantir la pérennité et la sécurité du stockage sur le long terme (fuite du CO2 hors du site de stockage). Les opérations de stockage s’accompagnent d’un protocole de surveillance qui intègre, entre autres, un suivi géophysique du comportement du CO2 dans le sous-sol, des mesures de gaz et des prélèvements en profondeur dans le sous-sol et en surface, une surveillance des événements microsismiques,
Élaborés dans le cadre de projets de recherche européens tels que Strategy CCUS sur la base de facteurs techniques (volumes de CO2 impliqués, zones géographiques concernées, usages possibles du CO2 à proximité des lieux de capture, lieux de stockage possibles) et environnementaux (via les méthodologies d’analyse de cycle de vie), les scénarios prennent aussi en compte des facteurs économiques et sociaux, tels que la création d’emploi et les préoccupations des communautés locales, qu’il est impératif d’associer au plus tôt à la construction d’un projet.
L’enjeu est aujourd’hui de créer les conditions pour permettre le déploiement de la filière du CCUS à grande échelle dès 2030. Si les technologies sont là, des mécanismes de soutien financier et un cadre réglementaire sont nécessaires pour accélérer la mise en place de la filière. En l’état actuel des estimations, le prix du quota de carbone émis est encore inférieur aux dépenses que les industriels devraient engager pour investir dans ces installations, soit entre 50 et 180 € par tonne de CO2 évités.
Faut-il rappeler que le meilleur moyen d’éviter la production de CO2 serait d’éviter les guerres et la fabrication puis l’emploi des armements nécessaires. Ainsi, avec un budget militaire annuel de 842 milliards de dollars, les Etats-Unis doivent produire chaque année quelques milliards de tonnes de CO2
Des astronomes de l’Osaka Metropolitan University au Japon viennent de détecter le second plus puissant rayon cosmique jamais observé. Il semble provenir d’une région presque vide de l’univers (Cosmic void) où rien n’apparaît capable de l’avoir engendré. Il a été nommé Amaterasu d’après le nom de la déesse du soleil japonaise.
Le rayonnement cosmique, selon Wikipedia, est principalement constitué de particules chargées : protons (88 %), noyaux d’hélium (9 %), antiprotons, électrons, positrons et particules neutres (rayons gamma, neutrinos et neutrons). La source de ce rayonnement se situe selon les cas dans le Soleil, à l’intérieur ou à l’extérieur de notre galaxie. Certaines des astroparticules qui composent le rayonnement cosmique ont une énergie qui dépasse 1020 eV et qui n’est expliquée par aucun processus physique identifié.
Amaterasu pourrait résulter de puissants flux magnétiques ayant dévié le rayon origine de sa trajectoire initiale mais aussi d’une source invisible située dans une autre galaxie, ou même provenir d’une cause encore inconnue. Cette dernière possibilité intéresserait évidemment les astronomes, car ils devraient la rechercher.
Cosmic rays are charged particles from space. At low energies, they mostly originate from the Sun, whereas at high energies, they are expected to be emitted by nearby active galaxies. The Telescope Array Collaboration now reports the detection of a cosmic ray event with an energy of about 240 exa–electron volts, more than a million times higher than that achieved by artificial particle accelerators. Such high-energy particles should experience only small deflections by foreground magnetic fields, but tracing back the arrival direction shows no obvious source galaxy. The authors suggest that the foreground magnetic fields might be stronger than expected, or there could be unknown particle physics at high energies. —Keith T. Smith
Abstract
Cosmic rays are energetic charged particles from extraterrestrial sources, with the highest-energy events thought to come from extragalactic sources. Their arrival is infrequent, so detection requires instruments with large collecting areas. In this work, we report the detection of an extremely energetic particle recorded by the surface detector array of the Telescope Array experiment. We calculate the particle’s energy as 244±29 stat. −76+51syst. exa–electron volts (~40 joules). Its arrival direction points back to a void in the large-scale structure of the Universe. Possible explanations include a large deflection by the foreground magnetic field, an unidentified source in the local extragalactic neighborhood, or an incomplete knowledge of particle physics.
Alors que le temps presse pour réduire la dépendance mondiale aux énergies fossiles, l’Arabie saoudite élabore un vaste plan d’investissement visant à accroître la demande pour ses hydrocarbures dans les pays en développement, selon une enquête du Center for Climate Reporting relayée par le Guardian (voir référence ci-dessous)
Le programme de durabilité de la demande pétrolière (ODSP), dirigé par le prince héritier Mohammed ben Salmane, implique de nombreuses organisations telles que le Fonds d’investissement public (PIF) de 700 milliards de dollars, ainsi que Aramco, la plus grande compagnie pétrolière du monde. L’objectif principal en est de « supprimer les obstacles » à l’énergie et aux transports dont souffrent de nombreux pays en développement.
Ainsi l’ODSP souhaite accélérer le développement d’un« transport aérien supersonique » qui, selon le plan, consommerait trois fois plus de carburant que les avions conventionnels.
Outre l’aérien, le projet vise aussi à accroître l’utilisation sur l’ensemble du continent africain d’automobiles et de transports publics dotés de moteurs à explosion alimentés avec des énergies fossiles . Le plan prévoit également de faire usage du fioul lourd et du gaz polluant « pour fournir de l’électricité aux communautés côtières »;
Rappelons que le projet ITER destiné à concrétiser les perspectives de l’énergie nucléaire de fusion est constamment ralenti par le manque de crédits, qu’ils soient publics ou capitalistes privés. Rappelons que le projet ITER destiné à concrétiser les perspectives de l’énergie nucléaire de fusion est constamment ralenti par le manque de crédits, qu’ils soient publics ou privés.
Lors d’une prochaine visite, le Président de la république française ne devrait-il pas solliciter le sémillant MBS pour qu’il verse quelques pétro-dollars dans la caisse d’ITER?
Des chercheurs de l’University College London (UCL) ont proposé une nouvelle théorie unifiant la gravité et la mécanique quantique, tout en préservant la vision classique de l’espace-temps d’Einstein. Cette théorie, si elle s’avère exacte, pourrait modifier notre compréhension de l’Univers.
La physique moderne repose sur deux principes: la théorie quantique, qui régit les particules y compris les plus petites, et la théorie de la relativité générale d’Einstein, expliquant la gravité par la courbure de l’espace-temps. Malheureusement, ces deux théories se contredisent. Pendant longtemps, on a pensé que pour résoudre ce conflit, il fallait modifier la théorie de la gravité d’Einstein pour l’adapter à la théorie quantique.
Le professeur Jonathan Oppenheim de l’UCL propose une approche différente. Sa théorie, présentée dans Physical Review X, suggère que l’espace-temps pourrait rester classique, c’est-à-dire non influencé par la théorie quantique. Cette « théorie post-quantique de la gravité classique » modifie la théorie quantique elle-même et prédit des fluctuations aléatoires et intenses dans l’espace-temps, rendant imprévisible le poids des objets si mesuré avec une extrême précision.
Cf ci-dessous 1
Un autre article, publié dans Nature Communications, explore les implications de cette théorie et propose une expérience pour la tester. Il s’agit de mesurer avec une grande précision le poids d’une masse pour voir si ce dernier fluctue dans le temps. Si les fluctuations observées sont inférieures à celles prédites, la théorie pourrait être remise en question.
Le professeur Oppenheim et ses collègues ont mis au défi les conceptions actuelles sur la gravité et la mécanique quantique. Leur théorie indique que si l’espace-temps est classique, il doit y avoir des fluctuations aléatoires spécifiques dans sa courbure, détectables expérimentalement.
Les implications de cette théorie vont au-delà de la simple compréhension de la gravité. Elle remet en question le besoin du « postulat de mesure » en théorie quantique, affirmant que les superpositions quantiques se localisent naturellement en interagissant avec l’espace-temps classique.
Cette approche innovante pourrait également apporter des éclaircissements sur le problème de l’information des trous noirs en physique quantique et en relativité générale. Cette théorie, si elle est validée par des expériences futures, pourrait donc redéfinir notre vision de l’Univers et de ses lois fondamentales.
The effort to discover a quantum theory of gravity is motivated by the need to reconcile the incompatibility between quantum theory and general relativity. Here, we present an alternative approach by constructing a consistent theory of classical gravity coupled to quantum field theory. The dynamics is linear in the density matrix, completely positive, and trace preserving, and reduces to Einstein’s theory of general relativity in the classical limit. Consequently, the dynamics does not suffer from the pathologies of the semiclassical theory based on expectation values. The assumption that general relativity is classical necessarily modifies the dynamical laws of quantum mechanics; the theory must be fundamentally stochastic in both the metric degrees of freedom and in the quantum matter fields. This breakdown in predictability allows it to evade several no-go theorems purporting to forbid classical quantum interactions. The measurement postulate of quantum mechanics is not needed; the interaction of the quantum degrees of freedom with classical space-time necessarily causes decoherence in the quantum system. We first derive the general form of classical quantum dynamics and consider realizations which have as its limit deterministic classical Hamiltonian evolution. The formalism is then applied to quantum field theory interacting with the classical space-time metric. One can view the classical quantum theory as fundamental or as an effective theory useful for computing the backreaction of quantum fields on geometry. We discuss a number of open questions from the perspective of both viewpoints.
___________________________________________
2 Gravitationally induced decoherence vs space-time diffusion: testing the quantum nature of gravity
We consider two interacting systems when one is treated classically while the other system remains quantum. Consistent dynamics of this coupling has been shown to exist, and explored in the context of treating space-time classically. Here, we prove that any such hybrid dynamics necessarily results in decoherence of the quantum system, and a breakdown in predictability in the classical phase space. We further prove that a trade-off between the rate of this decoherence and the degree of diffusion induced in the classical system is a general feature of all classical quantum dynamics; long coherence times require strong diffusion in phase-space relative to the strength of the coupling. Applying the trade-off relation to gravity, we find a relationship between the strength of gravitationally-induced decoherence versus diffusion of the metric and its conjugate momenta. This provides an experimental signature of theories in which gravity is fundamentally classical. Bounds on decoherence rates arising from current interferometry experiments, combined with precision measurements of mass, place significant restrictions on theories where Einstein’s classical theory of gravity interacts with quantum matter. We find that part of the parameter space of such theories are already squeezed out, and provide figures of merit which can be used in future mass measurements and interference experiments.
Poursuivre le renforcement des contrôles aux frontières extérieures de l’Union européenne (UE)
Œuvrer dans le sens d’une plus grande solidarité
Agir sur les flux au niveau européen et sur la scène internationale
Ces actions s’imposent. Ce n’est pas le lieu ici d’écrire le contraire. Encore faudra-t-il que l’Europe (Union européenne ? Tous Etats européens sans distinction ?) se donnent les moyens budgétaire et matériels pour les mener à bien.
– Ainsi, le renforcement des frontières au niveau européen ne pourra pas se limiter à (nous citons )Finaliser la transformation de Frontex en agence européenne des garde-frontières et des garde-côtes. La nouvelle agence doit se saisir immédiatement de ses compétences dans l’évaluation de la solidité des dispositifs des Etats membres de contrôles aux frontières. Elle doit pouvoir disposer, dès les prochains mois, d’une réserve opérationnelle de 1 500 hommes disponible à tout moment ; au total, les effectifs de l’agence devront progressivement augmenter, conformément à l’engagement du Président de la République, pour atteindre à terme 5 000 hommes.
5.000 hommes pour surveiller des milliers de miles de frontières maritimes et 14.000 km de frontières terrestres dont beaucoup sont alpines n’aura guère d’effets. Les migrants, officiels et clandestins, passeront toujours, surtout avec l’aide de milliers de passeurs criminels. Il faudrait des frontières analogues à celles dont s’était dotée l’ex URSS, avec les effectifs d’un quart de l’Armée Rouge, pour espérer y réussir.
– De même « Agir dans le sens d’une grande solidarité » ne pourra pas se traduire par, entre autres, poursuivre les efforts d’installation en Europe des millions de migrants qui décideraient d’y rester. D’ores et déjà, les maires des villes françaises estiment impossible d’augmenter les effectifs des migrants installés dans les banlieues. Dans les communes rurales, l’accueil d’éventuels migrants se fera à coups de fusil, compte tenu du manque d’emploi dont souffrent les autochtones.
– Enfin « Agir sur les flux au niveau européen et sur la scène internationale » supposera notamment d’agir pour augmenter les perspectives d’emploi dans les pays d’origine. Cela fera rire les futurs candidats à l’immigration. Ils ne visent pas à travailler dans leurs pays d’origine, ce qu’ils pourraient faire pour la plupart, mais travailler, ou plutôt chômer en Europe, en bénéficiant des politiques d’assurances sociales qui leur seront offertes.
Les pouvoirs publics européens devraient en fait prendre en compte deux réalités qu’ils ne veulent pas voir.
Pour l’Etat Islamique et autres Daesh, encourager les migrations en Europe de ressortissants des pays africains et moyen-orientaux constitue déjà et constituera de plus en plus un moyen d’introduire des militants islamistes armés échappant à tous les contrôles.
Plus généralement les prévisions en matière de natalité en Afrique montrent que d’ici la fin du siècle l’Afrique sera, compte tenu de son taux de natalité, inévitablement peuplée de 2 milliards d’habitant au lieu du 1,2 milliard actuel. De même, en matière de réchauffement climatique, l’Afrique sera soumise à des flux de désertification comme à des inondations de grande ampleur qui la rendront en grande partie invivable pour sa population autochtone.
Dans ces conditions, que devraient proposer, dès maintenant ou pour le long terme, les pays européens ? A ce jour, nous n’avons pas de réponse
Des scientifiques développent une expérience pour tester si la gravité est quantique – l’une des questions les plus difficiles concernant notre univers.
En mécanique quantique, qui décrit le comportement des atomes et des molécules, les objets se comportent différemment de tout ce que nous savons : ils peuvent être notamment dans une superposition quantique, se trouvant à deux endroits en même temps.
Aujourd’hui, des scientifiques étudient un moyen de déterminer si la gravité fonctionne de cette manière, en faisant léviter des microdiamants dans le vide.
Si la gravité est quantique, elle « emmêlera » les diamants – un phénomène qui lie fortement deux objets d’une manière impossible dans la vie quotidienne.
Cette recherche contribuera à mieux comprendre les trous noirs, le Big Banget l’univers
Expérience de gravité quantique
Les scientifiques développent une expérience pour tester si la gravité est quantique – l’une des questions les plus profondes concernant notre univers.
La relativité générale et la mécanique quantique sont les deux descriptions les plus fondamentales de la nature dont nous disposons. La relativité générale explique la gravité à grande échelle tandis que la mécanique quantique explique le comportement des atomes et des molécules.
Le défi des théories unificatrices
Le problème non résolu le plus important en physique fondamentale est sans doute la manière correcte de réunir ces deux théories – pour déterminer si la gravité opère à un niveau quantique. Même si les travaux théoriques ont proposé de nombreuses possibilités, des expériences sont nécessaires pour bien comprendre le comportement de la gravité.
Un faisceau laser dans le laboratoire de Gavin Morley sonde les propriétés quantiques d’un diamant. Crédit : Gavin Morley
Expérience révolutionnaire du Consortium mondial
Pendant cent ans, les expériences sur la nature quantique de la gravité semblaient hors de portée, mais désormais des scientifiques basés aux universités de Warwick, UCL, Yale (États-Unis), Northwestern (États-Unis) et Groningen (Hollande) vont travailler ensemble pour enquêter sur cette énigme. . Leur nouvelle idée est de faire léviter deux microdiamants dans le vide et de les placer chacun dans une superposition quantique consistant à se trouver à deux endroits en même temps. Ce comportement contre-intuitif est une caractéristique fondamentale de la mécanique quantique.
Le point de vue du professeur Morley sur l’expérience
Chaque diamant peut être considéré comme une version plus petite du chat de Schrödinger. Chercheur principal Professeur Gavin Morley, Département de physique, Université de Warwick, explique : « Le chat de Schrödinger est une expérience de pensée montrant qu’il serait vraiment étrange que les objets du quotidien (et les animaux de compagnie !) puissent se trouver dans une superposition quantique, c’est-à-dire se trouver à deux endroits à la fois. Nous souhaitons tester les limites de cette idée.
« Les atomes et les molécules ont été mis avec succès dans un tel état de superposition, mais nous voulons le faire avec des objets beaucoup plus gros. Nos diamants sont constitués d’un milliard d’atomes ou plus. Pour tester la nature quantique de la gravité, nous rechercherions les interactions entre deux de ces diamants dues à la gravité.
« Si la gravité est quantique, elle serait alors capable d’enchevêtrer les deux diamants. L’intrication est un effet quantique unique dans lequel deux choses sont liées plus fortement que ce qui est possible dans notre vie quotidienne. Par exemple, si deux pièces peuvent être empêtrées, vous constaterez peut-être que chaque fois que vous les lancez, elles atterrissent toutes les deux dans la même direction, même s’il est impossible de savoir à l’avance si elles seront toutes les deux face ou face.
Défis et implications
Il reste encore de nombreux défis à relever pour concrétiser cette idée, sur lesquels l’équipe étudiera au cours du projet. « Par exemple, nous devons éliminer toutes les interactions entre les nanoparticules autres que la gravité, ce qui est incroyablement difficile puisque la gravité est si faible », explique le Dr David Moore, de Université de Yale.
Le professeur Morley, directeur fondateur de Warwick Quantum, une nouvelle initiative interdisciplinaire de recherche sur la technologie quantique, a ajouté : « Pour moi, le problème le plus important en physique à l’heure actuelle est de développer une expérience capable de tester la nature quantique de la gravité. Ce nouveau projet est une accélération dans notre voyage passionnant vers cet objectif.
Points de vue des scientifiques collaborateurs
Le professeur Sougato Bose, UCL, a commenté : « Il est difficile d’exagérer à quel point il serait important pour les physiciens de disposer d’expériences capables de sonder la manière correcte de combiner la mécanique quantique et la relativité générale. Les personnes travaillant sur les théories de la gravité quantique, comme la théorie des cordes, se concentrent généralement sur ce qui se passe aux hautes énergies, à proximité des trous noirs et au Big Bang.
« En revanche, notre travail se situe dans un régime de faible énergie ici même sur Terre, mais il fournirait également des informations inestimables sur si la gravité est quantique. En outre, l’expérience peut être considérée comme la vérification d’une prédiction générique de toute théorie quantique de la gravité aux basses énergies.
Le professeur Anupam Mazumdar, de l’Université de Groningen, ajoute : « En vue de comprendre la nature quantique de la gravité, nous pourrons peut-être tester d’autres aspects de la physique fondamentale, tels que les déviations exotiques de la gravité newtonienne sur de courtes distances. »
« Il s’agit d’une expérience difficile, et ce projet est un pionnier pour relever certains des principaux défis techniques permettant de faire de ces tests des aspects quantiques de la gravité une réalité », déclare Andrew Geraci, professeur agrégé de physique, Université du nord-ouest.
Le projet s’appelle « MAST-QG : Superpositions macroscopiques pour observer la nature quantique de la gravité ».
Aujourd’hui, la dépendance économique des Etats-Unis vis à vis de Taiwan quant à la production de composants informatiques est quasi absolue. Au centre d’une chaîne d’approvisionnement mondiale, Taïwan fabrique 90 % des chips (puces) dehaut rendement de pointe et 65 % de tous les semi-conducteurs utilisés par les industriels de l’informatique et des télécommunications. (En comparaison, la part de la Chine dans les puces est de 5 % et celle des États-Unis n’est que de 10 %). Ainsi la Taiwan Semiconductor Manufacturing Company (TSMC) premier producteur mondial du composant le plus important partout utilisé, depuis les téléphones portables grand public jusqu’aux missiles militaires et leader de l’innovation, approvisionne Apple et la plupart des autres entreprises technologiques américaines.
On peut s’étonner de constater que les autorités américaines paraissent aujourd’hui seulement s’inquiéter de cette dépendance. Quoiqu’il en soit, elles mettent tout en œuvre désormais pour changer le rapport de force. Après avoir présidé à la pose de la première pierre d’une usine de production de puces TSMC de 12 milliards de dollars à Phoenix en 2020, le gouverneur de l’Arizona a annoncé, deux ans plus tard, que « TSMC a achevé la construction de son installation principale ». En août dernier, juste avant que le président Biden ne signe la loi CHIPS and Science Act, d’un montant de 52 milliards de dollars, la secrétaire d’État au commerce, Gina Raimondo, a insisté sur le fait que « notre dépendance à l’égard de Taïwan en matière de puces est indéfendable et dangereuse ».
À peine trois mois plus tard, TSMC utilisait une grande partie de ces fonds fédéraux en investissant 28 milliards de dollars dans une deuxième usine à Phoenix, laquelle, lorsqu’elle ouvrira en 2026, produira ce que le New York Times a appelé « une technologie de fabrication de puces plus sophistiquée – mais pas la plus sophistiquée ». Lors d’une cérémonie à laquelle participait le président Biden en décembre dernier, le PDG d’Apple, Tim Cook, a déclaré : « Il s’agit d’un moment incroyablement important. »
Dans le même temps des projets d’usines de fabrication de puces tout aussi importants sont actuellement lancés par Samsung (Corée du sud) au Texas, Intel dans l’Ohio et Micron Technology dans l’État de New York. Si l’on additionne tous ces projets, les États-Unis ont déjà parcouru la moitié du chemin qui les sépare du « délai minimum de trois ans et de l’investissement de 350 milliards de dollars… nécessaires pour remplacer les sites de fabrication [de puces] taïwanaises, » selon
Pour sa part, la Commission européenne, en 2022, avait averti qu’à la suite de la pandémie de Covid et de la pénurie de composants en ayant résulté , « des puces de contrefaçon non fiables ont commencé à infiltrer les marchés, compromettant ainsi la sécurité et la fiabilité des appareils électroniques ». Auparavant, en juillet 2021, la Commission avait lancé l’Alliance européenne pour les procédés et les technologies de semi-conducteurs https://digital-strategy.ec.europa.eu/fr/policies/alliance-processors-and-semiconductor-technologies
Tous les Etats utilisent la désinformation pour soutenir leurs politiques de guerre psychologique. Les Etats-Unis ne manquent pas de puissants moyens pour ce faire. Au siècle de l’Internet, des services tels que la CIA et la NSA (National Security Agency) ont recruté des milliers d’agents humains, appuyés par des agents informatiques hors pairs, pour espionner le monde entier. Mais les Etats-Unis ne se bornent pas à espionner, ils « influencent » les décideurs comme les médias et les opinions publiques en vue d’obtenir les décisions les plus favorables à leurs intérêt.
Parmi ces « influenceurs » se trouve l’un des plus pernicieux mais des plus mal connus, le Centre d’engagement global (Global Engagement Center ) dépendant du State Department. Celui-ci se présente ainsi ;
« En sa qualité de centre du gouvernement des États-Unis dédié à la lutte contre la désinformation et la propagande étrangères, le Centre d’engagement global (GEC) au département d’État est mandaté pour exposer et contrer les menaces issues d’agents mal intentionnés qui utilisent ces tactiques ».
Parmi ces « agents mal intentionnés » se trouve bien évidemment la Russie. « Dans ce domaine, la Russie demeure une menace majeure. Le département d’Etat collabore avec des partenaires interinstitutionnels et mondiaux pour relever ce défi, le GEC assurant un rôle essentiel pour coordonner ces efforts et contribuer à diriger une réponse mondiale ».
A cet égard le Rapport spécial du GEC daté d’août 2020 Les piliers de l’écosystème de désinformation et de propagande de la Russie vient d’être porté à la connaissance du public. On peut en lire les soixante pages à l’adresse suivante
Une grande partie du rapport consiste à dénoncer les sites dit « proxy » de la Russie. Ce terme désigne un fondé de pouvoir, agissant par procuration (et sans doute rémunéré en conséquence). Il s’agit de
Strategic Culture Foundation New Eastern Outlook, Global Research, News Front SouthFront Geopolitica.ru Katehon
Mais que faire ? Le rapport précise qu’ il existe une opposition à cet écosystème de désinformation et de propagande que la Russie continue de cultiver. Une communauté de lutte contre la désinformation en plein essor, qui comprend des gouvernements, des organisations de la société civile, les milieux universitaires, la presse, le secteur privé et des citoyens du monde entier qui refusent de tolérer ces tactiques est en train de riposter. Ainsi, le département d’État des États-Unis a élaboré ce rapport à titre de contribution à ces efforts conjoints.
Ajoutons que ces sites éditoriaux ne se bornent pas à tenter d’imposer – à supposer qu’ils le fassent – le point de vue de la Russie. Ils comportent des milliers d’articles sur le monde émanant d’auteurs que la presse mainstream américaine se refuse à publier et qui pourtant apportent un regard essentiel.