13/06/2023. La France devra développer ses parcs d’énergie éolienne en mer

La France dispose aujourd’hui d’un parc de centrales atomiques à fission qui la met en tête de tous les autres pays ayant recours à ce type d’énergie. Elle compte 2 réacteurs de 900 MWe : 4 réacteurs du palier CP0 (4 à Bugey), et 28 réacteurs du palier CPY (4 à Tricastin, 6 à Gravelines, 4 à Dampierre, 4 à Blayais, 4 à Chinon, 4 à Cruas et 2 à Saint-Laurent). Ces centrales sont bien entretenues malgré les coûts et pourraient produire en toute sécurité pendant encore sans doute trente ans. La mise à l’arrêt de la centrale de Fessenheim a été une faute politique du gouvernement français d’alors.

Parallèlement la France a pris la tête des quelques pays ayant décidé de réaliser des centrales nucléaires à fusion contrôlée. Elle héberge à Cadarache le projet international ITER. Celui-ci (International Thermonuclear Experimental Reactor), fait partie de la 2ème génération de prototypes de tokamak. Quelques start up ayant investi dans ce programme ont annoncé avoir obtenue des durées de fusion prometteuses.

Rappelons que la fusion nucléaire fait partie des énergies dites « décarbonées ». Fusionner deux isotopes de l’hydrogène produit de l’hélium. Il ne s’agit pas de combustion, et il n’y a pas d’émission de CO2 dans cette réaction. Le tokamak est une technologie qui permet de confiner le plasma grâce à des champs magnétiques, dans une vaste enceinte torique où la fusion nucléaire peut avoir lieu.

La France doit faire plus pour atteindre la neutralité carbone

En France, la loi sur la transition énergétique pour la croissance verte (LTECV) de 2015 et la loi énergie-climat (LEC) de 2019 ont fixé des objectifs ambitieux de réduction des émissions de gaz à effet de serre et de diversification des sources d’énergie, en cohérence avec les objectifs européens.

L’objectif de neutralité carbone en 2050 (autrement dit viser à ce que la France n’émette pas plus de gaz à effet de serre qu’elle n’en absorbe sur son territoire) et l’objectif de 33 % d’énergies renouvelables dans la consommation finale brute d’énergie en France d’ici 2030 ont ainsi été inscrits dans la loi. Pour l’électricité, cela correspond à un objectif de 40% de la production électrique d’origine renouvelable en 2030.

Pour atteindre ces objectifs, l’État a défini deux feuilles de route, la Stratégie nationale bas-carbone (SNBC) et la Programmation pluriannuelle de l’énergie (PPE).

Dans ces conditions, augmenter la production d’électricité décarbonée pour atteindre la neutralité carbone en 2050 nécessite une électrification massive des usages faisant appel à l’électricité décarbonée.

En France, les émissions de gaz à effet de serre sont principalement générées par le recours aux énergies fossiles, qui représentent aujourd’hui près des deux tiers de la consommation en énergie finale. La décarbonation des secteurs émetteurs de gaz à effet de serre (transports, résidentiel, industrie…) nécessitera de passer d’une utilisation d’énergie fossile à une utilisation d’électricité, qui devra être produite par des moyens de production décarbonés pour certains usages : véhicules électriques (au lieu de thermiques), pompes à chaleur (au lieu de chauffage au gaz ou au fioul), procédés industriels électrifiés… Il en résulte que le besoin en électricité provenant de sources décarbonées augmentera significativement dans les décennies à venir.

Ainsi, la Stratégie nationale bas-carbone (SNBC) publiée en 2020 prévoit à l’horizon 2050 une augmentation en volume du besoin de production électrique à hauteur de 645 TWh.

Compte tenu à la fois de ce besoin croissant en électricité, d’une nécessaire diversification de nos moyens de production d’électricité pour rendre le mix électrique plus résistant face aux crises, du relatif vieillissement des centrales nucléaires existantes, et malgré les projets de nouvelles centrales nucléaires dont la première mise en service n’est pas envisagée avant 2035, il est indispensable de développer rapidement et massivement de nouveaux moyens de production d’énergies renouvelables. Ceux-ci comportent notamment l’éolien terrestre, le solaire et les énergies marines renouvelables (EMR), dont fait partie l’éolien en mer.

L’éolien en mer présente de nombreux atouts :

  • Un gisement important, permettant de remplir à horizon 2050 l’équivalent d’environ un quart des besoins en électricité en France
  • Une grande productivité, avec un facteur de charge de 45% en moyenne
  • Une technologie faiblement émettrice de CO2 (facteur d’émission entre 13 et 19 g eq CO2/kWh produit)
  • Une technologie toujours plus compétitive puisque le dernier appel d’offres éolien posé a été attribué à un tarif de 45€/MWh
  • Une technologie créatrice d’emplois, avec plus de 7500 emplois dans le secteur en France.

Le déploiement de nouvelles capacités de production d’énergie est réalisé selon les objectifs fixés par la Programmation pluriannuelle de l’énergie (PPE). Révisée tous les cinq ans, elle définit la trajectoire du mix énergétique national pour les dix prochaines années. La PPE en vigueur couvre la période 2019-2028 et détermine les capacités de production à attribuer sur cette période. 

Afin de poursuivre le développement de l’éolien en mer, les objectifs suivants ont été annoncés en 2022 :
– objectif de 50 parcs en service représentant 40 GW installés en 2050 (discours du président de la République à Belfort le 10 février 2022) ;
-objectif de 2 GW attribués par an à partir de 2025 et de 20 GW attribués en 2030 (pacte entre l’Etat et la filière de mars 2022).

Lors des travaux sur la révision de la stratégie française pour l’énergie et le climat, le Gouvernement a publié, le 12 juin 2023, une trajectoire de déploiement de l’éolien en mer prévoyant la mise en service de 45 GW à l’horizon 2050 

Ces orientations ont vocation à être traduites, adaptées et précisées lors de la prochaine loi de production d’énergie et la révision de la PPE prévue en 2024.

13/06/2023 Les batteries électriques au sodium.

La dépendance de la future industrie française de la voiture électrique au lithium inquiétait beaucoup d’experts. Bien que le lithium soit présent dans de nombreux pays, c’est la Chine qui en comporte les plus grandes quantités exploitables à des coûts raisonnables. La France devrait-elle remplacer sa dépendance aux pays pétroliers par une dépendance à la Chine.

Il semble finalement que ce risque n’existera pas. Selon les informations disponibles à ce jour, le moteur à explosion fonctionnant à l’essence ou au gaz oil devraient pouvoir être remplacé par des moteurs à eau. Ceci ne veut pas dire qu’il suffirait de mettre de l’eau dans un réservoir pour faire tourner les futurs moteurs. Les réalités sont plus complexes.

On notera que la technologie sodium-ion a un défaut par rapport aux batteries lithium-ion : la densité énergétique est moindre. En d’autres termes, ces batteries contiennent moins d’énergie dans un même volume et un même poids qu’une batterie lithium-ion.

Ce seront la encore des industriels chinois qui produiront ces moteurs. Mais ils le feront associées avec des entreprises européennes, notamment Volkswagen.

Le site  Frandroid  fournit de nombreuses précisions sur ces sujets. On lira notamment

12/05/2024 La mise en service du LHC révélera-t-elle la réalité cachée du monde quantique ?

Beaucoup mettent encore en doute l’intérêt du plus grand accélérateur de particules mondial, le Large Hadron Collider du CERN. Depuis son entrée en service pourtant, il a entre autres permis de confirmer l’existence du boson de Higgs qui sert de fondement au modèle standard des particules élémentaires.

Mais aujourd’hui certains physiciens dont le Pr Alan Barr attendent de lui qu’il révèle la nature profonde de la réalité quantique, dont il donne une image si profondément troublante. L’année dernière, Barr et des collègues ont publié un article décrivant les résultats d’une expérience dans laquelle ils montraient que des paires de particules élémentaires nommées des top quarks pouvaient placés en état d’intrication quantique.

Voir référence ci-dessous

Ce n’était là que la première intrication qui pourrait ouvrir la voie à un nouveau regard sur la nature de l’univers. On peut maintenant se demander pourquoi la réalité telle que dépeinte par la mécanique quantique est si difficile à représenter. Tout semble tenir au fait que les expérimentateurs et les particules elles-mêmes semble disposer d’un libre arbitre. Il s’agirait là d’une réalité encore plus étrange que celle dépeinte par la mécanique quantique.

L’intrication est la clef qui permet d’ouvrir le monde quantique. Erwin Schrödinger l’avait bien compris en la nommant le « trait caractéristique de la nouvelle physique ». Elle assure un lien instantané entre les particules quantiques, aussi éloignées qu’elles puissent être dans l’univers . Exercer une action, telle une mesure, sur l’une se répercute instantanément sur l’autre. C’est ce qu’avait montré les expériences proposées par le physicien du Cern John Bell sous le nom d’inégalités de Bell dans les années 1960 .

Aujourd’hui les physiciens peuvent remettre à l’épreuve les inégalités de Bell dans l’environnement complexe et encore mal connu du LHC. Les résultats sont toujours les même.

Certains en déduisent, tel Vlatko Vedral de l’Université d’Oxford, qu’il faudrait examiner les effets de l’intrication, non seulement sur de grandes distances, mais aussi sur de très courtes distances c’est-à-dire au moins plusieurs quadri-millionièmes de mètre. Le LHC devrait pouvoir le faire.

De nouvelles particules pourraient apparaître. Elles seraient virtuelles car elles ne traduirait que des fluctuations d’amplitude dans les fluctuations d’énergie provenant du LHC. Mais elles pourraient aider à mieux comprendre ce qui se passe dans les trous noirs et peut-être au sein de l’énergie sombre qui impulse l’expansion de l’univers.

Bien plus, des expériences menées dans le LHC pourraient permettre de mieux préciser les nuances et les limites de la théorie quantique elle-même. Il pourrait en résulter une théorie « post-quantique » dont le besoin se fait de plus en plus sentir

Voir Newscientist Reality collider, Michael Brooks 27 april 2024 p. 32

 Référence

High Energy Physics – Experiment

[Submitted on 13 Nov 2023 (v1), last revised 17 Nov 2023 (this version, v2)]

Observation of quantum entanglement in top-quark pairs using the ATLAS detector

ATLAS Collaboration

We report the highest-energy observation of entanglement, in top−antitop quark events produced at the Large Hadron Collider, using a proton−proton collision data set with a center-of-mass energy of s√=13 TeV and an integrated luminosity of 140 fb−1 recorded with the ATLAS experiment. Spin entanglement is detected from the measurement of a single observable D, inferred from the angle between the charged leptons in their parent top- and antitop-quark rest frames. The observable is measured in a narrow interval around the top−antitop quark production threshold, where the entanglement detection is expected to be significant. It is reported in a fiducial phase space defined with stable particles to minimize the uncertainties that stem from limitations of the Monte Carlo event generators and the parton shower model in modelling top-quark pair production. The entanglement marker is measured to be D=−0.547±0.002 (stat.)±0.021 (syst.) for 340<mtt¯<380 GeV. The observed result is more than five standard deviations from a scenario without entanglement and hence constitutes both the first observation of entanglement in a pair of quarks and the highest-energy observation of entanglement to date.

Comments:45 pages in total, author list starting page 28, 4 figures, 2 tables, submitted to Nature. All figures including auxiliary figures are available at this http URL
Subjects:High Energy Physics – Experiment (hep-ex)
Report number:CERN-EP-2023-230
Cite as:arXiv:2311.07288 [hep-ex]
 (or arXiv:2311.07288v2 [hep-ex] for this version)
 https://doi.org/10.48550/arXiv.2311.07288 Focus to learn more

12/05/2024 Quelle était l’intelligence du Tyrannosaure  ou T.rex ?

On estime souvent que le degré d’intelligence ou capacité cognitive d’une espèce paléolitique donnée est fonction du nombre de neurones attribué aux individus de cette espèce, nombre lui-même déduit du volume de leur cerveau tel qu’estimé au vu de l’examen de leurs restes fossiles.

Ainsi , une étude récente dont nous publions ci-dessous les références et l’abstract, portant sur les cerveaux des dinosaures et ptérosaures du Mésozoïque montre que le plus connu de ceux-ci, le Tyrannosaurus rex  disposait d’une intelligence comparable à celle des babouins et macaques modernes. Par contre, les sauropodes et la plupart des dinosaures herbivores dits Ornithischiens (https://en.wikipedia.org/wiki/Ornithischia possédaient ne cage pelvique analogue à celle des oiseaux modernes et d’une physiologie ecothermique (à sang froid).

Cependant cette même étude met en doute la possibilité d’estimer la capacité d’adaptation, aujourd’hui considérée comme une forme d’intelligence essentielle, au nombre et à longueur relative des cellules neuronales. Des études plus larges et mieux intégrées s’imposent.

La même conclusion sera nécessaire dans l’étude de l’intelligence des espèces modernes

Référence

How smart was T. rex? Testing claims of exceptional cognition in dinosaurs and the application of neuron count estimates in palaeontological research

Kai R. CasparCristián Gutiérrez-IbáñezOrnella C. BertrandThomas CarrJennifer A. D. ColbourneArthur ErbHady GeorgeThomas R. Holtz JrDarren NaishDouglas R. WylieGrant R. Hurlburt

First published: 26 April 2024

https://doi.org/10.1002/ar.25459

Abstract

Recent years have seen increasing scientific interest in whether neuron counts can act as correlates of diverse biological phenomena. Lately, Herculano-Houzel (2023) argued that fossil endocasts and comparative neurological data from extant sauropsids allow to reconstruct telencephalic neuron counts in Mesozoic dinosaurs and pterosaurs, which might act as proxies for behaviors and life history traits in these animals. According to this analysis, large theropods such as Tyrannosaurus rex were long-lived, exceptionally intelligent animals equipped with “macaque- or baboon-like cognition”, whereas sauropods and most ornithischian dinosaurs would have displayed significantly smaller brains and an ectothermic physiology. Besides challenging established views on Mesozoic dinosaur biology, these claims raise questions on whether neuron count estimates could benefit research on fossil animals in general. Here, we address these findings by revisiting Herculano-Houzel’s (2023) work, identifying several crucial shortcomings regarding analysis and interpretation. We present revised estimates of encephalization and telencephalic neuron counts in dinosaurs, which we derive from phylogenetically informed modeling and an amended dataset of endocranial measurements. For large-bodied theropods in particular, we recover significantly lower neuron counts than previously proposed. Furthermore, we review the suitability of neurological variables such as neuron numbers and relative brain size to predict cognitive complexity, metabolic rate and life history traits in dinosaurs, coming to the conclusion that they are flawed proxies for these biological phenomena. Instead of relying on such neurological estimates when reconstructing Mesozoic dinosaur biology, we argue that integrative studies are needed to approach this complex subject.

11/05/2024 Détection d’une atmosphère autour d’une planète extra-solaire située à 41 années-lumière de la Terre.

Cette planète est trop éloignées pour que des terriens puissent espérer s’y rendre un jour. De plus la température et la composition de son atmosphère la rendrait mortelle pour toute forme de vie comparable à la vie terrestre.

Néanmoins l’observation est intéressante car elle montre que des exoplanètes peuvent durablement être entourées de gaz atmosphériques

———–

Des chercheurs utilisant le télescope spatial James-Webb ont récemment repéré des gaz atmosphériques entourant 55 Cancri e, une exoplanète rocheuse extrêmement chaude située à 41 années-lumière de la Terre. Cette découverte constitue la preuve la plus convaincante à ce jour de l’existence d’une atmosphère autour d’une planète rocheuse en dehors de notre Système solaire. Elle ouvre de nouvelles perspectives sur la compréhension des planètes situées au-delà de notre Système solaire et pourrait nous aider à mieux caractériser les conditions atmosphériques et les propriétés des super-Terres chaudes, enrichissant ainsi notre connaissance de la diversité des planètes peuplant l’Univers.

L’auteur de l’étude publiée dans la revue Nature est Renyu Hu du Jet Propulsion Laboratory

A secondary atmosphere on the rocky Exoplanet 55 Cancri e

Nature (2024)

  • Abstract

Characterizing rocky exoplanets is a central endeavor of astronomy, and yet the search for atmospheres on rocky exoplanets has hitherto resulted in either tight upper limits on the atmospheric mass1–3 or inconclusive results4–6. The 1.95-REarth and 8.8-MEarth planet 55 Cnc e, with a predominantly rocky composition and an equilibrium temperature of ~2000 K, may have a volatile envelope (containing molecules made from a combination of C, H, O, N, S, and P elements) that accounts for up to a few percent of its radius7–13. The planet has been observed extensively with transmission spectroscopy14–22, and its thermal emission has been measured in broad photometric bands23–26. These observations disfavor a primordial H2/He-dominated atmosphere but cannot conclusively determine whether the planet has a secondary atmosphere27,28. Here we report a thermal emission spectrum of the planet obtained by JWST’s NIRCam and MIRI instruments from 4 to 12 μm. The measurements rule out the scenario where the planet is a lava world shrouded by a tenuous atmosphere made of vaporized rock29–32, and indicate a bona fide volatile atmosphere likely rich in CO2 or CO. This atmosphere can be outgassed from and sustained by a magma ocean.

10/05/2024 Des atomes individuels surpris en train de devenir des ondes

La dualité onde-corpuscule aussi appelée dualité onde-particule est un principe selon lequel tous les objets physiques peuvent présenter parfois des propriétés d’ondes et parfois des propriétés de corpuscules et de particules. La manifestation de ces propriétés ne dépend pas seulement de l’objet étudié isolément, mais aussi de tout l’appareillage de mesure utilisé. Ce concept fait partie des fondements de la mécanique quantique. Le cas d’école est celui de la lumière, qui présente deux aspects complémentaires selon les conditions d’expérience : elle apparaît soit ondulatoire, d’où le concept de longueur d’onde, soit corpusculaire, d’où le concept de photons.

Cette dualité démontre en réalité l’inadéquation – ou plus exactement l’incomplétude – de chacune des conceptions classiques de « corpuscules » ou d’« ondes » pour décrire le comportement des objets quantiques. L’idée de la dualité prend ses racines dans un débat remontant aussi loin que le xviie siècle, quand s’affrontaient les théories concurrentes de Christian Huygens, qui considérait que la lumière était composée d’ondes, et celle d’Isaac Newton, qui considérait la lumière comme un flot de corpuscules. La dualité onde-corpuscule est introduite en 1909 par Albert Einstein pour la lumière.

À la suite des travaux d’Einstein, de Louis de Broglie et de bien d’autres, les théories scientifiques modernes accordent à tous les objets une double nature d’onde et de corpuscule, bien que ce phénomène ne soit perceptible qu’à l’échelle des systèmes quantiques. Wikipedia

Le fait que des particules, telles des atomes, puissent se comporter comme des ondes, est illustré par le concept de paquet d’onde ou wave packet . La dualité onde-corpuscule vient du fait que les analogies classiques de l’onde (associée à une vague sur l’eau) et du corpuscule (associé à une bille) sont incompatibles : intuitivement et ontologiquement, elles ne peuvent caractériser un même objet.

Le phénomène d’une onde sur l’eau peut certes être considéré comme compatible avec le caractère corpusculaire des molécules composant l’eau ; néanmoins il s’agit là d’un phénomène d’échelle, le caractère ondulatoire observé sur l’eau découlant de la quantité de molécules d’eau composant le milieu, et non de chaque molécule.

Or au début de la physique quantique, les expériences montraient pourtant que les phénomènes observés présentaient intrinsèquement ces deux propriétés apparemment opposées.

Le concept de la dualité onde-corpuscule vient du fait que les analogies classiques de l’onde (associée à une vague sur l’eau) et du corpuscule (associé à une bille) sont incompatibles : intuitivement et ontologiquement, elles ne peuvent caractériser un même objet.

Le phénomène d’une onde sur l’eau peut certes être considéré comme compatible avec le caractère corpusculaire des molécules composant l’eau ; néanmoins il s’agit là d’un phénomène d’échelle, le caractère ondulatoire observé sur l’eau découlant de la quantité de molécules d’eau composant le milieu, et non de chaque molécule.

Aujourd’hui les physiciens peuvent prédire comment un paquet d’ondes évoluera dans le temps en utilisant l’équation proposée par Erwin Schrödinger . Celle-ci, essentiellement une équation d’onde, décrit la forme des ondes de probabilité ou fonctions d’ondes qui gouvernent le mouvement des petites particules. Elle précise comment ces ondes sont altérées par des influences extérieures.

Il en résulte qu’analyser la façon dont un atome peut se comporter en tant que paquet d’onde permet de mieux le contrôler et mieux se le représenter sous forme d’image (l’ « imager »).

Tarik Yefsa du CNRS et de l’Ecole Normale Supérieure de Paris et des collègues ont imaginé de refroidir des atomes de lithium à une température proche du zéro absolu de façon à ce qu’ils acquièrent des propriétés quantiques. Pour ce faire, ils ont placé des atomes dans une petite chambre sans air, puis les ont frappé avec des lasers et des champs magnétiques de façon à abaisser au maximum leur température .

Avec les mêmes techniques, ils ont analysé les états quantiques de ces atomes et leur forme en tant qu’ondes, en veillant à ce qu’ils ne se rapprochent pas trop les uns des autres et conservent leur individualité initiale.

Ils ont constaté que les atomes se comportaient initialement comme des points aux frontières bien arrêtées puis perdaient progressivement leur cohérence et devenaient lentement plus confus en s’élargissant de telle sorte qu’ils ressemblaient de plus en plus à des ondes.

Les atomes de cette nature font partie de la vaste catégorie des fermions . Les physiciens se demandent actuellement s’ils n’interviennent pas dans la formation de la matière quantique composant les étoiles à neutrons. Ils auraient pu participer également à la « soupe » de particules hautement interactives apparue peu après le Big Bang.

Référence

[Submitted on 8 Apr 2024]
In-situ Imaging of a Single-Atom Wave Packet in Continuous Space

Joris VerstratenKunlun DaiMaxime DixmeriasBruno PeaudecerfTim de JonghTarik Yefsah

The wave nature of matter remains one of the most striking aspects of quantum mechanics. Since its inception, a wealth of experiments has demonstrated the interference, diffraction or scattering of massive particles. More recently, experiments with ever increasing control and resolution have allowed imaging the wavefunction of individual atoms. Here, we use quantum gas microscopy to image the in-situ spatial distribution of deterministically prepared single-atom wave packets as they expand in a plane. We achieve this by controllably projecting the expanding wavefunction onto the sites of a deep optical lattice and subsequently performing single-atom imaging. The protocol established here for imaging extended wave packets via quantum gas microscopy is readily applicable to the wavefunction of interacting many-body systems in continuous space, promising a direct access to their microscopic properties, including spatial correlation functions up to high order and large distances.

Comments:12 pages, 11 figures
Subjects:Quantum Physics (quant-ph); Quantum Gases (cond-mat.quant-gas); Atomic Physics (physics.atom-ph)
Cite as:arXiv:2404.05699 [quant-ph]
 (or arXiv:2404.05699v1 [quant-ph] for this version)
 https://doi.org/10.48550/arXiv.2404.05699 Focus to learn more

10/05/2024 La grippe aviaire menace-t-elle l’espèce humaine ?

La grippe dite aviaire est causée par la souche pathogène du virus H5N1 qui a tué des millions d’oiseaux et un nombre indéterminé de mammifères depuis trois ans

Cette souche est apparue chez les oies domestiques en Chine en 1997 et s’est rapidement propagée à l’humain en Asie du Sud-Est, avec un taux de mortalité de 40 à 50 %. En 2005 elle a causé la mort de civettes palmistes d’Owston, un mammifère menacé d’extinction, qui faisaient partie d’un programme d’élevage en captivité dans le parc national de Cuc Phuong, au Viêt Nam.

On ignore comment ces bêtes ont contracté la grippe aviaire. Leur régime alimentaire se compose essentiellement de vers de terre, de sorte qu’elles n’ont pas été infectées par la consommation de volailles malades, comme c’est arrivé pour des tigres en captivité de la région. On ignore comment ces bêtes ont contracté la grippe aviaire. Leur régime alimentaire se compose essentiellement de vers de terre, de sorte qu’elles n’ont pas été infectées par la consommation de volailles malades, comme c’est arrivé pour des tigres en captivité de la région.

Jusqu’en décembre 2005, la plupart des infections confirmées avaient été trouvées dans quelques zoos et refuges en Thaïlande et au Cambodge. Une étude de 2006 a montré que près de la moitié (48 %) des différents groupes d’oiseaux (ou « ordres », selon les taxonomistes) comportaient une espèce chez laquelle on avait signalé des cas de mort par la grippe aviaire. Ces 13 ordres représentent 84 % de toutes les espèces d’oiseaux.

Parmi les mammifères qu’on sait avoir été exposés à la grippe aviaire au début des années 2000, on compte des primates, des rongeurs, des porcs et des lapins. De grands carnivores tels que des tigres du Bengale et des panthères nébuleuses en sont morts, ainsi que des chats domestiques. Des animaux de zoo ayant mangé des volailles infectées figurent parmi les premières victimes de la grippe aviaire.

L’étude de 2006 montrait la facilité avec laquelle ce virus franchit la barrière d’espèce et suggérait qu’il pourrait un jour constituer une menace pandémique pour la biodiversité mondiale.

C’est bien ce qui est en train de se produire.

Près de vingt ans plus tard, la grippe aviaire tue des espèces de l’Extrême-Arctique jusqu’à la péninsule antarctique. Ces dernières années, la grippe aviaire s’est rapidement propagée en Europe et s’est infiltrée en Amérique du Nord et du Sud, causant la mort de millions de volailles et de diverses espèces d’oiseaux et de mammifères. Selon un récent article, 26 pays ont signalé la mort de mammifères d’au moins 48 espèces différentes des suites du virus depuis 2020, date de la dernière évaluation du nombre d’infections.

Même l’océan n’est pas à l’abri. Depuis 2020, 13 espèces de mammifères aquatiques ont été touchées, notamment des otaries, des marsouins et des dauphins, dont certaines meurent par milliers en Amérique du Sud. Il est désormais confirmé qu’un grand nombre de mammifères charognards et prédateurs vivant sur la terre ferme, tels que des cougars, des lynx, et des ours bruns, noirs et polaires, sont également affectés.

Le Royaume-Uni à lui seul a perdu plus de 75 % de ses grands labbes et a connu un déclin de 25 % de ses fous de Bassan. Le déclin récent des sternes caugek (35 %) et des sternes pierregarin (42 %) est aussi causé en grande partie par le virus.

Les scientifiques n’ont pas encore réussi à séquencer complètement le virus chez toutes les espèces touchées. La recherche et une surveillance soutenue pourraient nous indiquer dans quelle mesure il peut s’adapter et s’il peut s’étendre à d’autres espèces. Nous savons qu’il infecte déjà des humains – avec quelques mutations génétiques, il risque de devenir plus contagieux.

Chez les humains, du 1er janvier 2003 au 21 décembre 2023, on a rapporté 882 cas d’infection humaine par le virus H5N1 dans 23 pays, dont 461 (52 %) ont été fatals.

Plus de la moitié des morts se sont produites au Viêt Nam, en Chine, au Cambodge et au Laos. Des infections transmises de volaille à humain ont été enregistrées pour la première fois au Cambodge en décembre 2003. On a signalé des cas sporadiques jusqu’en 2014, puis on a observé une interruption jusqu’en 2023, où il y a eu 41 décès pour 64 cas. On a détecté le sous-type H5N1 chez des volailles au Cambodge depuis 2014.

Au début des années 2000, le virus H5N1 en circulation avait un taux de mortalité élevé chez les humains.

Les sous-types H5 de la grippe aviaire ne sont pas les seuls à préoccuper. Le virus H10N1 a été isolé à l’origine chez des oiseaux sauvages en Corée du Sud. On a signalé sa présence dans des échantillons provenant de Chine et de Mongolie.

Des recherches récentes ont montré que ces sous-types de virus étaient pathogènes chez des souris et des furets de laboratoire et qu’ils pourraient infecter les humains. La première personne dont l’infection par le virus H10N5 a été confirmée est décédée en Chine le 27 janvier 2024, mais elle était également atteinte d’une grippe saisonnière (H3N2). Elle avait été en contact avec des volailles vivantes qui se sont révélées positives pour le virus H10N5.

Des espèces menacées d’extinction ont connu des morts de la grippe aviaire au cours des trois dernières années. On vient de confirmer que le virus a fait ses premières victimes dans la péninsule antarctique chez les grands labbes, ce qui constitue une menace imminente pour les colonies de pingouins dont les grands labbes mangent les œufs et les poussins. Le virus a déjà tué des manchots de Humboldt au Chili.

Comment peut-on endiguer ce tsunami de H5N1 et d’autres grippes aviaires  ? Il faut revoir complètement la production de volaille à l’échelle mondiale et rendre les exploitations autosuffisantes en matière d’élevage d’œufs et de poussins au lieu d’en faire l’exportation. En outre, la tendance aux mégafermes de plus d’un million d’oiseaux doit être enrayée. Les élevages intensifs de volailles représentent aujourd’hui le principal incubateur du virus.

Source

https://theconversation.com/the-next-pandemic-its-already-here-for-earths-wildlife-222306

v

09/05/2024 Le projet de futur accélérateur de particules du CERN

L’organisation européenne pour la recherche nucléaire, CERN, se fait actuellement reprocher son projet de nouvel accélérateur de particules dit FCC, Il serait à la fois inutile, trop grand, trop coûteux et ne répondant à aucun besoin. Il faut se souvenir que les mêmes critiques avaient été portées contre le Grand Collisionneur à Hadrons de ce même CERN (Large Hadron Collider LHC) dont les découvertes ne cessent aujourd’hui de s’enchaîner. C’est notamment grâce à lui qu’a été observé le boson de Higgs en 2012

(voir https://fr.wikipedia.org/wiki/Boson_de_Higgs)

Le FCC («collisionneur circulaire futur») sera il est vrai, trois fois plus long que l’accélérateur actuel. A quoi pourra-t-il servir ?

La recherche fondamentale est imprévisible, car elle explore l’inconnu. Bien que plusieurs importantes hypothèses scientifiques soient déjà au programme du FCC, ainsi que les futurs développements techniques qui iront avec, ses retombées exactes restent encore difficiles à estimer.

Rappelons que la découverte du boson de Higgs a conduit à de nouvelles questions : quel a été le rôle du boson de Higgs dans le Big Bang, et comment a-t-il influencé l’évolution de l’Univers ? Le boson de Higgs peut-il apporter des réponses sur certains points que le Modèle standard ne sait pas expliquer, comme la matière noire et l’excédent de matière par rapport à l’antimatière ?

La réponse à ces questions peut se trouver dans la grande diversité des scénarios actuels de physique au-delà du Modèle standard. Certains scénarios supposent l’existence de nouvelles particules plus lourdes, hors d’atteinte du LHC, accessibles par des installations atteignant des énergies plus élevées. D’autres supposent l’existence de particules plus légères interagissant très faiblement avec les particules du Modèle standard, et dont la détection suppose d’énormes quantités de données, et une grande sensibilité des détecteurs pour des signaux difficiles à percevoir.

Grâce aux avancées considérables en matière de sensibilité et de précision qu’apporterait le FCC-ee, et, ultérieurement, grâce à l’énergie largement supérieure à celle du LHC qu’atteindrait le FCC-hh, le programme FCC donnerait aux physiciens la possibilité d’explorer complètement ce panorama.

Le CERN dispose de plusieurs options pour ce faire, avec notamment de futurs collisionneurs, circulaires ou linéaires. Étant donné la légèreté du boson de Higgs et l’absence à ce jour de découverte d’autres nouvelles particules élémentaires, les collisionneurs circulaires dits e+e- sont des options séduisantes par rapport aux machines linéaires. Ces machines offriraient une luminosité notablement supérieure et pourraient accueillir jusqu’à quatre expériences, tout en constituant une infrastructure pour un collisionneur de hadrons ultérieur.

Pour en savoir plus : voir « FCC: The Physics Case » dans la revue CERN Courier.

08/05/2024 Nouvelles études concernant la matière noire

Depuis des décennies, la matière noire inquiète des scientifiques. Omniprésente dans l’univers, elle constitue environ 85 % de sa masse totale, mais échappe à tous les instruments de mesure. Invisible à l’œil nu, elle se manifeste uniquement par son attraction gravitationnelle sur la matière visible, celle des étoiles et des galaxies. D’où vient-elle ? De quoi est-elle faite ? Comment interagit-elle avec l’univers visible ?

Pour tenter de percer les secrets de la matière noire, les scientifiques mettent en place des télescopes sophistiqués, des expériences souterraines, des simulations cosmiques poussées. Une étude  récemment publiée dans Monthly Notices of the Royal Astronomical Society dont on trouvera ci-dessous les références et l’abstract vise à améliorer la compréhension de la matière noire

Contrairement à la matière ordinaire, composée de protons, neutrons et électrons, la matière noire ne se laisse pas observer par nos instruments. Elle ne rayonne ni n’absorbe la lumière. Elle se dévoile uniquement par son influence gravitationnelle sur la matière visible, comme les étoiles et les galaxies. C’est grâce à cette attraction gravitationnelle que les scientifiques ont pu déduire son existence et estimer sa masse.

L’idée de l’existence de la matière noire a été proposée pour la première fois dans les années 1930 par l’astronome suisse Fritz Zwicky. Toutefois, c’est réellement au cours des dernières décennies que son existence et son importance ont été progressivement confirmées par des observations astronomiques et des analyses théoriques.

Sa composition exacte demeure encore de nos jours un mystère. On ignore si elle est constituée de particules déjà connues ou d’une nouvelle forme de matière. Les hypothèses abondent : axions, WIMPs (Weakly interacting massive particles), neutrinos stériles…

Si son existence est largement admise au sein du modèle cosmologique standard ΛCDM ou Lambda CDM, elle n’en demeure pas moins sujette à de nombreux débats. Le modèle ΛCDM est un cadre théorique constitué à partir des observations et des principes du modèle standard du Big Bang décrivant l’Univers comme principalement composé de matière noire froide (CDM) et d’énergie sombre (Λ) tout en supposant que l’univers soit considéré comme plat dans ses dimensions spatiales.

Cependant certains modèles alternatifs remettent en question la nécessité de la matière noire, la considérant comme un artefact artificiel introduit pour expliquer des observations cosmologiques encore mal comprises. Ces modèles alternatifs sont la théorie de la gravité modifiée ou de gravité scalaire-tenseur, les théories branaires ou les modifications de la relativité générale. Il s’agit d’expliquer les observations cosmologiques sans recourir à la matière noire. Toutefois, n’ont pas encore fait leurs preuves et n’ont pas de quoi rivaliser avec le modèle ΛCDM, qui reste actuellement le modèle dominant en cosmologie.

L’étude dont il était question dans l’introduction, a été menée par des chercheurs de l’UC Irvine et dirigée par Francisco Mercado. Ces derniers ont développé une approche inédite pour apporter de nouveaux éléments à la théorie de l’existence de la matière noire.  En s’appuyant sur des simulations informatiques sophistiquées, les chercheurs ont comparé les prédictions de deux modèles : l’un avec matière noire et l’autre sans.

Les simulations ont révélé que de nombreuses caractéristiques observées dans les galaxies réelles, telles que leur distribution et leur mouvement, sont naturellement expliquées par le modèle ΛCDM avec matière noire. En revanche, ces mêmes caractéristiques s’avèrent difficiles à reproduire dans le modèle alternatif sans matière noire. Cette étude apporte donc un soutien supplémentaire au modèle ΛCDM, suggérant que la matière noire joue un rôle crucial dans la structure et l’évolution de l’univers

Même si l’existence de la matière semble aujourd’hui admise, ses propriétés fondamentales et sa composition exacte sont encore sujettes à recherche. Les études récentes comme celles menées par Mercado et son équipe fournissent des preuves solides soutenant son existence.

  • Référence
Hooks & Bends in the radial acceleration relation: discriminatory tests for dark matter and MOND 

Francisco J Mercado, James S Bullock, Jorge Moreno, Michael Boylan-Kolchin, Philip F Hopkins, Andrew Wetzel, Claude-André Faucher-Giguère, Jenna Samuel

Monthly Notices of the Royal Astronomical Society, Volume 530, Issue 2, May 2024, Pages 1349–1362, https://doi.org/10.1093/mnras/stae819

16 April 2024

ABSTRACT

    The radial acceleration relation (RAR) connects the total gravitational acceleration of a galaxy at a given radius, atot(r), with that accounted for by baryons at the same radius, abar(r). The shape and tightness of the RAR for rotationally-supported galaxies have characteristics in line with MOdified Newtonian Dynamics (MOND) and can also arise within the cosmological constant + cold dark matter (ΛCDM) paradigm. We use zoom simulations of 20 galaxies with stellar masses of M ≃ 107–11 M to study the RAR in the FIRE-2 simulations. We highlight the existence of simulated galaxies with non-monotonic RAR tracks that ‘hook’ down from the average relation. These hooks are challenging to explain in Modified Inertia theories of MOND, but naturally arise in all of our ΛCDM-simulated galaxies that are dark-matter dominated at small radii and have feedback-induced cores in their dark matter haloes. We show, analytically and numerically, that downward hooks are expected in such cored haloes because they have non-monotonic acceleration profiles. We also extend the relation to accelerations below those traced by disc galaxy rotation curves. In this regime, our simulations exhibit ‘bends’ off of the MOND-inspired extrapolation of the RAR, which, at large radii, approach atot ≈ abar/fb, where fb is the cosmic baryon fraction. Future efforts to search for these hooks and bends in real galaxies will provide interesting tests for MOND and ΛCDM.