En cosmologie, l’énergie sombre ou énergie noire est une forme d’énergie hypothétique remplissant uniformément tout l’Univers et dotée d’une pression négative,. Elle se comporte donc comme une force gravitationnelle répulsive, contribuant ainsi à l’expansion de l’univers. Or on sait depuis un siècle que l’univers a été en expansion depuis ses origines. On a découvert plus récemment que cette expansion s’était nettement accélérée quelque six milliards d’années après le Big Bang.
Rappelons que dans le modèle cosmologique standard, l’univers observable est constitué de 5 % de matière baryonique ou matière ordinaire, de 25% d’une hypothétique matière noire froide et de 70 % d’énergie sombre qui correspond à une certaine masse selon la formule E = mc2
L’expansion est désormais observable. Installé sur un télescope dédié au sommet de l’observatoire américain de Kitt Peak (Arizona), l’Instrument spectroscopique pour l’énergie sombre (DESI) est doté 5.000 fines fibres optiques robotisées, dont chacune observe pendant vingt minutes une galaxie, ce qui permet de calculer son éloignement, et donc l’âge de l’univers quand cette galaxie a émis sa lumière.
En un an, DESI, travaillant pour une collaboration internationale de 70 institutions autour du Berkeley Lab américain, a déjà dressé une carte de six millions de sources lumineuses, galaxies et quasars, sur les 11 derniers milliards d’années de l’histoire de l’univers (qui a 13,8 milliards d’années). Elle en a annoncé les résultats dans une série d’articles scientifiques publiés dans le Journal of Cosmology and Astroparticle Physics référencés ci-dessous.
La mission principale de DESI est d’aider à comprendre la nature de l’énergie sombre, un élément théorique supposé responsable d’une accélération de l’expansion de l’univers. En l’occurrence l’expansion se manifeste par l’éloignement croissant et toujours plus rapide des amas de galaxies entre eux, comme si l’espace qui les sépare n’en finissait pas d’augmenter.
Là où les deux matières (baryonique et noire) ralentissent cette expansion, l’énergie sombre, elle, l’accélère. Et elle a clairement le dessus, selon ce modèle baptisé Lambda-CDM, dans lequel Lambda désigne la constante cosmologique en lien avec l’énergie sombre.
Or quelques éléments pourraient indiquer que cette énergie noire a évolué avec le temps. L es données de DESI semblent montrer que la constante cosmologique Lambda ne serait pas réellement une constante. L’énergie noire aurait un comportement variable selon les époques considérées.
L’accélération de l’expansion aurait ainsi été plus importante dans le passé, à partir de 6 milliards d’années, avant de diminuer dans les temps récents
Le scénario d’une variation de l’énergie noire dans le temps reste à confirmer par de nouvelles données de DESI et celles d’autres instruments, comme le télescope spatial européen Euclid. Mais si cette décélération devait être confirmée, il faudrait alors prendre en compte le comportement variable de l’énergie sombre. En remplaçant par exemple la constante cosmologique par un champ de force lié à une particule – restant à identifier – qui modifierait la constante de l’énergie sombre.
La matière noire, que nous avons souvent évoquée dans les présentes chroniques, composerait plus de 70% de la matière dont serait constitué notre univers. Mais comme son nom l’indique, elle ne serait pas visible par nos instruments actuels. Elle ne se ferait connaître que par son poids et plus précisément par les effets gravitationnels qu’elle exerce sur les autres formes de matière présentes dans l’Univers.
A cet égard, l’observation d’une petite galaxie dite galaxie satellite se trouvant dans la Voie Lactée et venant s’être découverte, présente un intérêt particulier.
Au sein de la Voie Lactée, diverses galaxies satellites peuvent être observées, parmi lesquelles les Grand et Petit Nuages de Magellan, visibles à l’œil nu depuis l’hémisphère sud. Or récemment, des astronomes ont repéré une nouvelle galaxie satellite, la plus petite et la plus obscure jamais identifiée. Cette découverte permet de penser qu’il pourrait s’agir de l’une des galaxies les plus largement imprégnées de matière noire jamais observées.
Située dans la constellation de la Grande Ourse, à environ 30 000 années-lumière du Soleil, UMa3/U1 est une galaxie peu visible. À cause de sa luminosité extrêmement faible, de sa petite taille et de son nombre restreint d’étoiles, elle a longtemps échappé à la détection, malgré sa proximité relative. Les galaxies typiques, même les plus petites, comptent en effet des centaines de millions à des milliards d’étoiles, tandis qu’UMa3/U1 n’en comporte qu’une soixantaine. En fait, il existe des amas d’étoiles dans notre propre galaxie qui renferment plus d’étoiles que cette galaxie naine.
Les galaxies traditionnelles ont également des diamètres beaucoup plus grands, allant de milliers à des centaines de milliers d’années-lumière. En comparaison, la petite taille de UMa3/U1, qui mesure seulement dix années-lumière de diamètre, est plutôt caractéristique des amas ouverts, qui sont des regroupements d’étoiles moins liées gravitationnellement que celles constituant une galaxie.
La découverte de UMa3/U1 a été rendue possible grâce à une combinaison d’observations effectuées par le télescope Canada-France-Hawaï (CFHT) et le télescope Pan-STARRS à Hawaï, suivies d’une étude plus détaillée avec le spectrographe multi-objets à imagerie profonde (DEIMOS) de l’observatoire Keck. Ces observations ont confirmé que les étoiles de UMa3/U1 sont gravitationnellement liées, ce qui écarte ainsi l’hypothèse d’un simple regroupement d’étoiles aléatoire.
Bien que son nombre d’étoiles soit infime, UMa3/U1 intrigue les astronomes en raison de sa composition inhabituelle. Avec une masse équivalente à seulement seize fois celle du Soleil, cette galaxie est en effet bien en deçà des standards galactiques. Cependant, sa faible masse stellaire est contrebalancée par la présence probable de matière noire.
Selon la théorie cosmologique Lambda Cold Dark Matter (CDM), les galaxies naines comme UMa3/U1 sont entourées de vastes halos de matière noire, ce qui contribue à maintenir leur intégrité malgré leur faible masse stellaire.
Dans le cas de UMa3/U1, la présence de matière noire serait essentielle pour expliquer sa survie en tant qu’entité galactique distincte. Bien que sa masse stellaire soit relativement faible, les observations indiquent en effet que les étoiles de cette galaxie se déplacent ensemble de manière cohérente, ce qui suggère une cohésion gravitationnelle. Or, cette cohésion serait difficile à expliquer sans l’influence significative de la matière noire, qui contribue à maintenir les étoiles liées au sein de la galaxie malgré les forces de marée exercées par la Voie lactée environnante.
Ainsi, bien que UMa3/U1 puisse sembler insignifiante en termes de masse stellaire, cette galaxie fournit un laboratoire naturel pour sonder les interactions entre la matière ordinaire et la matière noire, éclairant ainsi notre compréhension de la structure à grande échelle de l’Univers.
Malgré les nombreuses questions soulevées par UMa3/U1, une chose est claire : cette découverte ouvre de nouvelles voies de recherche et de réflexion pour les astronomes du monde entier. Les observations futures, notamment avec le télescope Keck, pourraient fournir des indices supplémentaires sur la véritable nature de cette énigmatique galaxie.
Qu’elle soit le vestige d’un système stellaire mourant ou la représentante d’une nouvelle classe de galaxies, UMa3/U1 continuera longtemps à intriguer.
Les détails de l’étude sont publiés dans The Astrophysical Journal. On en trouve ci-dessous les références et l’abstract.
Sources
[Submitted on 16 Nov 2023 (v1), last revised 24 Feb 2024 (this version, v2)]
Ursa Major III/UNIONS 1: the darkest galaxy ever discovered?
The recently discovered stellar system Ursa Major III/UNIONS 1 (UMa3/U1) is the faintest known Milky Way satellite to date. With a stellar mass of 16+6−5M⊙ and a half-light radius of 3±1pc, it is either the darkest galaxy ever discovered or the faintest self-gravitating star cluster known to orbit the Galaxy. Its line-of-sight velocity dispersion suggests the presence of dark matter, although current measurements are inconclusive because of the unknown contribution to the dispersion of potential binary stars. We use N-body simulations to show that, if self-gravitating, the system could not survive in the Milky Way tidal field for much longer than a single orbit (roughly 0.4Gyr), which strongly suggests that the system is stabilized by the presence of large amounts of dark matter. If UMa3/U1 formed at the center of a ~109M⊙ cuspy LCDM halo, its velocity dispersion would be predicted to be of order ~1km/s. This is roughly consistent with the current estimate, which, neglecting binaries, places σlos in the range 1 to 4km/s. Because of its dense cusp, such a halo should be able to survive the Milky Way tidal field, keeping UMa3/U1 relatively unscathed until the present time. This implies that UMa3/U1 is plausibly the faintest and densest dwarf galaxy satellite of the Milky Way, with important implications for alternative dark matter models and for the minimum halo mass threshold for luminous galaxy formation in the LCDM cosmology. Our results call for multi-epoch high-resolution spectroscopic follow-up to confirm the dark matter content of this extraordinary system.
La glace de mer qui entoure le continent antarctique a atteint durant ces trois dernières années marquées par une fonte ininterrompue le niveau le plus bas jamais enregistré. S’agit-il d’une évolution irréversible résultant du réchauffement climatique ?
Le niveau de la glace antarctique variait jusqu’ici d’une façon difficile à modéliser, compte tenu de la difficulté à évaluer les facteurs dont il dépend. Il a souvent décru d’une année sur l’autre, quitte à remonter ensuite, en fonction notamment de l’importance des chutes de neige se produisant les années précédentes sur le continent.
Mais aujourd’hui les bas niveaux semblent devoir survenir chaque année. Le niveau de la glace n’a même pas remonté durant l’hiver antarctique précédent. Si ce niveau ne change pas dans les mois prochains, tous les chercheurs y verront la marque d’un réchauffement irréversible identique à celui attendu dans l’hémisphère Nord. Ils en concluront que leurs modèles statistiques ne fonctionnent plus.
Une difficulté de prévision tient au fait que les observations satellitaires du pôle sud sont récentes, les premières remontant à 1979. Tout laisse penser que les données relatives au réchauffement s’ajoutent à celles découlant de la variabilité climatique saisonnière.
Il reste que si les anciennes glaces permanente fondent définitivement, les conséquences sur tous les écosystèmes actuels seront considérables. La glace de mer apporte des aliments à tous les êtres vivants dans l’Antarctique, depuis les planctons jusqu’aux baleines. Par ailleurs elle protège les côtes des effets destructeurs des vagues de tempête.
Un dernier effet important du réchauffement de l’Antarctique doit être évoqué. Il diminuera les très importants courants d’eau froide et dense s’écoulant du continent quand celui-ci se réchauffe et qui y ajoutent de la fraicheur . Ralentir cette circulation ou la bloquer pourrait avoir partout des effets dévastateurs pour le climat et la vie marine.
Adapté de Fears grow over Antartic ice loss James Dinneen NewScientist 23 March 2024
De quoi serait faite la matière noire dont la cosmologie découvre chaque jour les effets, notamment l’équilibre gravitationnel des amas de galaxies, mais qui n’a jamais pu être mise en évidence? Précédemment les WIMP avaient paru pouvoir jouer ce rôle. Mais il est apparu qu’il n’en était rien.
Récemment une équipe de chercheurs de l’université de Hong Kong, dirigée par Amruth Alfred, a jugé possible d’observer la matière noire à partir d’un de ces effets supposés, dit gravitational lensing ou lentilles gravitationnelles. L’effet se produit quant un corps céleste massif, tel qu’ un amas de galaxies, infléchit suffisamment l’espace temps autour de lui pour courber la lumière comme au travers de lentilles cosmologiques. Celles-ci permettent d’agrandir l’image qui en est reçu.
Or les axions sont supposées être des particules si légères qu’elles se comporteraient comme des ondes et non comme des particules . Il en résulte que si une galaxie proche était entourée d’un halo d’axions, celui-ci permettrait d’observer les galaxies plus lointaines comme grandies au travers d’un télescope.
C’est bien ce qui se passe comme le relate l’article dont on trouva ci-dessous les références et l’abstract. Ceci n’est pas la preuve définitive de l’existence des axions supposées être les particules de matière noire recherchées. Mais les récentes expériences vont dans le bon sens. Ceci n’exclut pas l’existence d’autres types de particules de matière noire. Les recherches se poursuivront.
Référence
Article
Published: 20 April 2023
Einstein rings modulated by wavelike dark matter from anomalies in gravitationally lensed images
Unveiling the true nature of dark matter, which manifests itself only through gravity, is one of the principal quests in physics. Leading candidates for dark matter are weakly interacting massive particles or ultralight bosons (axions), at opposite extremes in mass scales, that have been postulated by competing theories to solve deficiencies in the Standard Model of particle physics. Whereas dark matter weakly interacting massive particles behave like discrete particles (ϱDM), quantum interference between dark matter axions is manifested as waves (ψDM). Here, we show that gravitational lensing leaves signatures in multiply lensed images of background galaxies that reveal whether the foreground lensing galaxy inhabits a ϱDM or ψDM halo. Whereas ϱDM lens models leave well documented anomalies between the predicted and observed brightnesses and positions of multiply lensed images, ψDM lens models correctly predict the level of anomalies remaining with ϱDM lens models. More challengingly, when subjected to a battery of tests for reproducing the quadruply lensed triplet images in the system HS 0810+2554, ψDM is able to reproduce all aspects of this system whereas ϱDM often fails. The ability of ψDM to resolve lensing anomalies even in demanding cases such as HS 0810+2554, together with its success in reproducing other astrophysical observations, tilt the balance toward new physics invoking axions.
La suppression du Service militaire obligatoire en France a pris effet avec la loi no 97-1019 du 28 octobre 1997. En 2001, la conscription est arrêtée au profit d’un « parcours citoyen » pour les jeunes, hommes et femmes, à partir de leur seizième anniversaire. Le service national est remplacé par un service volontaire pour une durée variant de un à cinq ans.
Aujourd’hui beaucoup de citoyens parmi lesquels nous nous plaçons, pensent qu’un SMO doit être rétabli d’urgence en France et pour une durée d’au moins un an et demi. Nous examinerons rapidement ci-dessous les raisons et les modalités d’un tel rétablissement.
Les nouvelles perspectives de conflit en Europe l’impose. Après un demi-siècle de paix relative, la vision d’une guerre dite de moyenne à forte intensité menaçant dorénavant l’Europe se précise. Au sein de celle-ci la France sera particulièrement ciblée car elle incarne des valeurs radicalement à l’opposé de celles des ennemis potentiels. Elle doit donc se préparer, non à attaquer mais à se défendre. Pour cela elle a besoin de forces armées performantes. Il est certain que si l’armée française comporte trop de jeunes recrues convaincus qu’ils doivent se battre pour intérêts qui ne sont pas les leurs, elle aura du mal à conserver l’unité qui doit être la sienne, en France comme sur les théâtres extérieurs
De telles forces armées ne se limiteront pas à des professionnels. Elles devront reposer sur des contributions de toute la nation. Les besoins se feront particulièrement sentir dans le domaine des nouvelles armes de haute technologie. Celles-ci ne devront pas être réservées à des spécialistes. Comme dans le domaine civil, chaque combattant devra apprendre à s’en servir et à participer à leur développement. Il devra y être préparé par un SMO suffisamment long et équipé permettant aux recrues d’acquérir le minimum de formation initiale nécessaire.
L’armée française devra donner aux filles et aux femmes les mêmes compétences et les mêmes emplois ou perspectives de carrière qu’aux hommes. On en est loin aujourd’hui où une domination masculine héritée du passé continue à s’imposer. Ceci ne devra plus être le cas et chaque garçon devra l’admettre. Parallèlement aucune femme devra renoncer à l’imposer, en premier lieu à l’encadrement.
Il faudra faire partager aux recrues et aux militaires en activité un minimum de valeurs communes. Comme aujourd’hui, chacun devra demeurer libre de ses choix philosophiques, politiques ou religieux. Néanmoins il faudra combattre ce que l’on nomme trop mollement aujourd’hui le séparatisme : se persuader par exemple qu’adopter les valeurs et les modes de vie des Français est incompatible avec ce qui caractérise une petite minorité de musulmans. Ceux-ci devraient en conséquence les généraliser dans les parties de la France où ils se sont imposés par la force et la drogue, notamment dans les « quartiers » d’un certain nombre de villes.
Les dauphins, formant la famille des delphinidés, sont des mammifères. Comme les baleines et les marsouins, ils se sont adaptés à la vie dans l’eau et ont perdu leur faculté de se déplacer à terre. Leurs ancêtres sont entrés dans l’eau il y a environ 50 millions d’années. Il y a des signes révélateurs qui montrent que le dauphin a des origines terrestres. Le fait qu’il ait besoin de remonter à la surface pour prendre de l’air est le facteur dominant.Ce faisant les dauphins ont acquis ce que l’on nomme trois super-sens Ceux-ci ont remplacé les sens dont leurs prédécesseurs dans l’évolution se servaient sur terre et dont ils n’avaient plus usage, la vue, l’ouïe et l’odorat. On les nomme perception magnétique, perception électrique et écholocation.
La perception magnétique fut mise en évidence chez les dauphins en 1981. A cette date des chercheurs américains ont découvert chez des dauphins échoués des fragments de magnétite connectés à des neurones cervicaux . En 1985, on a pu montrer que les échouages de cétacés se produisaient généralement dans des zones maritimes où le champ magnétique de la Terre était faible, ce qui leur faisait perdre leurs repaires. Dans la marine aujourd’hui, ce sont des échos sondeurs ou sonars qui jouent ce rôle en faisant appel aux retours d’émissions sonores.
Le terme de perception électrique découle du fait que lorsque les poissons se déplacent, leurs muscles et leurs squelettes émettent de faibles champs électriques. Certains prédateurs sont capables de percevoir leurs proies via ces champs. C’est le cas des dauphins.
Chez eux cette propriété a été mise en évidence en 2012. Des structures connues comme hairless vibrissal cryptsont été découverte s sur le rostre des dauphins dits de Guyane. Elles servent d’électro-récepteurs, capables de capter les émissions électriques de leurs proies
Le sens le plus étudié chez les dauphins est l’ echolocation ou localisation acoustique. Les dauphins produisent des séquences de « cliks » provenant de ce que l’on nomme des « lèvres phoniques » , l’équivalent de leurs narines. Ces lèvres sont directionnelles, orientées vers l ‘avant. Quant des cliks renconrent des obstacles, ils retournent vers la mâchoire inférieure du dauphin où ils sont analysés. Grace à ce dispositif, les dauphins peuvent non seulement éviter les obstacles mais connaitre la taille et la densité d’éventuelles proies La portée de ces sondeurs phoniques semble atteindre au moins 75 m.
Beaucoup de physiciens considèrent aujourd’hui que seule une théorie quantique de la gravité pourrait résoudre les actuelles contradictions entre la Théorie de la gravité einstenienne et les divers postulats de la mécanique quantique apparues dans les années trente du siècle dernier. Seule elle pourrait aider à résoudre les questions découlant du concept de matière noire. Mais d’autres de leurs collègues considèrent qu’il faudrait beaucoup de travail encore pour qu’une théorie de la gravité post-quantique soit utilisable .
L’on admet qu’une substance appelée « matière noire » constitue environ 85% de la matière dont est faite l’univers visible.. Cependant l’existence de cette matière noire n’a jamais pu être mise en évidence malgré des années de recherche. Sa présence a été déduite d’observations cosmologique montrant que d’innombrables galaxies tournent plus vite qu’elles n’auraient du le faire dans le cadre de la théorie de la gravité, ou selon les fluctuations d’une radiation dite CMB (Cosmic Microwave Background) datant du Big Bang qui ne peuvent seulement être explicables par la matière dont nous observons la présence dans l’univers.
Aujourd’hui deux cosmologistes de l’University London, Jonathan Oppeinheim et Andrea Russo considèrent que seule la nouvelle explication de la gravité qu’ils ont mise au point peut expliquer la rotation des galaxies sans obliger de faire appel à la matière noire. Pour eux les actuelles hypothèses relatives à la gravité quantique sont incapables de le faire.
Dans leur propre théorie, dite « post quantum gravity », la matière reste fidèle aux principes de la mécanique quantique, mais l’espace-temps reste non quantique, ou classique. Il peut varier au hasard mais de plus en plus faiblement au fur et à mesure que l’univers évolue.
Aujourd’hui, ils présentent deux avancées scientifiques importantes. La première est un test visant à montrer que leur hypothèse est valable à toutes les échelles de l’univers, depuis le quantique jusqu’au cosmique. Toute théorie de la gravité devrait le passer avec succès.
La seconde est un calcul montrant comment la gravité devrait se manifester, depuis les échelles quantiques jusqu’aux bras extérieurs des galaxies. Ce calcul fait appel à des outils mathématiques empruntés à la mécanique quantique. Ils montrent que les forces gravitationnelles agissant loin des centres des galaxies sont identiques à celles s’exerçant aux frontières de ces galaxies.
Ces considérations intéressent d’abord les hypothèses pour lesquelles la matière noire serait réelle. Mais elles devraient rester valables dans la théorie dite MOND (Modified Newtonian Dynamics). Celle-ci améliore les mathématiques intéressant la vitesse de rotation des galaxies sans faire allusion à la matière noire.
One of the obstacles to reconciling quantum theory with general relativity, is constructing a theory which is both consistent with observation, and and gives finite answers at high energy, so that the theory holds at arbitrarily short distances. Quantum field theory achieves this through the process of renormalisation, but famously, perturbative quantum gravity fails to be renormalisable. Recently, an alternative to quantum gravity has been proposed, in which the geometry of spacetime is taken to be classical rather than quantum, while still being coupled to quantum matter fields. This can be done consistently, provided that the dynamics is fundamentally stochastic. Here, we show that this theory is renormalisable in the gravitational degrees of freedom. We do so via the path integral formulation by relating the classical-quantum action to that of quadratic gravity. Because the action induces stochastic dynamics of spacetime, rather than deterministic evolution of a quantum field, the theory is able to remain renormalisable, while being free of tachyons and negative norm ghosts. The scale invariant and asymptotically free theory appears to be favoured through considerations of complete positivity. The results presented here have a number of implications for inflation, CMB data, and experiments to test the quantum nature of spacetime. They also point to a possible resolution of the black hole singularity.
Nous rééditons ici un article de BBC News dont le moins que l’on puisse dire est qu’il est visionnaire. A une époque où la préparation d’une troisième guerre mondiale est présentée comme inéluctable; il est urgent de rappeler que la construction d’un nouvel accélérateur de particules beaucoup plus puissant que l’actuel Large Hadron Collider permettrait sans doute de répondre à des questions fondamentales sur l’univers jusque ici restées sans réponse
Un gigantesque brise-atomes pour trouver les 95 % manquants de l’Univers
Article information
Author,Par Pallab Ghosh et Kate Stephens
Role,BBC News, Cern, près de Genève
6 février 2024
Les chercheurs du plus grand accélérateur de particules du monde, en Suisse, ont soumis des propositions pour un nouveau supercollisionneur, beaucoup plus grand.
L’objectif est de découvrir de nouvelles particules qui révolutionneraient la physique et permettraient de mieux comprendre le fonctionnement de l’Univers.
S’il est approuvé, il sera trois fois plus grand que la machine géante actuelle.
Mais son coût de 17 milliards de livres sterling a fait sourciller certains, un critique qualifiant les dépenses d' »inconsidérées ».
Cet argent – qui ne représente que le coût initial de la construction – proviendrait des pays membres de l’Organisation européenne pour la recherche nucléaire (Cern), dont le Royaume-Uni, et certains experts s’interrogent sur le bien-fondé économique d’une telle démarche.
La plus grande réussite du Grand collisionneur de hadrons (LHC) a été la détection d’une nouvelle particule, le boson de Higgs, en 2012. Mais depuis lors, son ambition de traquer deux saints graals de la physique – la matière noire et l’énergie noire – s’est révélée insaisissable et certains chercheurs pensent qu’il existe des solutions moins coûteuses.
La nouvelle machine s’appelle le Future Circular Collider (FCC). Le directeur général du Cern, le professeur Fabiola Gianotti, a déclaré à BBC News que, si le projet est approuvé, il s’agira d’une « belle machine ».
« C’est un outil qui permettra à l’humanité de faire d’énormes progrès pour répondre aux questions de physique fondamentale concernant notre connaissance de l’univers. Et pour ce faire, nous avons besoin d’un instrument plus puissant pour répondre à ces questions », a-t-elle déclaré.
Le LHC est un tunnel souterrain circulaire de 27 km de circonférence. Il accélère l’intérieur des atomes (hadrons) dans le sens des aiguilles d’une montre et dans le sens inverse à des vitesses proches de celle de la lumière et, à certains moments, les fait entrer en collision plus violemment que n’importe quel autre broyeur d’atomes au monde.
Les particules subatomiques plus petites qui résultent des collisions aident les scientifiques à comprendre de quoi sont faits les atomes et comment ils interagissent les uns avec les autres.
S’appuyer sur une découverte révolutionnaire
La détection du boson de Higgs par le supercollisionneur, il y a plus de dix ans, a été une véritable révolution.
L’existence d’un élément constitutif qui donne leur forme à toutes les autres particules de l’Univers a été prédite en 1964 par le physicien britannique Peter Higgs, mais n’a été découverte au LHC qu’en 2012. Il s’agit de la dernière pièce du puzzle de la théorie actuelle de la physique subatomique, appelée modèle standard.
Il est proposé de construire le grand FCC en deux étapes. La première commencera à fonctionner au milieu des années 2040 et fera entrer en collision des électrons. On espère que l’augmentation de l’énergie produira un grand nombre de particules de Higgs que les scientifiques pourront étudier en détail.
La deuxième phase débutera dans les années 2070 et nécessitera des aimants plus puissants, si avancés qu’ils n’ont pas encore été inventés. Au lieu d’électrons, des protons plus lourds seront utilisés pour la recherche de nouvelles particules.
Le FCC aura une circonférence près de trois fois supérieure à celle du LHC, soit 91 km, et sera deux fois plus profond. Il doit être plus profond pour éviter que les radiations plus fortes créées par les énergies plus élevées n’atteignent la surface.
Alors pourquoi ont-ils besoin d’un collisionneur de hadrons encore plus grand ?
Parce que le LHC, dont la construction a coûté 3,75 milliards de livres sterling et qui a commencé à fonctionner en 2008, n’a pas encore réussi à trouver les particules qui permettraient d’expliquer 95 % du cosmos.
Les scientifiques sont toujours à la recherche de deux grandes inconnues : une force appelée énergie noire, qui agit comme le contraire de la gravité et éloigne les objets de l’Univers tels que les galaxies NDLR responsable de l’expansion de l’univers L’autre est la matière noire, qui ne peut être détectée mais dont la présence est ressentie par la gravité.
Il nous manque quelque chose d’important », nous dit le professeur Gianotti.
Selon elle, la FCC est nécessaire car la découverte de ces particules sombres permettrait d’élaborer une nouvelle théorie plus complète sur le fonctionnement de l’Univers.
Il y a plus de 20 ans, de nombreux chercheurs du Cern avaient prédit que le LHC trouverait ces mystérieuses particules. Cela n’a pas été le cas.
Les critiques, comme le Dr Sabine Hossenfelder de l’Institut d’études avancées de Francfort, affirment qu’il n’y a aucune garantie de succès pour le nouveau collisionneur.
La physique des particules est un domaine de recherche qui est vaste et bien financé pour des raisons historiques, puisqu’il s’est développé à partir de la physique nucléaire.
Un ancien conseiller scientifique en chef du gouvernement britannique, le professeur Sir David King, a déclaré à BBC News qu’il pensait que dépenser 17 milliards de livres sterling pour le projet serait « imprudent ».
Alors que le monde est confronté à des menaces liées à l’urgence climatique, ne serait-il pas plus sage de canaliser ces fonds de recherche vers des efforts visant à créer un avenir gérable ?
Légende image,Des faisceaux de particules sont accélérés à l’intérieur du tube bleu situé sous la frontière franco-suisse.
Les physiciens des particules eux-mêmes se demandent si un collisionneur circulaire géant est la meilleure option.
Le professeur Aidan Robson, de l’université de Glasgow, a déclaré à la BBC qu’un collisionneur construit en ligne droite serait moins cher.
« Il y a trois avantages principaux. Tout d’abord, une machine linéaire pourrait être construite étape par étape. Deuxièmement, le profil des coûts serait assez différent – la phase initiale coûterait donc moins cher – et troisièmement, le tunnel est plus court, ce qui permettrait d’aller plus vite », a-t-il déclaré.
Mais le FCC est l’option préférée du Cern, qui est en train d’évaluer les réactions à sa proposition de la part de ses 70 pays membres, qui devront payer pour la nouvelle machine.
Récemment, une équipe d’astronomes a découvert un superamas particulièrement impressionnant, baptisé Superamas Einasto, en l’honneur de l’astrophysicien estonien Jaan Einasto. Située à environ trois milliards d’années-lumière de la Terre, la structure est d’une taille et d’une masse stupéfiantes. En effet, il contient une masse équivalente à environ 26 quadrillions de soleils. En comparaison, le superamas dans lequel est située la Voie lactée, celui de la Vierge, est nettement plus modeste et concentre une masse équivalente à environ 10^15 (un quadrillion) de fois la masse du Soleil.
Toutefois, le Superamas Einasto n’est pas seul dans cet état. Cette découverte s’inscrit dans une série de 662 nouveaux superamas de galaxies, chacun représentant une considérable concentration de matière dans l’Univers. Ces structures massives offrent aux astronomes une opportunité sans précédent d’étudier la formation et l’évolution des galaxies à grande échelle.
L’analyse de ces structures révèle notamment des caractéristiques sur la manière dont les galaxies se rassemblent au sein de ces ensembles cosmiques. Par exemple, les chercheurs ont observé que les amas de galaxies à l’intérieur des superamas sont plus massifs que ceux situés à l’extérieur. Cette observation suggère que les galaxies évoluent différemment en fonction de leur environnement cosmique, ce qui pourrait avoir des implications profondes pour notre compréhension de la formation des galaxies. De plus, ces structures cosmiques offrent un aperçu unique de ladistribution de la matière noire dans l’Univers.
Bien que cette forme de matière reste invisible aux observations directes, son influence gravitationnelle peut en effet être détectée. En étudiant la façon dont la matière noire interagit avec la matière visible au sein des superamas, les astronomes espèrent alors en apprendre davantage sur la nature et la distribution de cette mystérieuse substance cosmique.
Enfin, ces structures à grande échelle de galaxies pourraient également nous aider àpercer le mystère de l’énergie noire, cette force mystérieuse qui semble accélérer l’expansion de l’univers. Les observations récentes suggèrent notamment que les galaxies au sein des superamas se séparent à des vitesses d’expansion plus faibles que prévu, ce qui pourrait indiquer une influence de l’énergie noire. Comprendre comment cette force agit au sein des superamas pourrait ainsi fournir des indices cruciaux sur la nature de l’énergie noire et son impact sur la structure à grande échelle de l’Univers.
Superclusters are the largest massive structures in the cosmic web, on tens to hundreds of megaparsec scales. They are the largest assembly of galaxy clusters in the Universe. Apart from a few detailed studies of such structures, their evolutionary mechanism is still an open question. In order to address and answer the relevant questions, a statistically significant, large catalog of superclusters covering a wide range of redshifts and sky areas is essential. Here, we present a large catalog of 662 superclusters identified using a modified friends-of-friends algorithm applied on the WHL (Wen–Han–Liu) cluster catalog within a redshift range of 0.05 ≤ z ≤ 0.42. We name the most massive supercluster at z ∼ 0.25 as the Einasto Supercluster. We find that the median mass of superclusters is ∼5.8 × 1015M⊙ and the median size ∼65 Mpc. We find that the supercluster environment slightly affects the growth of clusters. We compare the properties of the observed superclusters with the mock superclusters extracted from the Horizon Run 4 cosmological simulation. The properties of the superclusters in the mocks and observations are in broad agreement. We find that the density contrast of a supercluster is correlated with its maximum extent with a power-law index, α ∼ −2. The phase-space distribution of mock superclusters shows that, on average, ∼90% of part of a supercluster has a gravitational influence on its constituents. We also show the mock halos’ average number density and peculiar velocity profiles in and around the superclusters.
La technologie unique de faible visibilité radar utilisée dans le développement des chasseurs russes Su-57 de cinquième génération s’est avérée efficace. Au cours de sept mois d’essais à partir de l’Aéroport de Moscou, puis dans des conditions de combat réel, ces chasseurs n’ont jamais été détectés par les radars et les systèmes de défense aérienne des pays de l’OTAN.
Grâce à l’utilisation d’une technologie spéciale de faible visibilité radar, les chasseurs Su-57 diffusent le rayonnement du radar, ce qui les rend pratiquement invisibles.
AviaproУникальная технология малой радиолокационной заметности, использованная при разработке истребителей пятого поколения Су-57, оказалась совершенно эффективной. Как выяснилось, за семь месяцев проводимой СВО, российские истребители пятого поколения ни разу не были замечены средствами радиолокации и ПВО стран НАТО.Благодаря использованию особой технологии малой радиолокационной заметности, истребители Су-57 рассеивают излучение от РЛС, что делает их фактически невидимыми. Первоначально это было доказано в рамках проводимых испытаний, а теперь, судя по всему, это также доказано и успешным применением этих самолётов в реальных условиях, фактически, против передовых средств РЛС и ПВО противника.Технология «стелс», реализованная в ходе разработки истребителя пятого поколения Су-57, кардинальным образом отличается от той, которая используется в американских военных самолётах. В связи с этим, США и страны НАТО не могут использовать имеющиеся у них средства обнаружения для отслеживания российских истребителей.Учитывая такие возможности российских самолётов, специалисты полагают, что интерес к ним кардинальным образом возрастёт среди российских партнёров, тем более, что имеются неофициальные данные о том, что партию этих самолётов уже заказал Алжир. Пробнее на: https://avia.pro/news/rossiyskie-istrebiteli-su-57-poluchili-unikalnuyu-zashchitu-ot-radarov-nato