08/05/2025 Les planètes errantes 

Ces planètes (anglais rogue planet) sont très nombreuses, au moins 20 fois plus que les étoiles. Selon une analyse de 2023 faite par David Bennett du NASA’s Goddard Space Flight Center de Maryland , il pourrait s’en trouver des trillions dans notre galaxie.

Il ne s’agirait pas de planètes orbitant autour d’étoiles, comme le fait la Terre autour du soleil. Mais leur existence n’est pas incompatible avec les théories concernant la formation des planètes. On ne peut les observer directement. On ne peut le faire qu’en étudiant la façon dont elles dévient la lumière provenant d’étoiles plus éloignées ou d’autres galaxies.

Il apparaît que certaines de ces planètes ont le diamètre de la Terre. Elles auraient pris naissance du fait de l’effondrement sous la gravité de nuages de gaz orbitant autour de certaines étoiles jeunes. Mais elles auraient pu aussi se former au sein de systèmes solaires avant d’en être éjectées par des collisions internes, collisions dont la force les auraient projetées à l’extérieur.

Concernant la Voie Lactée, on sait que certaines étoiles errantes se sont formées autour de paires d’étoiles orbitant l’une autour de l’autre, que l’on nomme des systèmes binaires Dans ce cas la plus grosse finit par éjecter la plus petite.

Sans étoiles pour les échauffer, les planètes errantes sont glaciales. La seule source de chaleur provient de ce que l’on nomme les vents thermaux générés par la contraction de la planète alors qu’elle se refroidit, le cryovolcanisme sur Pluton. Cependant certaines planètes errantes peuvent d’avoir d’importants nuages d’hydrogène dans leur atmosphère. Celui-ct est un gaz à effet de serre dans les hautes pressions, pouvant réchauffer la planète, , comme l’a fait remarquer David Stevenson, du California Institute of Technology, Pasadena. Dans certains cas les planètes errantes pourraient avoir des temperatures de surface analogues aux températures terrestres du fait d’une désintégration radioactive interne

Des simulations ont même suggéré que certaines planètes errantes pourraient etre habitables sinon habitées, soit dans des océans restés liquides sous une épaisse banquise glacée, soit dans une atmosphère de surface constituée d’hydrogène.

07/05/2025 Douze articles du Newscientist à lire

Le Newscientist a récemment publié 12 articles (anglais), référencés ci-dessous. Des auteurs compétents y analysent des questions actuellement d’actualité dans le domaine des sciences et des technologies. Nous en recommandons la lecture.

What is thought and how does thinking manifest in the brain?

Why are there so many rogue planets and what do they look like?

How indefinite causality could lead us to a theory of quantum gravity

Why viewing cancer as an ecosystem could lead to better treatments

Quantum biology: New clues on how life might make use of weird physics

To rescue biodiversity, we need a better way to measure it

What neurodiversity means for psychiatrists and the people they help

What is artificial general intelligence, and is it a useful concept?

What are fractals and how can they help us understand the world?

Will we get to net zero fast enough, and how will the climate respond?

Quantum to cosmos: Why scale is vital to our understanding of reality

07/05/2025 Le Goby, robot miniature

La robotique de petit format, voire la robotique centimétrique (robot ne dépassant pas quelques centimètres) semble doté d’un grand avenir. Elle permettra d’envoyer dans des milieux inaccessibles des robots capables d’actions intelligentes impossibles à réaliser autrement. Ces robots seront contrôlables à distance par l’intermédiaire d’un opérateur humain désirant rester en liaison avec eux. Mais ils seront de plus en plus en mesure d’opérer de façon autonome, dans le cadre de programmes leur laissant une large gamme d’initiatives.

D’ores et déjà, la chirurgie dite téléchirurgie fait un large appel à eux, pour intervenir dans des endroits du corps inaccessibles de l’extérieur sans provoquer de graves mutilations. On trouve sur le site https://www.orca-chirurgie-ambulatoire-ars-idf.fr/ocr-les-types-de-robots/de nombreux exemples de telles opérations.

Mais les domaines d’intervention possibles ou souhaitables sont de plus en plus nombreux, dans le civil comme dans le miliaire. Il n’ y a pas nécessité de les évoquer ici.

Par contre on s’intéressera aux robots miniatures eux-mêmes, dont la technologie évolue de plus en plus rapidement, ce qui les rend capables d’opérer dans des milieux inaccessibles aux petits robots eux-mêmes. A titre d’exemple on présentera ici le Goby.

Le Goby

Conçu par une équipe texane, le Goby est un minuscule robot mobile doté d’une caméra embarquée. Facile à piloter à distance, et doté d’une technologie de pointe, il promet de nombreux usages inédite dans le monde miniature.

Le Goby est un robot de quelques centimètres seulement, contrôlable à distance via un tableau de bord. Il a été créé par des ingénieurs de la société Charmed Labs, basée à Austin au Texas.

Long de seulement 6 centimètres sur 3,8 centimètres de hauteur, il ne pèse que 45 grammes, soit le poids d’un petit briquet. Il adopte un design ingénieux, avec deux roues motorisées et une queue articulée soutenue par une petite balle. Cette dernière lui permet d’incliner son corps et d’orienter sa caméra de haut en bas. Elle lui sert aussi à se remettre droit dans le cas où il se retrouverait à l’envers.

Pour capter son environnement, le Goby peut utiliser une caméra OmniVision : le modèle OV2640 doté d’une résolution de 1 600 x 1 200 pixels. Il est également équipé de deux phares à LED et d’un capteur de lumière ambiante, le tout connecté à un microprocesseur relié à un logiciel de programmation. Enfin, un accéléromètre 3 axes et des capteurs kilométriques intégrés dans ses roues aident le robot à suivre sa position et son orientation.

Un robot contrôlable à distance

En plus de son design novateur, le Goby se veut également très simple d’utilisation. Il suffit de scanner un QR code https://www.unitag.io/fr/qrcode, pour accéder à une page web où il est possible non seulement de contrôler le robot avec des joysticks mais aussi de suivre les images de sa caméra. Aucun téléchargement d’application n’est nécessaire. Pour limiter la latence, le logiciel utilisé est basé sur un cryptage 128 bits.

Par ailleurs, toute personne où qu’elle soit, peut se voir confier la manipulation du robot, simplement avec l’URL de la page web. Au niveau de l’autonomie, le Goby est capable de poursuivre ses explorations pendant environ 1,5 heure avec une seule charge de sa batterie lithium-ion. Lorsque la batterie commence à faiblir, il se range automatiquement sur sa station de chargement.

Comme on le devine, il n’est pas envisagé de l’utiliser déjà en chirurgie interne.

05/05/2025 Le DOGE. Faire des coupes partout pour alléger le déficit


Tel est l’objectif que s’est fixé le DOGE, le département de l’efficacité gouvernementale, qui a vu le jour grâce à un décret signé par le président américain le jour de son retour à la Maison-Blanche, le 20 janvier 2025.

À sa tête : Elon Musk, le patron de Tesla, X ou encore SpaceX. dont l’on annonce le départ même s’il dément l’information. Il a promis de réduire les dépenses fédérales de 2 000 milliards de dollars.  Trois mois après le retour du camp républicain à la présidence des États-Unis, le palmarès du DOGE est déjà bien chargé. 75 000 employés fédéraux ont démissionné (ce qui est moins que ce qui était souhaité), 83 % des programmes de développement de l’USAID, l’Agence des États-Unis pour le développement international, ont été supprimés, et Elon Musk se vante régulièrement de couper arbitrairement des dépenses, afin de mettre fin à des services qu’il estime inutiles. Plusieurs services sont dans son collimateur, notamment sur le climat, l’éducation ou l’inclusivité.

Derrière ce massacre digne de Javier Milei (le président argentin a coupé 250 services et licencié 40 000 fonctionnaires un an après son investiture), se renforce un courant de pensée traditionnel chez les Républicains : celui des néoréactionnaires ou  NRx

NRx : un mouvement à l’origine d’une transformation des États-Unis

Le mouvement néoréactionnaire – dit NRx – envisage l’État comme « une gigantesque entreprise engluée dans son inefficacité parce que le personnel politique est enferré dans une mystique démocratique et dans une obsession de justice sociale », selon Arnaud Miranda, docteur en théorie politique. Selon ses suiveurs, le monde actuel serait contrôlé par « un groupe de gens de gauche, parmi lesquels des journalistes et des universitaires », explique Benjamin Noys, professeur de théorie critique à l’université de Chichester, n Angleterre. 

Les néoréactionnaires, qui sont convaincus que le mondeva mal, proposent d’en finir avec la démocratie et de « restructurer » le gouvernement comme une entreprise souveraine dont la direction serait confiée à un PDG. « Si vous n’êtes pas satisfaits du service proposé par ce gouvernement, vous n’avez qu’à vous en trouver un autre », précise Arnaud Miranda.

Curtis Yarvin envisage de mettre sur un piédestal les leaders de la tech, de laisser l’innovation suivre librement son cours, sans surveillance démocratique ni régulation, et d’enfermer les individus non productifs. Il s’agit, autrement dit, d’un projet techno-monarchiste puisque ceux qui seraient incapables de manier les technologies seraient mis au ban de la société. 

Quelques années avant la réélection de Donald Trump, Curtis Yarvin a imaginé un programme appelé « RAGE », ou Retire All Government Employees. Il vise à licencier tous les employés du gouvernement afin d’intensifier cette transition de système. Le DOGE d’Elon Musken serait une émanation

Le RAGE est devenu DOGE grâce à l’appui de figures controvéesées

Benjamin Noys souligne que les textes néoréactionnaires, en particulier le manifeste de Nick Land, s’appuient sur des thèses racistes. Ils contiendraient de nombreux points critiques à l’égard des afro-américains : « même s’ils nient leur racisme, ils affirment que tout est question de hiérarchies naturelles et d’intelligence ». Pour Nrx, il y a une hiérarchie dans les êtres humains.

Le sociologue Harrison Smith s’accorde avec le professeur sur ce point : « il convient de souligner que ceux qui défendent des opinions néoréactionnaires sont inévitablement des hommes blancs », parmi lesquels Peter Thiel, le co-fondateur de PayPal, le milliardaire Marc Andreessen qui a développé le premier navigateur web, Mosaic, ou encore le vice-président des États-Unis, J. D. Vance qui a déjà cité le travail de Curtis Yarvin pour expliquer ses valeurs politiques, tout en évoquant des idées de « dé-wokisation ».

Peter Thiel est un des grands acteurs de la droitisation de la Silicon Valley, à commencer par celle de son ex-partenaire Elon Musk. Il est un des rares milliardaires de la tech à avoir participé au premier mandat de Donald Trump, bien avant que le Républicain n’adhère aux idées au Yarvin. C’est sous son influence que le patron de Tesla a accepté d’endosser le rôle de CEO des États-Unis.

Quant à D Vance, le vice-président de Trump, il est bien plus impliqué que Donald Trump dans l’idéologie Nrx. Il est l’une des raisons de la radicalisation de la Maison-Blanche.

Source : Gage Skidmore

06/05/25 Un projet de centrale nucléaire chinoise sur la Lune

La Chine, déjà leader avec la France dans la construction de réacteurs nucléaires, prévoit désormais de construire une centrale nucléaire sur la Lune. Avec le projet Chang’e-8, elle envisage d’y installer une centrale électrique destinée à alimenter une base lunaire habitée : la Station Internationale de recherche lunaire (ILRS), un projet développé avec la Russie qui devrait voir le jour d’ici 2030.

L’objectif de l’ILRS est d’installer un laboratoire scientifique à la surface de la Lune et/ou en orbite autour de celle-ci. La station sera occupée périodiquement par des équipages. Annoncé en mars 2021, ce programme comprend une phase de reconnaissance jusqu’à 2025 regroupant les missions robotiques des deux pays déjà programmées et une phase de construction entre 2025 et 2035 destinée à mettre au point les technologies et mettre en place les équipements nécessaires aux équipages. C’est au cours de la troisième phase qu’auront lieu les séjours d’équipages à la surface de la Lune

L’approvisionnement en énergie de l’ILRS est l’un des grands thèmes de réflexion des chercheurs. D’après Interesting Engineering, l’énergie nucléaire semble être l’option la plus solide, bien que d’autres sources d’énergie soient envisagées. Mais il ne faut pas oublier que les conditions lunaires ne sont pas les mêmes que sur Terre. Pour cela, la Chine compte sur l’expertise russe en matière de technologies spatiales. Wu Weiren, concepteur en chef du programme d’exploration lunaire chinois, considère même que la Russie est « en tête du monde, devant les États-Unis » dans ce domaine.

Néanmoins, pendant que la Chine et la Russie avancent sur le projet ILRS, les États-Unis poursuivent leur propre retour sur la Lune via le programme Artemis. La Nasa prévoit d’y envoyer deux astronautes en 2027 et d’y construire une base durable. Celle-ci pourrait être alimentée par de vastes fermes solaires, bien que la piste du nucléaire ne soit pas écartée

.La Chine aux portes d’un nouveau chapitre de la conquête spatiale

Avec son projet Chang’e-8, la Chine semble vouloir se donner les moyens de ses ambitions. Dans la conquête spatiale, le pays est devenu un acteur incontournable, s’érigeant au même rang que les puissances établies depuis plusieurs décennies comme les États-Unis. Après être devenue en 2003 le troisième pays à envoyer un humain dans l’espace grâce à la mission Shenzhou 5, elle fut aussi la deuxième nation à faire atterrir un rover sur Mars

Si la Chine parvenait à construire une centrale nucléaire sur la Lune, elle pourrait transformer l’avenir de l’exploration spatiale. Cela ouvrirait la voie à des opérations spatiales à grande échelle, incluant la production d’énergie et le transport de marchandises. Comme ceux de la Nasa, les chercheurs chinois envisagent également la possibilité d’exploiter les ressources lunaires, notamment son régolithe riche en hélium-3, un isotope rare qui pourrait servir de combustible pour la fusion nucléaire.

Inutile de préciser que ces divers programmes alimenteront un besoin de lanceurs lourds récupérables dont les nations spatiales n’ont pas encore proposé de versions fiables. La française Arianespace devra absolument faire partie des partenaires crédibles.

05/05/2025 Il existe une forte probabilité qu’il existe une vie semblable à la vie terrestre dans les milliards de galaxies que l’on commence à identifier dans l’univers proche.

Un mécanisme universel serait alors en cause. Il serait proche de l’abiogenèse. Ce terme désigne l’apparition de la vie à partir de matière inanimée. Dans sa conception moderne il s’agit de l’apparition de micro-organismes primitifs (et certainement disparus aujourd’hui) à partir d’une matière organique préexistante et d’origine abiotique.

Les facteurs biotiques et abiotiques sont les deux facteurs essentiels qui façonnent l’écosystème. Les facteurs biotiques désignent l’ensemble des êtres vivants présents dans un écosystème, tandis que les facteurs abiotiques désignent tous les éléments non vivants, tels que les conditions physiques (température, pH, humidité, salinité, ensoleillement, etc.).

Le concept d’abiogenèse s’oppose aux théories de panspermie (selon lesquelles la vie sur Terre serait d’origine extraterrestre) ainsi qu’aux conceptions légendaires ou religieuses d’une création des êtres vivants par une puissance supérieure. Il est apparenté à la notion aristotélicienne de génération spontanée, à cette différence près que cette ancienne théorie supposait l’apparition spontanée d’organismes plus ou moins complexes dans des temps compatibles avec la durée d’une vie humaine.

La panspermie n’est pas impossible. Elle suppose le transport de formes de vie simplifiée à travers l’espace interplanétaire, venant de planètes où la vie serait déjà apparue et qui serait transportée par des astéroïdes résultant de collisions violentes entre planètes. Mais cette vie serait rare et déjà  brûlée en partie par une traversée qui l’exposerait à des rayonnements mortels. Par ailleurs la panspermie laisse ouverte la question des raisons pour laquelle la vie serait apparue dans la planète de départ

La difficulté de l’abiogenèse s’appliquant à une forme de vie compatible avec l’environnement terrestre est telle qu’elle a jamais été démontré. Par ailleurs tous les efforts pour créer à partit de composants physico-chimique une forme de vie artificielle, dite aussi parfois vie synthétique capable de se reproduire, de muter et éventuellement de coexister avec une vie biologique naturelle, ont échoué, qu’il s’agisse de bactéries, archées ou eucaryotes.

Certes, il faudrait recommencer, en y mettant les milliards de dollars consacrées à l’armement et à la vie artificielle, mais les perspectives ne sont pas favorables. L’humain refuse en fait de se donner un véritable remplaçant. Disons pour notre part qu’il serait encore temps d’essayer, plutôt que préparer une guerre nucléaire qui ferait des dizaines de millions de victimes.

05/05/2025 Il existe une forte probabilité qu’il existe une vie semblable à la vie terrestre dans les milliards de galaxies que l’on commence à identifier dans l’univers proche.

Un mécanisme universel serait alors en cause. Il serait proche de l’abiogenèse. Ce terme désigne l’apparition de la vie à partir de matière inanimée. Dans sa conception moderne il s’agit de l’apparition de micro-organismes primitifs (et probablement disparus aujourd’hui) à partir d’une matière organique préexistante et d’origine abiotique.

Les facteurs biotiques et abiotiques sont les deux facteurs essentiels qui façonnent l’écosystème. Les facteurs biotiques désignent l’ensemble des êtres vivants présents dans un écosystème, tandis que les facteurs abiotiques désignent tous les éléments non vivants, tels que les conditions physiques (température, pH, humidité, salinité, ensoleillement, etc.).

Le concept d’abiogenèse s’oppose aux théories de panspermie (selon lesquelles la vie sur Terre serait d’origine extraterrestre) ainsi qu’aux conceptions légendaires ou religieuses d’une création des êtres vivants par une puissance supérieure. Il est apparenté à la notion aristotélicienne de génération spontanée, à cette différence près que cette ancienne théorie supposait l’apparition spontanée d’organismes plus ou moins complexes dans des temps compatibles avec la durée d’une vie humaine.

La panspermie n’est pas impossible. Elle suppose le transport de formes de vie simplifiée à travers l’espace interplanétaire, venant de planètes où la vie serait déjà apparue. Elle serait epportée sur Terre par des astéroides résultant de collisions violentes entre planètes.

Mais cette vie serait rare et déjà  brûlée en partie par une traversée qui l’exposerait à des rayonnements mortels. Par ailleurs la panspermie laisse ouverte la question des raisons pour laquelle la vie serait apparue dans la planète de départ.

La difficulté de l’abiogenèse s’appliquant à une forme de vie compatible avec l’environnement terrestre est telle qu’elle a jamais été démontrée. Par ailleurs tous les efforts pour créer à partit de composants physico-chimique une forme de vie artificielle, dite aussi parfois vie synthétique capable de se reproduire, de muter et éventuellement de coexister avec une vie biologique naturelle, ont échoué, qu’il s’agisse de bactéries, archées ou eucaryotes.

Certes, il faudrait recommencer, en y mettant les milliards de dollars consacrées à l’armement et à la vie artificielle, mais les perspectives ne sont pas favorables. L’humain refuse en fait de se donner un véritable remplaçant. Disons pour notre part qu’il serait encore temps d’essayer, plutôt que préparer une guerre nucléaire qui ferait des dizaines de millions de victimes.

05/05/2025 CERN A propos de la LHCb collaboration (LHC beauty)

L’expérience LHCb (Large Hadron Collider beauty) explore les légères différences qui existent entre matière et antimatière grâce à l’étude d’un type de particule appelé « quark beauté » ou « quark b ».

Au lieu d’utiliser un détecteur fermé au niveau du point de collision, tel que ceux d’ATLAS et de CMS, l’expérience LHCb a recours à plusieurs sous-détecteurs conçus pour observer principalement les particules émises « à petits angles », vers l’avant, dans le sens du faisceau.  Le premier sous-détecteur est placé à proximité du point de collision ; les autres se suivent sur une longueur de 20 mètres.

Le LHC produit une grande variété de quarks, qui se désintègrent rapidement en d’autres particules. Pour intercepter les quarks b, la collaboration LHCb a mis au point des trajectographes mobiles perfectionnés et les a installés au plus près de la trajectoire des faisceaux dans le LHC.

Le détecteur de LHCb, qui pèse 5 600 tonnes, est constitué d’un spectromètre à petits angles et de détecteurs planaires. Long de 21 mètres, haut de 10 mètres et large de 13 mètres, il est installé à 100 mètres sous terre, à proximité de la commune de Ferney-Voltaire (France).  La collaboration LHCb compte plus de 1.565 scientifiques, ingénieurs et techniciens originaires de 20 pays (mars 2022)

https://home.cern/fr/science/experiments/lhcb

L’article ci-dessous donne un petit aperçu de son travail

Le premier tiers en a été traduit et résumé par nos soins ( JP.Baquiast, europe solidaire ) La suite est non traduite et non résumée

———————————————————

Le 20 janvier 2021 un petit groupe de physiciens attendait le résultat d’une mesure réalisée dans le cadre de l’expérience de physique des particules dite LHCb ou collision de protons produites au collisionneur Large Hadron Collider (LHC) du CERN.

La mesure concernait des particules subatomiques connues sous le nom de “beauty” ou “bottom” quarks. Si ces quarks se comportaient comme ils semblaient le faire, on aurait pu y voir l’influence d’une force encore inconnue, voire peut-être le besoin d’une nouvelle théorie des particules et des forces.

Malgré toutes ses qualités dans la description des forces de l’univers, le modèle standard des particules élémentaires avait des insuffisances. Ainsi il ne pouvait décrire la matière noire ou dark matter, dont le poids permet aux galaxies en rotation de conserver leur cohésion, ou l’énergie noire, dark energy, qui semble responsable de l’.expansion.u delà de cela, le modèle standard comporte un grand nombre de traits arbitaires qui nécessite des explications.

La saga des beauty quarks avait commencé à la mi-2000, quand Gudrun Hiller, une physicienne théoricienne travaillant à l’université de Munich, étudiait les flots de données résultants des expériences Belle au Japon et BaBar en Californie. Ces expériences produisaient des quarks Beauty en réalisant des collisions entre des électrons et leurs antiparticules, des positrons. Les quarks Beauty vivaient un court instant – environ un trillionième de seconde, avant de retomber parmi les autres particules.

Hiller était particulièrement intéressé par un phénomène extrêmement rare permettant à un beauty quark de se transformer en strange quark, le troisième des plus lourds types de quark. Ce faisant le quark émettait deu muons de charge opposé, le plus lourd des électrons. Le résultat de l’expérience serait comparé avec les prédictions du modèle standard. En cas de désaccord, l’on aurait la preuve de l’existence d’une nouvelle force.

Or l’expérience n’aboutit pas pour des raisons ne pouvant être décrite ici.

10 ans après, le Grand Collisionneur du CERN commença à produire des torrents de quark beauté . Alors une mesure suggéra que la production de quarks étranges et de muons survenait plus rarement que ne le suggérait le modèle standard.

Puis en 2013, la LHCb produisit un nouveau résultat montrant des vices dans l’analyse des mouvements respectifs des particules. En 2014, la LHCb montra de nouveaux désaccords entre les expériences et le modèle standard. Les Beauty quarks se dégradaient moins souvent en muons qu’en électrons. L’on estima que le phénomène ne correspondait pas à une découverte en physique des particules, mais plutot à une imprécisions dans les processus expérimentaux.

Pour la suite, voire

Still, when you combined the measurements of the muon-to-electron ratio, the angles and how often the decays happened, a coherent picture did seem to be emerging. Since then, almost every time a measurement has been updated with yet more beauty quark data, the deviations from theory have become stronger.

Almost, because there was one notable exception. When the Hiller-Krüger ratio was updated with more data in 2019, the measured value moved towards the standard model value. “We really thought we had it,” says Patel, who led the work. “We ended up feeling gutted.” So, when Patel and his colleagues met on Zoom in January 2021 to unveil a new measurement, emotions were running high.

“These anomalies could be the real deal”

University of Cambridge experimental physicist Paula Alvarez Cartelle pushed the button to reveal the result. The measured value of the ratio had stayed almost exactly the same, but the error on it had shrunk, creating an unmistakable tension with the standard model prediction. There was now less than a 1 in 1000 chance the discrepancy was a statistical fluke. Everyone on the call erupted. “There was an awful lot of swearing,” says Patel. However, the team also felt the weight of responsibility; they knew the result would create huge excitement. As Alvarez Cartelle puts it: “You don’t want to think, ‘I just broke the standard model’, but at the same time you’re a bit, ‘Oh shit!’.”

Anomalies come and go in particle physics, and no measurement of the muon-electron ratio on its own has yet crossed the threshold of statistical certainty for it to be regarded as a definitive discovery. But there is a coherency to what have become known as the “B anomalies” that has led a growing number of physicists to regard this as the real deal. “I’ve turned into a believer,” says Ben Allanach, a theorist at the University of Cambridge. “There’s always healthy scepticism, but the fact that it’s coming from lots of different angles and saying the same thing is pretty convincing.”

In which case, what could be causing these anomalies? Allanach has spent the past few years trying to figure that out. For him, the most promising candidate is a force carried by a hypothetical particle known as a Z prime. This would be very heavy, electrically neutral and, crucially, would interact with electrons and muons with different strengths. This could explain why beauty quarks decay into muons less often than to electrons – the Z prime is stopping them.

This could also explain one of the most mysterious, seemingly arbitrary features of the standard model: the fact that matter particles come in three “generations”. The first comprises the familiar particles that make up most ordinary matter: the electron, the electron neutrino and the up and down quarks. The second contains heavier copies of these particles: the muon, muon neutrino, charm and strange quarks. And the third generation is heavier still: the tau, tau neutrino, top (or “truth”) and beauty quarks. The existence of these generations has long been a puzzle, as has the peculiar fact that the masses of the matter particles vary so wildly, with the top quark being around 350,000 times heavier than the electron.

The different generations could be explained if the beauty quark anomalies are revealing the presence of a new force that acts almost exclusively on the third generation of particles. “The model I’m working on contains a symmetry which means that if you squint a bit, only the third generation is allowed to have a mass,” says Allanach – which would explain why these particles are so heavy.

The implications of this new force wouldn’t end there. In the second half of the 20th century, physicists discovered that the three forces of nature described by the standard model – the strong and weak forces and electromagnetism – could each be described using a mathematical symmetry. In the 1970s, there was a big push to bring all three forces together under a single bigger symmetry, to create a so-called grand unified theory, which promised to unify these forces and the matter particles into one elegant structure.

The problem was that the various grand unified theories predicted that protons should decay, while every experiment performed failed to see any sign of that. What’s more, the energies required to probe these theories are over a trillion times higher than even the LHC can achieve, meaning that the new particles they predict are well out of experimental reach. As a result, the quest to unify the forces and the matter particles has been stalled for decades.

The B anomalies appear to be resurrecting aspects of the old grand unified theories, but at far lower energies than anyone had expected. “What we’re doing is putting in a tiny bit of symmetry – it’s an element of a grand unified theory, but it’s only a little one,” says Allanach. He believes that the hints of a new force we are seeing at the moment could be a low-energy remnant of a much grander symmetry that only becomes apparent at very high energies. In other words, we might be catching a glimpse of the edge of a grand unified theory.

Hiller pioneered an alternative explanation for the B anomalies that goes further still – a particle known as a leptoquark. Again, a leptoquark would be the carrier of a new force. This force would transform quarks directly into electrons, muons and taus, collectively known as leptons – hence the particle’s name. Unlike Z prime models, leptoquark models also aim to explain a second set of anomalies that have appeared in another type of beauty quark decay, this time to charm quarks, while pointing to a unified theory that’s much closer at hand in terms of energy scales.

The colour violet

Isidori is a proponent of leptoquarks. He says the models represent a “change of paradigm” compared with the old grand unified theories. While the old ones looked for symmetries that unified all three forces, the modern leptoquark models instead unify leptons with quarks.

They do this by differing from the standard model in a crucial way. In the standard model, the equivalent of electric charge for the strong force, which acts on quarks, is known as “colour”. It comes in three varieties, red, green and blue. Leptons don’t carry colour, so they don’t feel the strong force. In leptoquark models, however, there is a fourth colour, sometimes labelled violet, which arises from an enlarged version of the symmetry that describes the strong force. This larger symmetry then breaks down into the usual three-colour strong force with red, green and blue quarks, while the leftover fourth colour is carried by the leptons. Leptons are really just differently coloured quarks.

This is heady stuff – but the challenge now is to prove that these anomalies are the real deal. Isidori, for one, is convinced. “For me, the evidence is already very solid,” he says. But not everyone agrees. Although a series of unfortunate statistical flukes now seems like a very unlikely explanation given the range of different anomalies, the looming spectre is the chance of a conspiracy of missed biases, either in the theoretical predictions or the experimental measurements, or perhaps both.

New measurements are already under way at LHCb to confirm the picture and test for hidden experimental effects. In October 2021, my University of Cambridge colleague John Smeaton and I performed a new measurement of the Hiller-Krüger ratio using an unexplored part of the LHCb data sample. It revealed very similar effects to those seen in March, strengthening the case for a new force.

Meanwhile, the growing excitement around the anomalies has awoken the two big beasts of the LHC, the ATLAS and CMS experiments. In 2012, they discovered the Higgs boson, the long-predicted standard-model particle that gives all other fundamental particles their mass, and are now beginning to think about ways they might spy the predicted Z primes or leptoquarks. In Japan, the Belle II experiment is gradually accumulating data that will allow it to independently check several of LHCb’s results. Later this year, an upgraded LHCb will begin collecting data at a far higher rate than before, allowing us to seek out even rarer decays where the anomalies could be even stronger.

If the emerging picture is confirmed, we are in for a revolution in our understanding of the constituents of nature that could reveal a deeper structure beneath the standard model, while perhaps even giving us a handle on the nature of dark matter or the strange properties of the Higgs boson. If that happens, it will be the greatest discovery in fundamental physics since the standard model was put together. The stakes are high and the game is on.







































L’article ci-dessous donne un petit aperçu de son
travailLe premier tiers en a été traduit et résumé par
nos soins ( europe solidaire ) Pour la suite, non traduite et non
résumés,

Le 20 janvier 2021 un petit
groupe de physiciens attendait le résultat d’une mesure réalisée
dans le cadrede
l’expérience de physique des particules dite LHCb ou collision de
protons produites au collisionneur Large
Hadron Collider (LHC)

du CERN. La mesure concernait des
particules subatomiques connues sous le nom de “beauty” ou
“bottom” quarks. Si ces quarks se comportaient comme ils
semblaient le faire, on aurait pu y voir l’influence d’une force
encore inconnue, voire peut-être le besoin d’une nouvelle théorie
des particules et des forces.

Malgré toutes ses qualités
dans la description des forces de l’univers, le modèle standard des
particules élémentaires avait des insuffisances. Ainsi il ne
pouvait décrire la matière
noire ou dark matter
, dont le poids permet aux galaxies en
rotation de conserver leur cohésion, ou l’énergie
noire, dark energy
, qui semble responsable de l’. Au delà de
cela, le modèle standard comporte un grand nombre de traits
arbitaires qui nécessite des explications.La saga des beauty quarks
avait commencé à la mi-2000, quand Gudrun
Hiller
, une physicienne théoricienne travaillant à l’université
de Munich, étudiait les flots de données résultants des
expériences Belle au Japon
et BaBar en Californie. Ces
expériences produisaient dexpansion
accélérée de l’univers
es quarks Beauty en réalisant des
collisions entre des électrons et leurs antiparticules, des
positrons. Les quarks Beauty vivaient un court instant – environ un
trillioniè de secondes, avant de retomber parmi les autres
particules.Hiller était particulièrement intéressé par un
phénomène extrémement rare permettant à un beauty quark de se
transformer en strange quark, le troisième des plus lourds types de
quark. Ce faisant le quark émettait deu muons de charge opposé, le
plus lourd des électrons. Le résultat de l’expérience serait
comparé avec les prédictions du modèle standard. En cas de
désaccord, l’on aurait la preuve de l’existence d’une
nouvelle force
. Or l’expérience n’aboutit pas pour des raisons
ne pouvant être décrite ici.10 ans après, le Grand Collisionneur du CERN
commença à produire des torrents de quark beauté . Alors une
mesure suggéra que la production de quarks étranges et de muons

survenait plus rarement que ne le suggérait le modèle standard.
Puis en 2013, la LHCb produisit un nouveau résultat montrant des
vices dans l’analyse des mouvements respectifs des particules. En
2014, la LHCb montra de nouveaux désaccords entre les expériences
et le modèle standard. Les Beauty quarks se dégradaient moins
souvent en muons qu’en électrons. L’on jugeau que le phénomène ne
corespondait pas à une découverte en physique des particules, mais
plutt à une imprécisions dans les processus expériementaux.

Pour la suite, voire
Still, when you combined the measurements of the
muon-to-electron ratio, the angles and how often the decays happened,
a coherent picture did seem to be emerging. Since then, almost every
time a measurement has been updated with yet more beauty quark data,
the deviations from theory have become stronger.Almost, because there was one notable exception. When
the Hiller-Krüger ratio was updated with more data in 2019, the
measured value moved towards the standard model value. “We really
thought we had it,” says Patel, who led the work. “We ended up
feeling gutted.” So, when Patel and his colleagues met on Zoom in
January 2021 to unveil a new measurement, emotions were running high.
These anomalies could be the real deal”University of Cambridge experimental physicist Paula
Alvarez Cartelle pushed the button to reveal the result
. The
measured value of the ratio had stayed almost exactly the same, but
the error on it had shrunk, creating an unmistakable tension with the
standard model prediction. There was now less than a 1 in 1000 chance
the discrepancy was a statistical fluke. Everyone on the call
erupted. “There was an awful lot of swearing,” says Patel.
However, the team also felt the weight of responsibility; they knew
the result would create huge excitement. As Alvarez Cartelle puts it:
“You don’t want to think, ‘I just broke the standard model’,
but at the same time you’re a bit, ‘Oh shit!’.”

Anomalies
come and go in particle physics
, and no measurement of the
muon-electron ratio on its own has yet crossed the threshold of
statistical certainty for it to be regarded as a definitive
discovery. But there is a coherency to what have become known as the
“B anomalies” that has led a growing number of physicists to
regard this as the real deal. “I’ve turned into a believer,”
says Ben Allanach,
a theorist at the University of Cambridge. “There’s always
healthy scepticism, but the fact that it’s coming from lots of
different angles and saying the same thing is pretty convincing.”In which case, what could be causing these anomalies?
Allanach has spent the past few years trying to figure that out. For
him, the most promising candidate is a force carried by a
hypothetical particle known as a Z prime. This would be very heavy,
electrically neutral and, crucially, would interact with electrons
and muons with different strengths. This could explain why beauty
quarks decay into muons less often than to electrons – the Z prime
is stopping them.This could also explain one of the most mysterious,
seemingly arbitrary features of the standard model: the fact that
matter particles come in three “generations”. The first comprises
the familiar particles that make up most ordinary matter: the
electron, the electron neutrino and the up and down quarks. The
second contains heavier copies of these particles: the muon, muon
neutrino, charm and strange quarks. And the third generation is
heavier still: the tau, tau neutrino, top (or “truth”) and beauty
quarks. The existence of these generations has long been a puzzle, as
has the peculiar fact that the masses of the matter particles vary so
wildly, with the top quark being around 350,000 times heavier than
the electron.The different generations could be explained if the
beauty quark anomalies are revealing the presence of a new force that
acts almost exclusively on the third generation of particles. “The
model I’m working on contains a symmetry which means that if you
squint a bit, only the third generation is allowed to have a mass,”
says Allanach – which would explain why these particles are so
heavy.The implications of this new force wouldn’t end
there. In the second half of the 20th century, physicists discovered
that the three forces of nature described by the standard model –
the strong
and weak
forces
and electromagnetism
– could each be described using a mathematical symmetry. In the
1970s, there was a big push to bring all three forces together under
a single bigger symmetry, to create a so-called grand unified theory,
which promised to unify these forces and the matter particles into
one elegant structure.The problem was that the various grand unified
theories predicted that protons should decay, while every experiment
performed failed to see any sign of that. What’s more, the energies
required to probe these theories are over a trillion times higher
than even the LHC can achieve, meaning that the new particles they
predict are well out of experimental reach. As a result, the quest to
unify the forces and the matter particles has been stalled for
decades.The B anomalies appear to be resurrecting aspects of
the old grand unified theories, but at far lower energies than anyone
had expected. “What we’re doing is putting in a tiny bit of
symmetry – it’s an element of a grand unified theory, but it’s
only a little one,” says Allanach. He believes that the hints of a
new force we are seeing at the moment could be a low-energy remnant
of a much grander symmetry that only becomes apparent at very high
energies. In other words, we might be catching a glimpse of the edge
of a grand unified theory.Hiller pioneered an alternative explanation for the B
anomalies that goes further still – a particle known as a
leptoquark. Again, a leptoquark would be the carrier of a new force.
This force would transform quarks directly into electrons, muons and
taus, collectively known as leptons – hence the particle’s name.
Unlike Z prime models, leptoquark models also aim to explain a second
set of anomalies that have appeared in another type of beauty quark
decay, this time to charm quarks, while pointing to a unified theory
that’s much closer at hand in terms of energy scales.

The colour violet

Isidori is a proponent of leptoquarks. He says the
models represent a “change of paradigm” compared with the old
grand unified theories. While the old ones looked for symmetries that
unified all three forces, the modern leptoquark models instead unify
leptons with quarks.They do this by differing from the standard model in
a crucial way. In the standard model, the equivalent of electric
charge for the strong force, which acts on quarks, is known as
“colour”. It comes in three varieties, red, green and blue.
Leptons don’t carry colour, so they don’t feel the strong force.
In leptoquark models, however, there is a fourth colour, sometimes
labelled violet, which arises from an enlarged version of the
symmetry that describes the strong force. This larger symmetry then
breaks down into the usual three-colour strong force with red, green
and blue quarks, while the leftover fourth colour is carried by the
leptons. Leptons are really just differently coloured quarks.

This is heady stuff – but the challenge now is to
prove that these anomalies are
the
real deal. Isidori, for one, is convinced. “For me, the evidence is
already very solid,” he says. But not everyone agrees. Although a
series of unfortunate statistical flukes now seems like a very
unlikely explanation given the range of different anomalies, the
looming spectre is the chance of a conspiracy of missed biases,
either in the theoretical predictions or the experimental
measurements, or perhaps both.New measurements are already
under way at LHCb to confirm the picture and test for hidden
experimental effects. In October 2021, my University of Cambridge
colleague John Smeaton and I performed a
new measurement of the Hiller-Krüger ratio using an unexplored part
of the LHCb data sample
. It revealed very similar effects to
those seen in March, strengthening the case for a new force.Meanwhile, the growing
excitement around the anomalies has awoken the two big beasts of the
LHC, the ATLAS and CMS experiments. In 2012, they discovered
the Higgs boson
, the long-predicted standard-model particle that
gives all other fundamental particles their mass, and are now
beginning to think about ways they might spy the predicted Z primes
or leptoquarks. In Japan, the Belle II experiment is gradually
accumulating data that will allow it to independently check several
of LHCb’s results. Later this year, an upgraded LHCb will begin
collecting data at a far higher rate than before, allowing us to seek
out even rarer decays where the anomalies could be even stronger.If the emerging picture is
confirmed, we are in for a revolution in our understanding of the
constituents of nature that could reveal a deeper structure beneath
the standard model, while perhaps even giving us a handle on the
nature of dark matter or the strange
properties of the Higgs boson. If that happens
, it will be the
greatest discovery in fundamental physics since the standard model
was put together. The stakes are high and the game is on
.




















04/05/2025 Qu’est ce que la conscience?

Les débats ne cessent pas sur ce sujet difficile. Encore évitent-ils d’aborder celui de la conscience chez les animaux, animaux domestiques ou animaux sauvages.

Concernant l’homme, l’hypothèse dominante aujourd’hui est celle de l’IIT, integrated information theory (IIT). Celle-ci cherche à fournir un cadre théorique expliquant pourquoi certains systèmes physiques (comme le cerveau humain) sont conscients, pourquoi ils ressentent des choses particulières quand ils sont dans certains états, ou encore ce qu’il faudrait pour que d’autres systèmes physiques soient eux aussi conscients. En principe, une fois la théorie mature et bien testée, elle pourrait être capable de déterminer si un système physique est conscient, à quel point il l’est, et quelles expériences subjectives il en a.

Dans la théorie de l’information intégrée, la conscience d’un système (ce qu’il ressent subjectivement) est supposée correspondre aux propriétés causales (ce qu’il est objectivement). Analyser l’ensemble des rôles causaux permettrait donc de connaître l’état de conscience d’un système

L’ITTe a été proposée par Giulio Tononi en 2004. La dernière version (la « 3.0 ») est sortie en 2014. Cela dit, la théorie continue d’être développée. Malgré un intérêt significatif, la théorie de l’information intégrée reste controversée, avec une partie de la communauté scientifique la traitant de pseudo-science infalsifiable Wikipedia

A coté de l’ITT, une autre théorie à la faveur de certains scientifiques. Il s’agit de la GNWT ou global neuronal workspace theory soit en francais théorie de l’espace de travail global (TETG), Il s’agit d’une théorie de la conscience introduite par Bernard Baars en 1988. Elle a notamment été développée pour pouvoir expliquer de nombreux processus cognitifs, conscients ou non. La conscience y sert d’espace centralisé d’échange d’informations. Elle permet à des réseaux cérébraux spécialisés d’interagir, améliorant l’intégration et l’adaptabilité.

Cette théorie dresse une analogie entre l’esprit et un théâtre, les pensées conscientes étant comme des entités illuminées au milieu de la scène principale. Le cerveau contient beaucoup de processus et de modules spécialisés qui opèrent en parallèle, et qui en général ne sont pas conscients. L’attention agit comme un projecteur, amenant une partie de cette activité inconsciente à la conscience. L’espace de travail global est un centre fonctionnel d’intégration de l’information, lui permettant d’être diffusée à travers les modules.

Lorsque des entrées sensorielles, des souvenirs ou des représentations internes reçoivent de l’attention, ils deviennent une partie de l’espace de travail global et peuvent alors être manipulés par divers processus. Les éléments étant en concurrence pour recevoir de l’attention, ceux qui gagnent sont admis dans l’espace de travail global, permettant à leurs informations d’être distribuées et coordonnées à travers l’ensemble du système cognitif.

Dans le « théâtre de la conscience », un projecteur d’attention sélective éclaire une zone lumineuse sur la scène, révélant le contenu de la conscience. Derrière les coulisses, dans l’obscurité, se trouvent le réalisateur (les processus exécutifs), les machinistes, les scénaristes, les décorateurs et autres. Ils façonnent les activités visibles dans la zone éclairée, mais sont eux-mêmes invisibles.

La théorie de l’espace de travail global fait encore l’objet de recherches et de débats.

Discussion

L’ITT identifie cinq caractères essentiels de la conscience et se demande quelle sorte de système physique pourrait en être le siège. Elle s oppose que la conscience apparaît lorsque des éléments d’un système physique échangent des informations sur un base mathématique quantifiable par une mesure dite phi. Plus l’information est intégrée, plus la valeur de phi est élevée et plus le système est conscient. Selon l’ITT ce sont les aires postérieures du cerveau qui disposent des propriétés neuroanatomiques nécessaires pour produire les valeurs de phi les plus élevées

GNWT, au contraire suggère que la compétition pour l’attention, et donc pour la conscience, est la plus élevée dans le thalamus. Si un signal se révèle plus important qu’un autre, le thalamus joue un rôle de coordinateur des informations sensorielles allant au cortex . Il transmet ce signal à travers le cerveau, qui en devient conscient . La transmission est liée au cortex préfrontal.

Tests

Pour tester ces deux hypothèses, Lucia Melloni du Max Planck Institute for Empirical Aesthetics (Allemagne) ont scanné les cerveaux de 256 personnes alors qu’elles regardaient des objets tels que des visage ou des lettres, en cherchant à identifier certains de leurs aspects. L’étude, qui a pris sept ans, a examiné quelles régions du cerveau traitaient les images, combien de temps elles étaient actives et de quelle façon leur activité était synchronisée.

Les résultats furent présentés dans une conférence en 2023, puis publés dans Nature (références ci-dessous). Ils ne furent pas jugés concluants. La même année 124 neuroscientifiques publièrent une lettre ouverte qualifiant toute l’opération de pseudoscience.

Chris Frith de l’ University of London, co-author de ces crittques, rappela qu’en permanence lui et ses confrère s’interrogeaient sur les états de conscience de leurs patients et ne pouvaient se satisfaire de réponses aussi ambiguës.

Référence

Nature DOI: 10.1038/s41586-025-08888-1

Abstract

Different theories explain how subjective experience arises from brain activity1,2. These theories have independently accrued evidence, but have not been directly compared3. Here we present an open science adversarial collaboration directly juxtaposing integrated information theory (IIT)4,5 and global neuronal workspace theory (GNWT)6,7,8,9,10 via a theory-neutral consortium11,12,13. The theory proponents and the consortium developed and preregistered the experimental design, divergent predictions, expected outcomes and interpretation thereof12. Human participants (n = 256) viewed suprathreshold stimuli for variable durations while neural activity was measured with functional magnetic resonance imaging, magnetoencephalography and intracranial electroencephalography. We found information about conscious content in visual, ventrotemporal and inferior frontal cortex, with sustained responses in occipital and lateral temporal cortex reflecting stimulus duration, and content-specific synchronization between frontal and early visual areas. These results align with some predictions of IIT and GNWT, while substantially challenging key tenets of both theories. For IIT, a lack of sustained synchronization within the posterior cortex contradicts the claim that network connectivity specifies consciousness. GNWT is challenged by the general lack of ignition at stimulus offset and limited representation of certain conscious dimensions in the prefrontal cortex. These challenges extend to other theories of consciousness that share some of the predictions tested here14,15,16,17. Beyond challenging the theories, we present an alternative approach to advance cognitive neuroscience through principled, theory-driven, collaborative research and highlight the need for a quantitative framework for systematic theory testing and building.

03/05/2025 Françoise Combes, astrophysicienne

Françoise Combes, née le 12 août 1952 à Montpellier, est une astrophysicienne française, titulaire de la chaire « Galaxies et cosmologie » au Collège de France et présidente de l’Académie des sciences pour 2025-2026. Wikipédia

La meilleure façon de faire connaissance avec elle est de lire et relire le compte-rendu d’un entretien qu’elle avait eu en février-mars 2021 avec le Journal La Recherche

La Recherche Au début du XXe siècle, les astronomes s’écharpaient sur la nature des « nébuleuses » que l’on voyait dans le ciel. On sait maintenant que ces nébuleuses sont des galaxies réparties dans l’Univers et que nous sommes dans l’une d’elles : la Voie lactée. Notre Galaxie est-elle typique de celles que l’on rencontre dans l’Univers ?

Françoise Combes – La Voie lactée est assez typique des galaxies spirales, ces rassemblements de centaines de milliards d’étoiles que l’on trouve par milliards dans l’Univers. Seulement, c’est une galaxie spirale qui a un tout petit bulbe central, notamment quand on le compare à celui de notre voisine Andromède [située à 2 millions d’années-lumière, NDLR], qui est également une galaxie de forme spirale. L’origine de ces deux bulbes est très différente, sans doute parce que l’histoire de ces deux galaxies diffère elle aussi : les données astrométriques du satellite Gaia ont ainsi montré que la dernière fusion majeure qu’a subie la Voie lactée remonte à 10 milliards d’années et que, depuis, elle a été relativement tranquille, elle n’a avalé [sic] que quelques petites galaxies satellites qui passaient par là. Du coup, son bulbe résulte de sa propre dynamique interne.

C’est différent pour Andromède ?

Oui, Andromède est une galaxie avec des bras et des boucles de marée bien visibles, qui dépassent de tous les côtés. Cela signifie qu’elle a connu un passé beaucoup plus agité que la Voie lactée, au cours duquel elle a subi de nombreuses fusions conséquentes. Quant à son gros bulbe central, il résulte des collisions passées. Un phénomène analogue à ce qui se passe lorsque deux galaxies spirales coalescent. Lorsque ce type d’événement se produit, la galaxie résultante prend une forme elliptique et les orbites des étoiles en son sein sont très mélangées, désordonnées ; il n’y a plus de rotation, il n’y a plus de moment cinétique non plus.

Notre Galaxie contient une structure d’étoiles particulière qu’on appelle une barre. C’est une structure qui s’ajoute à la forme spirale ?

En effet. Il s’agit d’un rassemblement d’étoiles qui sont alignées, prenant la forme d’une barre. La plupart des galaxies spirales en possèdent : on les appelle des spirales barrées. C’est quelque chose dont on ne se doutait pas au début, car ces barres ne sont pas toujours faciles à voir directement, dans la lumière visible. De plus, il s’agit de structures dynamiques qui apparaissent et disparaissent au cours de la vie des galaxies. Ainsi, il a été établi que 20 % des galaxies spirales lointaines possèdent des barres, contre 65 % pour les galaxies plus locales (1). Pour notre Galaxie, dès 1975, l’Américain W. L. Peters III avait vuqu’il y avait des perturbations de vitesse du gaz autour de son centre (2). Or si les mouvements étaient circulaires, comme c’est le cas en l’absence de barre, il n’y aurait aucune perturbation de vitesse, et même une vitesse Doppler (*) nulle dans la direction du centre galactique. Peters en avait conclu la présence d’une barre, mais que l’on ne voyait pas directement. Il a fallu attendre l’arrivée du satellite Cobe, dans les années 1990, pour parvenir à la repérer. Conçu pour étudier le rayonnement du fond diffus cosmologique (*), Cobe a cartographié le ciel dans le domaine micro-onde et dans l’infrarouge. Or ce type de rayonnement perce à travers les poussières abondantes du centre de la Galaxie, ce qui a permis de mettre en évidence la barre de la Voie lactée.

Qu’il s’agisse de barre ou de structure spirale, la gravitation est-elle bien la force dominante qui dessine les galaxies ?

Oui, pour les galaxies et pour la structure de l’Univers, la gravitation est bien l’interaction principale. Autrefois, les astrophysiciens ne pensaient pas pouvoir expliquer la présence de longs filaments dépassant de certaines galaxies avec uniquement des interactions gravitationnelles, avec des forces de marée. On estimait qu’il fallait invoquer la présence de tubes de champs magnétiques. Or c’était une erreur. À la fin des années 1970, lorsque les simulations numériques ont commencé à se développer, on a découvert qu’il était possible de former des filaments – ce que l’on appelle aujourd’hui des queues de marée – uniquement avec la gravité. Et pas seulement les queues de marée, mais aussi les bras spiraux et les barres. C’est pourquoi une grande partie de nos travaux actuels concerne la dynamique gravitationnelle.

La vision que l’on avait des galaxies et de leur évolution a-t-elle beaucoup changé grâce aux travaux sur la dynamique et grâce aux observations ? La classification d’Edwin Hubble sur la forme des galaxies est-elle toujours de mise ?

La classification qu’Hubble avait formulée en 1936 est toujours juste : il y a des galaxies elliptiques, des galaxies spirales, des galaxies en forme de lentille (« lenticulaires »), des galaxies de forme irrégulière. Ces formes très variées étaient déjà observées dans la première moitié du XXe siècle. En ce sens, la classification est toujours valide. Ce qui a changé, c’est le sens de l’évolution entre ce qu’on pensait être des galaxies précoces ou tardives. Naguère, il semblait que les premières galaxies étaient des galaxies simples, de forme elliptique, avec uniquement des étoiles, sans poussière et sans gaz, et qu’ensuite elles devenaient des galaxies évoluées, spirales, avec du gaz. En réalité, c’est exactement le contraire : les premières galaxies à se former sont des galaxies spirales qui, ensuite, à force de collisions, prennent des formes elliptiques. Mais des spirales peuvent se reformer ensuite.

Comment s’est-on aperçu de cela ?

Aujourd’hui, nous avons à observer des millions de galaxies. Il n’est plus possible de les regarder de manière individuelle comme auparavant : il faut effectuer des statistiques sur un grand nombre de données et d’objets à classifier, ce qui nécessite de faire appel à l’apprentissage statistique (machine learning). La procédure consiste à mettre un point pour chacune des galaxies dans un diagramme qui montre la relation entre sa couleur et sa magnitude absolue (*), c’est-à-dire la luminosité ou la masse de la galaxie – ce que nous appelons un diagramme magnitude-couleur. Dans ce diagramme, on voit apparaître des séquences. Il existe une séquence rouge, celle des galaxies elliptiques : toutes les étoiles y sont rouges, vieilles, il n’y a pas de gaz. Et puis il y a une séquence bleue, celle des galaxies spirales, qui ont beaucoup de gaz et beaucoup d’étoiles jeunes. Et, en regardant bien, c’est la classification d’Hubble qui transparaît.

Comment l’évolution des galaxies s’inscrit-elle dans l’évolution de l’Univers ?

Non seulement on observe des millions et des millions de galaxies mais, grâce aux puissants instruments disponibles, comme les télescopes spatiaux Hubble ou Spitzer (infrarouge), il est possible d’étudier des galaxies très lointaines et donc très jeunes. Celles-ci se sont formées dans les premiers âges de l’Univers. Pour rappel, l’Univers est issu d’un Big Bang qui s’est produit il y a environ 13,7 milliards d’années et qui a été suivi par une grande expansion qui a encore cours aujourd’hui. Dans cette histoire, l’évolution des galaxies dépend beaucoup de l’environnement initial : selon qu’il est peu dense, c’est-à-dire avec des vides, ou au contraire surdense, l’évolution ne se fera pas à la même vitesse. Par exemple, dans un environnement initial surdense, rempli d’amas de galaxies, cela va très vite : quelques centaines de millions d’années après le Big Bang, il existe déjà des galaxies très évoluées, elliptiques, massives et rouges. À l’inverse, les galaxies isolées – les galaxies de champ, comme on les appelle – ont une évolution lente. Il faut parfois plus de 13 milliards d’années pour que deux galaxies spirales fusionnent et se transformenten une galaxie elliptique.

La mystérieuse matière noire joue-t-elle un rôle dans cette évolution ?

Oui, la matière noire – dont on ignore la nature, mais dont on perçoit les effets gravitationnels à toutes les échelles – est essentielle. Les modèles d’évolution de l’Univers ont absolument besoin de matière noire pour fonctionner : sans elle, les fluctuations initiales de matière, qui sont les germes à partir desquels les forces gravitationnelles façonnent l’Univers, ne sont pas suffisantes pour former des galaxies.

Comment s’est établi le consensus sur l’existence de cette matière noire ?

L’histoire a commencé en 1933, il y a plus de quatre-vingts ans, lorsque l’astronome suisse Fritz Zwicky a évoqué la possibilité d’une matière gravitante non lumineuse pour expliquer la dynamique des galaxies dans les amas. À l’époque, personne ne se fiait à tout ce qu’il disait – il a aussi fait beaucoup d’erreurs et ne croyait notamment pas au Big Bang. Du coup, il a fallu du temps pour que son point de vue soit pris au sérieux. Mais, petit à petit, à mesure de l’accumulation des observations, l’idée s’est imposée de la nécessité de cette matière. De quoi pouvait-elle être constituée ? Jusqu’en 1985, on pensait qu’il s’agissait de matière ordinaire, mais non visible – après tout, il existe de la matière qui n’émet pas de lumière. Et puis, les expériences d’observation du fond diffus cosmologique – cette relique de l’Univers lorsqu’il est devenu transparent, 380 000 ans après le Big Bang – ont mis en évidence le fait que les fluctuations de ce fond étaient si petites qu’avec uniquement de la matière ordinaire – des baryons, essentiellement des protons et des neutrons qui constituent les noyaux atomiques que nous connaissons -, il n’était pas possible de former des galaxies.

Pour quelles raisons ?

Lorsqu’il y a un léger contraste de densité en un endroit du cosmos – un surplus quelque part -, ce contraste ne peut croître sous l’effet de la gravité que très lentement, à cause de l’expansion de l’Univers. Entre le moment où les baryons se libèrent des photons, 380 000 ans après le Big Bang, et aujourd’hui, ce contraste ne peut croître que d’un facteur 1 000. Pour former une structure, il faudrait alors des fluctuations primordiales de densité de l’ordre de 10 -3. Or les cartographies du fond diffus cosmologique établies à partir de 1985, grâce à l’expérience Boomerang (des ballons envoyés dans la stratosphère, à environ 37 km d’altitude, pour étudier ce rayonnement), faisaient apparaître des fluctuations initiales de l’ordre de 10 -5. Dès lors, il fallait absolument invoquer une matière qui n’interagisse pas avec les photons et qui permette une concentration de matière, un effondrement, bien avant la matière ordinaire. C’est là qu’est devenu évident le fait que la matière noire ne pouvait pas être baryonique, mais au contraire qu’il devait s’agir de matière exotique : une matière qui n’interagit pas avec la lumière – elle devrait donc plutôt s’appeler « matière transparente ».

Dans ce cadre, quel est le scénario d’évolution de l’Univers à partir du Big Bang ?

Jusqu’à 380 000 ans après le Big Bang, le moment où matière ordinaire et lumière sont couplées, la matière noire dite « froide » est indépendante de la lumière et peut commencer à s’effondrer. À l’inverse, dans cette époque prédécouplage, la matière ordinaire, visible, est en train d’être diffusée par la lumière et ne peut pas se rassembler. La matière noire se concentre donc et forme ce que l’on appelle des « halos noirs », qui sont les premières structures effondrées dans l’Univers. Ensuite, une fois que le découplage a lieu, la matière ordinaire se libère de la lumière en quelque sorte et peut s’effondrer à son tour. Le gaz tombe dans ces halos noirs et forme des étoiles.

Sur les questions de dynamique des galaxies et de l’évolution de l’Univers, ce sont les progrès en calcul numérique qui ont permis de mieux comprendre les choses ?

Indubitablement. Les progrès ont suivi de près la croissance de la puissance de calcul disponible. Sur la partie qui concerne la dynamique des galaxies, dans un article de 1964, les astronomes américains Chia-Chiao Lin et Frank Shu suggèrent que les structures spirales se forment par une instabilité gravitationnelle (3). Mais la difficulté est qu’il est impossible de faire des calculs analytiques – à la main – à moins que la spirale ne soit très enroulée. Ce qui n’est pas ce qui est observé la plupart du temps. Et les premières simulations numériques, à la fin des années 1970 et au début des années 1980, ont montré qu’il n’y avait pas toujours de spirale, mais toujours une barre. Or une barre, c’est le contraire d’une structure enroulée ! Cela a donné un coup de frein à ces théories analytiques qui ne permettent pas de reproduire les observations, et c’est le numérique qui a pris le dessus.

Les simulations numériques permettent-elles de décrire tout ce qu’on voit ?

Tout ? Non, loin de là. Mais il est possible de décrire beaucoup de choses et bien mieux qu’avant. Par exemple, on retrace la formation des galaxies spirales, les interactions entre les galaxies, leur collision, la formation des galaxies elliptiques, etc. Mais il manque la résolution à petite échelle, de sorte que, si les aspects gravitationnels sont bien maîtrisés, l’influence de la formation des étoiles, celle de la rétroaction due aux étoiles, de l’apport d’énergie quand une étoile explose (une supernova) ne sont pas accessibles directement dans les simulations. Bref, tout ce qui se passe à une échelle inférieure à la grille de résolution de la simulation nous échappe encore. Du coup, on a des « recettes » pour prendre ces phénomènes en compte, mais ce n’est pas entièrement compris et cela dépend du type de simulation.

Il faudrait améliorer les recettes, mieux comprendre ces ingrédients ?

Oui. Et faire varier beaucoup de paramètres. C’est là que l’apprentissage statistique, cette technique de l’intelligence artificielle en plein essor en astronomie, a du bon, parce que l’on peut construire des bibliothèques considérables. L’une des limites est qu’il y a énormément de variables, il faut donc une quantité colossale de simulations. Le temps de calcul en est une autre : pour les très grosses simulations cosmologiques, avec des milliards de particules, il n’est possible d’en réaliser qu’une par an typiquement ! Mais cela donne déjà de très beaux résultats, comme ceux du projet Horizon.

Dans ces simulations, on doit mettre de la matière noire pour expliquer la dynamique. Pourtant, les astronomes ne savent toujours pas ce qu’est cette matière noire, ni la détecter, alors qu’elle est recherchée avec constance depuis des décennies. Cela peut-il remettre en question son existence ?

Pas forcément. Mais cela renforce le camp de ceux qui, afin de résoudre le problème, plaident pour une modification des lois de la gravité plutôt que pour l’existence d’une particule. En résumé, d’un côté, la matière noire froide expliquerait très bien les données cosmologiques, mais moins bien les données galactiques et, surtout, elle reste introuvable. De l’autre, la modification de la gravité, comme ce que propose la théorie Mond, expliquerait très bien les observations galactiques, mais pas celles de nature cosmologique. Avec le problème de la matière noire, l’astronomie vit une crise. Et nul ne peut dire d’où viendra la solution.

Outre ce questionnement sur la matière noire, comment voyez-vous l’évolution de l’astronomie dans les prochaines décennies ?

Je suis très impatiente de voir les résultats des grands observatoires qui sont prévus, notamment le James-Webb Space Telescope, successeur attendu du télescope spatial Hubble [programmé pour être lancé en 2021, NDLR]. Spécifiquement pour les galaxies, j’attends aussi beaucoup du satellite européen Euclid, qui devrait être lancé en 2022. Au lieu de faire des observations en champ profond sur de petites zones du ciel, comme l’a fait le télescope Hubble, Euclid va sonder les profondeurs du ciel sur l’intégralité de la voûte céleste. Ainsi, on va passer de 3 millions de galaxies pour lesquelles on a des informations précises à plus de 1 milliard ! Faire toutes ces observations prendra six ans à partir de sa mise en service. Donc, en 2028, si tout se passe bien, les astronomes disposeront d’un ensemble formidable de nouvelles données cosmologiques.

Qu’espère-t-on obtenir avec cette manne ?

On cherchera notamment à observer les caractéristiques d’un phénomène appelé « oscillations acoustiques baryoniques », qui permet de donner une échelle de distance à différents âges de l’Univers. Avec cette « règle cosmique », il sera possible de mesurer précisément le rayon de l’Univers, de déterminer quand l’expansion a commencé à s’accélérer – un phénomène mis en évidence en 1998 en comparant le décalage vers le rouge dû à l’expansion et la distance des supernovae de type Ia (*) [qui vaudra à Saul Perlmutter, Adam Riess et Brian Schmidt le prix Nobel de physique en 2011, NDLR] -, de préciser à quel rythme elle s’est déroulée, etc. Cela va nous renseigner également sur la nature de l’énergie noire, qui est responsable de cette accélération : est-elle une constante cosmologique ? Est-ce qu’elle évolue dans le temps ? Cela fait partie des grands défis de l’astrophysique : tout ce qui concerne le « secteur noir » : matière noire, énergie noire et même trous noirs qui se trouvent au coeur des galaxies notamment. Tout cela peut avoir beaucoup d’impact sur la physique fondamentale. Notamment dans le nouveau domaine de la gravité quantique, parce que la vraie nature de la gravité dans le domaine quantique n’est toujours pas connue. Et donc cela intéresse les physiciens, pas seulement les astronomes.

Bien que vous soyez théoricienne, vous avez également fait des observations. Dans quel domaine ?

En effet, je ne suis pas uniquement rivée sur mon écran d’ordinateur ou ma feuille de papier, j’ai aussi pas mal observé, en particulier dans le domaine millimétrique, et cela dès le début de ma carrière. Pourquoi le millimétrique ? Car c’est dans ce domaine de longueurs d’onde qu’émettent les objets froids de l’Univers, ce qui permet de cartographier le gaz moléculaire, comme le monoxyde de carbone (CO) qui trace l’hydrogène moléculaire (H2), l’élément le plus abondant de l’Univers. C’est une manière d’étudier les nuages moléculaires, qui sont des lieux de formation d’étoiles dans les galaxies. Par ailleurs, dans certaines régions, comme le centre de notre Galaxie, l’hydrogène atomique se combine et il reste uniquement des molécules H2. Ainsi, près du centre galactique, la plus grande partie du gaz qui nourrit le trou noir qui s’y trouve est moléculaire. Pour étudier à quel taux ce trou noir est nourri, comment et pourquoi il croît, les observations millimétriques sont essentielles.

Où se font ces observations ?

Avant 1985, nous les faisions aux États-Unis, et puis sont arrivés l’Institut de radioastronomie millimétrique (Iram), avec d’abord les 6 antennes de l’interféromètre du plateau de Bure, dans les Hautes-Alpes, et l’antenne de 30 m du Pico Veleta, dans la Sierra Nevada, en Espagne ; ces deux instruments sont restés longtemps les meilleurs instruments au monde. Actuellement, pour l’hémisphère Sud, il y a l’interféromètre Alma (66 antennes), qui se trouve sur le plateau d’Atacama, au Chili, à plus de 5 000 m d’altitude, et, pour l’hémisphère Nord, l’instrument Noema (acronyme de « Northern Extended Millimeter Array »), extension de l’interféromètre du plateau de Bure avec 6 nouvelles antennes (12 en tout). Si vous voulez observer la galaxie d’Andromède, il n’y a que Noema – puisque cet amas d’étoiles se situe dans l’hémisphère Nord céleste. Enfin, dans le domaine radio basses fréquences, il y a le projet de radiotélescope géant SKA, en construction en Afrique du Sud et en Australie, dont on attend beaucoup. Sa mise en service est prévue pour le moment en 2028.

Avez-vous une galaxie ou un objet préféré dans le ciel ?

Oui, j’aime particulièrement la galaxie d’Andromède. Nous avons beaucoup travaillé sur cette galaxie et c’est là que notre équipe a détecté les premières molécules de monoxyde de carbone à la fin des années 1970, alors que les équipes américaines ne les avaient pas vues. Plus récemment, nous avons étudié son centre en infrarouge, avec le télescope spatial Spitzer, et nous y avons trouvé des anneaux. Longtemps, les astronomes se sont battus pour savoir si Andromède était une galaxie avec des bras spiraux ou pas. Et, en effet, Andromède est connue pour avoir un anneau externe. Mais nos images, faites avec Spitzer, ont révélé de la poussière d’un deuxième anneau, plus interne ; celui-ci n’est pas tout à fait circulaire et il se trouve décalé par rapport au centre (4). Les simulations que nous avons effectuées à partir de ces observations montrent qu’une collision frontale avec la galaxie M32 voisine, qui s’est déroulée il y a 210 millions d’années, excite deux ondes de densité qui correspondent à ces anneaux. C’est un magnifique exemple du rôle que peut jouer la dynamique gravitationnelle sur l’aspect galactique.

© Ed Alcock / M.Y.O.P. 2020

(1) K. Sheth et al., ApJ, 675, 1141, 2008.

(2) W. L. Peters III, ApJ, 195,

modifier