04/05/2025 Qu’est ce que la conscience?

Les débats ne cessent pas sur ce sujet difficile. Encore évitent-ils d’aborder celui de la conscience chez les animaux, animaux domestiques ou animaux sauvages.

Concernant l’homme, l’hypothèse dominante aujourd’hui est celle de l’IIT, integrated information theory (IIT). Celle-ci cherche à fournir un cadre théorique expliquant pourquoi certains systèmes physiques (comme le cerveau humain) sont conscients, pourquoi ils ressentent des choses particulières quand ils sont dans certains états, ou encore ce qu’il faudrait pour que d’autres systèmes physiques soient eux aussi conscients. En principe, une fois la théorie mature et bien testée, elle pourrait être capable de déterminer si un système physique est conscient, à quel point il l’est, et quelles expériences subjectives il en a.

Dans la théorie de l’information intégrée, la conscience d’un système (ce qu’il ressent subjectivement) est supposée correspondre aux propriétés causales (ce qu’il est objectivement). Analyser l’ensemble des rôles causaux permettrait donc de connaître l’état de conscience d’un système

L’ITTe a été proposée par Giulio Tononi en 2004. La dernière version (la « 3.0 ») est sortie en 2014. Cela dit, la théorie continue d’être développée. Malgré un intérêt significatif, la théorie de l’information intégrée reste controversée, avec une partie de la communauté scientifique la traitant de pseudo-science infalsifiable Wikipedia

A coté de l’ITT, une autre théorie à la faveur de certains scientifiques. Il s’agit de la GNWT ou global neuronal workspace theory soit en francais théorie de l’espace de travail global (TETG), Il s’agit d’une théorie de la conscience introduite par Bernard Baars en 1988. Elle a notamment été développée pour pouvoir expliquer de nombreux processus cognitifs, conscients ou non. La conscience y sert d’espace centralisé d’échange d’informations. Elle permet à des réseaux cérébraux spécialisés d’interagir, améliorant l’intégration et l’adaptabilité.

Cette théorie dresse une analogie entre l’esprit et un théâtre, les pensées conscientes étant comme des entités illuminées au milieu de la scène principale. Le cerveau contient beaucoup de processus et de modules spécialisés qui opèrent en parallèle, et qui en général ne sont pas conscients. L’attention agit comme un projecteur, amenant une partie de cette activité inconsciente à la conscience. L’espace de travail global est un centre fonctionnel d’intégration de l’information, lui permettant d’être diffusée à travers les modules.

Lorsque des entrées sensorielles, des souvenirs ou des représentations internes reçoivent de l’attention, ils deviennent une partie de l’espace de travail global et peuvent alors être manipulés par divers processus. Les éléments étant en concurrence pour recevoir de l’attention, ceux qui gagnent sont admis dans l’espace de travail global, permettant à leurs informations d’être distribuées et coordonnées à travers l’ensemble du système cognitif.

Dans le « théâtre de la conscience », un projecteur d’attention sélective éclaire une zone lumineuse sur la scène, révélant le contenu de la conscience. Derrière les coulisses, dans l’obscurité, se trouvent le réalisateur (les processus exécutifs), les machinistes, les scénaristes, les décorateurs et autres. Ils façonnent les activités visibles dans la zone éclairée, mais sont eux-mêmes invisibles.

La théorie de l’espace de travail global fait encore l’objet de recherches et de débats.

Discussion

L’ITT identifie cinq caractères essentiels de la conscience et se demande quelle sorte de système physique pourrait en être le siège. Elle s oppose que la conscience apparaît lorsque des éléments d’un système physique échangent des informations sur un base mathématique quantifiable par une mesure dite phi. Plus l’information est intégrée, plus la valeur de phi est élevée et plus le système est conscient. Selon l’ITT ce sont les aires postérieures du cerveau qui disposent des propriétés neuroanatomiques nécessaires pour produire les valeurs de phi les plus élevées

GNWT, au contraire suggère que la compétition pour l’attention, et donc pour la conscience, est la plus élevée dans le thalamus. Si un signal se révèle plus important qu’un autre, le thalamus joue un rôle de coordinateur des informations sensorielles allant au cortex . Il transmet ce signal à travers le cerveau, qui en devient conscient . La transmission est liée au cortex préfrontal.

Tests

Pour tester ces deux hypothèses, Lucia Melloni du Max Planck Institute for Empirical Aesthetics (Allemagne) ont scanné les cerveaux de 256 personnes alors qu’elles regardaient des objets tels que des visage ou des lettres, en cherchant à identifier certains de leurs aspects. L’étude, qui a pris sept ans, a examiné quelles régions du cerveau traitaient les images, combien de temps elles étaient actives et de quelle façon leur activité était synchronisée.

Les résultats furent présentés dans une conférence en 2023, puis publés dans Nature (références ci-dessous). Ils ne furent pas jugés concluants. La même année 124 neuroscientifiques publièrent une lettre ouverte qualifiant toute l’opération de pseudoscience.

Chris Frith de l’ University of London, co-author de ces crittques, rappela qu’en permanence lui et ses confrère s’interrogeaient sur les états de conscience de leurs patients et ne pouvaient se satisfaire de réponses aussi ambiguës.

Référence

Nature DOI: 10.1038/s41586-025-08888-1

Abstract

Different theories explain how subjective experience arises from brain activity1,2. These theories have independently accrued evidence, but have not been directly compared3. Here we present an open science adversarial collaboration directly juxtaposing integrated information theory (IIT)4,5 and global neuronal workspace theory (GNWT)6,7,8,9,10 via a theory-neutral consortium11,12,13. The theory proponents and the consortium developed and preregistered the experimental design, divergent predictions, expected outcomes and interpretation thereof12. Human participants (n = 256) viewed suprathreshold stimuli for variable durations while neural activity was measured with functional magnetic resonance imaging, magnetoencephalography and intracranial electroencephalography. We found information about conscious content in visual, ventrotemporal and inferior frontal cortex, with sustained responses in occipital and lateral temporal cortex reflecting stimulus duration, and content-specific synchronization between frontal and early visual areas. These results align with some predictions of IIT and GNWT, while substantially challenging key tenets of both theories. For IIT, a lack of sustained synchronization within the posterior cortex contradicts the claim that network connectivity specifies consciousness. GNWT is challenged by the general lack of ignition at stimulus offset and limited representation of certain conscious dimensions in the prefrontal cortex. These challenges extend to other theories of consciousness that share some of the predictions tested here14,15,16,17. Beyond challenging the theories, we present an alternative approach to advance cognitive neuroscience through principled, theory-driven, collaborative research and highlight the need for a quantitative framework for systematic theory testing and building.

03/05/2025 Françoise Combes, astrophysicienne

Françoise Combes, née le 12 août 1952 à Montpellier, est une astrophysicienne française, titulaire de la chaire « Galaxies et cosmologie » au Collège de France et présidente de l’Académie des sciences pour 2025-2026. Wikipédia

La meilleure façon de faire connaissance avec elle est de lire et relire le compte-rendu d’un entretien qu’elle avait eu en février-mars 2021 avec le Journal La Recherche

La Recherche Au début du XXe siècle, les astronomes s’écharpaient sur la nature des « nébuleuses » que l’on voyait dans le ciel. On sait maintenant que ces nébuleuses sont des galaxies réparties dans l’Univers et que nous sommes dans l’une d’elles : la Voie lactée. Notre Galaxie est-elle typique de celles que l’on rencontre dans l’Univers ?

Françoise Combes – La Voie lactée est assez typique des galaxies spirales, ces rassemblements de centaines de milliards d’étoiles que l’on trouve par milliards dans l’Univers. Seulement, c’est une galaxie spirale qui a un tout petit bulbe central, notamment quand on le compare à celui de notre voisine Andromède [située à 2 millions d’années-lumière, NDLR], qui est également une galaxie de forme spirale. L’origine de ces deux bulbes est très différente, sans doute parce que l’histoire de ces deux galaxies diffère elle aussi : les données astrométriques du satellite Gaia ont ainsi montré que la dernière fusion majeure qu’a subie la Voie lactée remonte à 10 milliards d’années et que, depuis, elle a été relativement tranquille, elle n’a avalé [sic] que quelques petites galaxies satellites qui passaient par là. Du coup, son bulbe résulte de sa propre dynamique interne.

C’est différent pour Andromède ?

Oui, Andromède est une galaxie avec des bras et des boucles de marée bien visibles, qui dépassent de tous les côtés. Cela signifie qu’elle a connu un passé beaucoup plus agité que la Voie lactée, au cours duquel elle a subi de nombreuses fusions conséquentes. Quant à son gros bulbe central, il résulte des collisions passées. Un phénomène analogue à ce qui se passe lorsque deux galaxies spirales coalescent. Lorsque ce type d’événement se produit, la galaxie résultante prend une forme elliptique et les orbites des étoiles en son sein sont très mélangées, désordonnées ; il n’y a plus de rotation, il n’y a plus de moment cinétique non plus.

Notre Galaxie contient une structure d’étoiles particulière qu’on appelle une barre. C’est une structure qui s’ajoute à la forme spirale ?

En effet. Il s’agit d’un rassemblement d’étoiles qui sont alignées, prenant la forme d’une barre. La plupart des galaxies spirales en possèdent : on les appelle des spirales barrées. C’est quelque chose dont on ne se doutait pas au début, car ces barres ne sont pas toujours faciles à voir directement, dans la lumière visible. De plus, il s’agit de structures dynamiques qui apparaissent et disparaissent au cours de la vie des galaxies. Ainsi, il a été établi que 20 % des galaxies spirales lointaines possèdent des barres, contre 65 % pour les galaxies plus locales (1). Pour notre Galaxie, dès 1975, l’Américain W. L. Peters III avait vuqu’il y avait des perturbations de vitesse du gaz autour de son centre (2). Or si les mouvements étaient circulaires, comme c’est le cas en l’absence de barre, il n’y aurait aucune perturbation de vitesse, et même une vitesse Doppler (*) nulle dans la direction du centre galactique. Peters en avait conclu la présence d’une barre, mais que l’on ne voyait pas directement. Il a fallu attendre l’arrivée du satellite Cobe, dans les années 1990, pour parvenir à la repérer. Conçu pour étudier le rayonnement du fond diffus cosmologique (*), Cobe a cartographié le ciel dans le domaine micro-onde et dans l’infrarouge. Or ce type de rayonnement perce à travers les poussières abondantes du centre de la Galaxie, ce qui a permis de mettre en évidence la barre de la Voie lactée.

Qu’il s’agisse de barre ou de structure spirale, la gravitation est-elle bien la force dominante qui dessine les galaxies ?

Oui, pour les galaxies et pour la structure de l’Univers, la gravitation est bien l’interaction principale. Autrefois, les astrophysiciens ne pensaient pas pouvoir expliquer la présence de longs filaments dépassant de certaines galaxies avec uniquement des interactions gravitationnelles, avec des forces de marée. On estimait qu’il fallait invoquer la présence de tubes de champs magnétiques. Or c’était une erreur. À la fin des années 1970, lorsque les simulations numériques ont commencé à se développer, on a découvert qu’il était possible de former des filaments – ce que l’on appelle aujourd’hui des queues de marée – uniquement avec la gravité. Et pas seulement les queues de marée, mais aussi les bras spiraux et les barres. C’est pourquoi une grande partie de nos travaux actuels concerne la dynamique gravitationnelle.

La vision que l’on avait des galaxies et de leur évolution a-t-elle beaucoup changé grâce aux travaux sur la dynamique et grâce aux observations ? La classification d’Edwin Hubble sur la forme des galaxies est-elle toujours de mise ?

La classification qu’Hubble avait formulée en 1936 est toujours juste : il y a des galaxies elliptiques, des galaxies spirales, des galaxies en forme de lentille (« lenticulaires »), des galaxies de forme irrégulière. Ces formes très variées étaient déjà observées dans la première moitié du XXe siècle. En ce sens, la classification est toujours valide. Ce qui a changé, c’est le sens de l’évolution entre ce qu’on pensait être des galaxies précoces ou tardives. Naguère, il semblait que les premières galaxies étaient des galaxies simples, de forme elliptique, avec uniquement des étoiles, sans poussière et sans gaz, et qu’ensuite elles devenaient des galaxies évoluées, spirales, avec du gaz. En réalité, c’est exactement le contraire : les premières galaxies à se former sont des galaxies spirales qui, ensuite, à force de collisions, prennent des formes elliptiques. Mais des spirales peuvent se reformer ensuite.

Comment s’est-on aperçu de cela ?

Aujourd’hui, nous avons à observer des millions de galaxies. Il n’est plus possible de les regarder de manière individuelle comme auparavant : il faut effectuer des statistiques sur un grand nombre de données et d’objets à classifier, ce qui nécessite de faire appel à l’apprentissage statistique (machine learning). La procédure consiste à mettre un point pour chacune des galaxies dans un diagramme qui montre la relation entre sa couleur et sa magnitude absolue (*), c’est-à-dire la luminosité ou la masse de la galaxie – ce que nous appelons un diagramme magnitude-couleur. Dans ce diagramme, on voit apparaître des séquences. Il existe une séquence rouge, celle des galaxies elliptiques : toutes les étoiles y sont rouges, vieilles, il n’y a pas de gaz. Et puis il y a une séquence bleue, celle des galaxies spirales, qui ont beaucoup de gaz et beaucoup d’étoiles jeunes. Et, en regardant bien, c’est la classification d’Hubble qui transparaît.

Comment l’évolution des galaxies s’inscrit-elle dans l’évolution de l’Univers ?

Non seulement on observe des millions et des millions de galaxies mais, grâce aux puissants instruments disponibles, comme les télescopes spatiaux Hubble ou Spitzer (infrarouge), il est possible d’étudier des galaxies très lointaines et donc très jeunes. Celles-ci se sont formées dans les premiers âges de l’Univers. Pour rappel, l’Univers est issu d’un Big Bang qui s’est produit il y a environ 13,7 milliards d’années et qui a été suivi par une grande expansion qui a encore cours aujourd’hui. Dans cette histoire, l’évolution des galaxies dépend beaucoup de l’environnement initial : selon qu’il est peu dense, c’est-à-dire avec des vides, ou au contraire surdense, l’évolution ne se fera pas à la même vitesse. Par exemple, dans un environnement initial surdense, rempli d’amas de galaxies, cela va très vite : quelques centaines de millions d’années après le Big Bang, il existe déjà des galaxies très évoluées, elliptiques, massives et rouges. À l’inverse, les galaxies isolées – les galaxies de champ, comme on les appelle – ont une évolution lente. Il faut parfois plus de 13 milliards d’années pour que deux galaxies spirales fusionnent et se transformenten une galaxie elliptique.

La mystérieuse matière noire joue-t-elle un rôle dans cette évolution ?

Oui, la matière noire – dont on ignore la nature, mais dont on perçoit les effets gravitationnels à toutes les échelles – est essentielle. Les modèles d’évolution de l’Univers ont absolument besoin de matière noire pour fonctionner : sans elle, les fluctuations initiales de matière, qui sont les germes à partir desquels les forces gravitationnelles façonnent l’Univers, ne sont pas suffisantes pour former des galaxies.

Comment s’est établi le consensus sur l’existence de cette matière noire ?

L’histoire a commencé en 1933, il y a plus de quatre-vingts ans, lorsque l’astronome suisse Fritz Zwicky a évoqué la possibilité d’une matière gravitante non lumineuse pour expliquer la dynamique des galaxies dans les amas. À l’époque, personne ne se fiait à tout ce qu’il disait – il a aussi fait beaucoup d’erreurs et ne croyait notamment pas au Big Bang. Du coup, il a fallu du temps pour que son point de vue soit pris au sérieux. Mais, petit à petit, à mesure de l’accumulation des observations, l’idée s’est imposée de la nécessité de cette matière. De quoi pouvait-elle être constituée ? Jusqu’en 1985, on pensait qu’il s’agissait de matière ordinaire, mais non visible – après tout, il existe de la matière qui n’émet pas de lumière. Et puis, les expériences d’observation du fond diffus cosmologique – cette relique de l’Univers lorsqu’il est devenu transparent, 380 000 ans après le Big Bang – ont mis en évidence le fait que les fluctuations de ce fond étaient si petites qu’avec uniquement de la matière ordinaire – des baryons, essentiellement des protons et des neutrons qui constituent les noyaux atomiques que nous connaissons -, il n’était pas possible de former des galaxies.

Pour quelles raisons ?

Lorsqu’il y a un léger contraste de densité en un endroit du cosmos – un surplus quelque part -, ce contraste ne peut croître sous l’effet de la gravité que très lentement, à cause de l’expansion de l’Univers. Entre le moment où les baryons se libèrent des photons, 380 000 ans après le Big Bang, et aujourd’hui, ce contraste ne peut croître que d’un facteur 1 000. Pour former une structure, il faudrait alors des fluctuations primordiales de densité de l’ordre de 10 -3. Or les cartographies du fond diffus cosmologique établies à partir de 1985, grâce à l’expérience Boomerang (des ballons envoyés dans la stratosphère, à environ 37 km d’altitude, pour étudier ce rayonnement), faisaient apparaître des fluctuations initiales de l’ordre de 10 -5. Dès lors, il fallait absolument invoquer une matière qui n’interagisse pas avec les photons et qui permette une concentration de matière, un effondrement, bien avant la matière ordinaire. C’est là qu’est devenu évident le fait que la matière noire ne pouvait pas être baryonique, mais au contraire qu’il devait s’agir de matière exotique : une matière qui n’interagit pas avec la lumière – elle devrait donc plutôt s’appeler « matière transparente ».

Dans ce cadre, quel est le scénario d’évolution de l’Univers à partir du Big Bang ?

Jusqu’à 380 000 ans après le Big Bang, le moment où matière ordinaire et lumière sont couplées, la matière noire dite « froide » est indépendante de la lumière et peut commencer à s’effondrer. À l’inverse, dans cette époque prédécouplage, la matière ordinaire, visible, est en train d’être diffusée par la lumière et ne peut pas se rassembler. La matière noire se concentre donc et forme ce que l’on appelle des « halos noirs », qui sont les premières structures effondrées dans l’Univers. Ensuite, une fois que le découplage a lieu, la matière ordinaire se libère de la lumière en quelque sorte et peut s’effondrer à son tour. Le gaz tombe dans ces halos noirs et forme des étoiles.

Sur les questions de dynamique des galaxies et de l’évolution de l’Univers, ce sont les progrès en calcul numérique qui ont permis de mieux comprendre les choses ?

Indubitablement. Les progrès ont suivi de près la croissance de la puissance de calcul disponible. Sur la partie qui concerne la dynamique des galaxies, dans un article de 1964, les astronomes américains Chia-Chiao Lin et Frank Shu suggèrent que les structures spirales se forment par une instabilité gravitationnelle (3). Mais la difficulté est qu’il est impossible de faire des calculs analytiques – à la main – à moins que la spirale ne soit très enroulée. Ce qui n’est pas ce qui est observé la plupart du temps. Et les premières simulations numériques, à la fin des années 1970 et au début des années 1980, ont montré qu’il n’y avait pas toujours de spirale, mais toujours une barre. Or une barre, c’est le contraire d’une structure enroulée ! Cela a donné un coup de frein à ces théories analytiques qui ne permettent pas de reproduire les observations, et c’est le numérique qui a pris le dessus.

Les simulations numériques permettent-elles de décrire tout ce qu’on voit ?

Tout ? Non, loin de là. Mais il est possible de décrire beaucoup de choses et bien mieux qu’avant. Par exemple, on retrace la formation des galaxies spirales, les interactions entre les galaxies, leur collision, la formation des galaxies elliptiques, etc. Mais il manque la résolution à petite échelle, de sorte que, si les aspects gravitationnels sont bien maîtrisés, l’influence de la formation des étoiles, celle de la rétroaction due aux étoiles, de l’apport d’énergie quand une étoile explose (une supernova) ne sont pas accessibles directement dans les simulations. Bref, tout ce qui se passe à une échelle inférieure à la grille de résolution de la simulation nous échappe encore. Du coup, on a des « recettes » pour prendre ces phénomènes en compte, mais ce n’est pas entièrement compris et cela dépend du type de simulation.

Il faudrait améliorer les recettes, mieux comprendre ces ingrédients ?

Oui. Et faire varier beaucoup de paramètres. C’est là que l’apprentissage statistique, cette technique de l’intelligence artificielle en plein essor en astronomie, a du bon, parce que l’on peut construire des bibliothèques considérables. L’une des limites est qu’il y a énormément de variables, il faut donc une quantité colossale de simulations. Le temps de calcul en est une autre : pour les très grosses simulations cosmologiques, avec des milliards de particules, il n’est possible d’en réaliser qu’une par an typiquement ! Mais cela donne déjà de très beaux résultats, comme ceux du projet Horizon.

Dans ces simulations, on doit mettre de la matière noire pour expliquer la dynamique. Pourtant, les astronomes ne savent toujours pas ce qu’est cette matière noire, ni la détecter, alors qu’elle est recherchée avec constance depuis des décennies. Cela peut-il remettre en question son existence ?

Pas forcément. Mais cela renforce le camp de ceux qui, afin de résoudre le problème, plaident pour une modification des lois de la gravité plutôt que pour l’existence d’une particule. En résumé, d’un côté, la matière noire froide expliquerait très bien les données cosmologiques, mais moins bien les données galactiques et, surtout, elle reste introuvable. De l’autre, la modification de la gravité, comme ce que propose la théorie Mond, expliquerait très bien les observations galactiques, mais pas celles de nature cosmologique. Avec le problème de la matière noire, l’astronomie vit une crise. Et nul ne peut dire d’où viendra la solution.

Outre ce questionnement sur la matière noire, comment voyez-vous l’évolution de l’astronomie dans les prochaines décennies ?

Je suis très impatiente de voir les résultats des grands observatoires qui sont prévus, notamment le James-Webb Space Telescope, successeur attendu du télescope spatial Hubble [programmé pour être lancé en 2021, NDLR]. Spécifiquement pour les galaxies, j’attends aussi beaucoup du satellite européen Euclid, qui devrait être lancé en 2022. Au lieu de faire des observations en champ profond sur de petites zones du ciel, comme l’a fait le télescope Hubble, Euclid va sonder les profondeurs du ciel sur l’intégralité de la voûte céleste. Ainsi, on va passer de 3 millions de galaxies pour lesquelles on a des informations précises à plus de 1 milliard ! Faire toutes ces observations prendra six ans à partir de sa mise en service. Donc, en 2028, si tout se passe bien, les astronomes disposeront d’un ensemble formidable de nouvelles données cosmologiques.

Qu’espère-t-on obtenir avec cette manne ?

On cherchera notamment à observer les caractéristiques d’un phénomène appelé « oscillations acoustiques baryoniques », qui permet de donner une échelle de distance à différents âges de l’Univers. Avec cette « règle cosmique », il sera possible de mesurer précisément le rayon de l’Univers, de déterminer quand l’expansion a commencé à s’accélérer – un phénomène mis en évidence en 1998 en comparant le décalage vers le rouge dû à l’expansion et la distance des supernovae de type Ia (*) [qui vaudra à Saul Perlmutter, Adam Riess et Brian Schmidt le prix Nobel de physique en 2011, NDLR] -, de préciser à quel rythme elle s’est déroulée, etc. Cela va nous renseigner également sur la nature de l’énergie noire, qui est responsable de cette accélération : est-elle une constante cosmologique ? Est-ce qu’elle évolue dans le temps ? Cela fait partie des grands défis de l’astrophysique : tout ce qui concerne le « secteur noir » : matière noire, énergie noire et même trous noirs qui se trouvent au coeur des galaxies notamment. Tout cela peut avoir beaucoup d’impact sur la physique fondamentale. Notamment dans le nouveau domaine de la gravité quantique, parce que la vraie nature de la gravité dans le domaine quantique n’est toujours pas connue. Et donc cela intéresse les physiciens, pas seulement les astronomes.

Bien que vous soyez théoricienne, vous avez également fait des observations. Dans quel domaine ?

En effet, je ne suis pas uniquement rivée sur mon écran d’ordinateur ou ma feuille de papier, j’ai aussi pas mal observé, en particulier dans le domaine millimétrique, et cela dès le début de ma carrière. Pourquoi le millimétrique ? Car c’est dans ce domaine de longueurs d’onde qu’émettent les objets froids de l’Univers, ce qui permet de cartographier le gaz moléculaire, comme le monoxyde de carbone (CO) qui trace l’hydrogène moléculaire (H2), l’élément le plus abondant de l’Univers. C’est une manière d’étudier les nuages moléculaires, qui sont des lieux de formation d’étoiles dans les galaxies. Par ailleurs, dans certaines régions, comme le centre de notre Galaxie, l’hydrogène atomique se combine et il reste uniquement des molécules H2. Ainsi, près du centre galactique, la plus grande partie du gaz qui nourrit le trou noir qui s’y trouve est moléculaire. Pour étudier à quel taux ce trou noir est nourri, comment et pourquoi il croît, les observations millimétriques sont essentielles.

Où se font ces observations ?

Avant 1985, nous les faisions aux États-Unis, et puis sont arrivés l’Institut de radioastronomie millimétrique (Iram), avec d’abord les 6 antennes de l’interféromètre du plateau de Bure, dans les Hautes-Alpes, et l’antenne de 30 m du Pico Veleta, dans la Sierra Nevada, en Espagne ; ces deux instruments sont restés longtemps les meilleurs instruments au monde. Actuellement, pour l’hémisphère Sud, il y a l’interféromètre Alma (66 antennes), qui se trouve sur le plateau d’Atacama, au Chili, à plus de 5 000 m d’altitude, et, pour l’hémisphère Nord, l’instrument Noema (acronyme de « Northern Extended Millimeter Array »), extension de l’interféromètre du plateau de Bure avec 6 nouvelles antennes (12 en tout). Si vous voulez observer la galaxie d’Andromède, il n’y a que Noema – puisque cet amas d’étoiles se situe dans l’hémisphère Nord céleste. Enfin, dans le domaine radio basses fréquences, il y a le projet de radiotélescope géant SKA, en construction en Afrique du Sud et en Australie, dont on attend beaucoup. Sa mise en service est prévue pour le moment en 2028.

Avez-vous une galaxie ou un objet préféré dans le ciel ?

Oui, j’aime particulièrement la galaxie d’Andromède. Nous avons beaucoup travaillé sur cette galaxie et c’est là que notre équipe a détecté les premières molécules de monoxyde de carbone à la fin des années 1970, alors que les équipes américaines ne les avaient pas vues. Plus récemment, nous avons étudié son centre en infrarouge, avec le télescope spatial Spitzer, et nous y avons trouvé des anneaux. Longtemps, les astronomes se sont battus pour savoir si Andromède était une galaxie avec des bras spiraux ou pas. Et, en effet, Andromède est connue pour avoir un anneau externe. Mais nos images, faites avec Spitzer, ont révélé de la poussière d’un deuxième anneau, plus interne ; celui-ci n’est pas tout à fait circulaire et il se trouve décalé par rapport au centre (4). Les simulations que nous avons effectuées à partir de ces observations montrent qu’une collision frontale avec la galaxie M32 voisine, qui s’est déroulée il y a 210 millions d’années, excite deux ondes de densité qui correspondent à ces anneaux. C’est un magnifique exemple du rôle que peut jouer la dynamique gravitationnelle sur l’aspect galactique.

© Ed Alcock / M.Y.O.P. 2020

(1) K. Sheth et al., ApJ, 675, 1141, 2008.

(2) W. L. Peters III, ApJ, 195,

modifier

03/05/2025 Planck, le rayonnement fossile et les neutrinos primordiaux, retour sur les principaux résultats

De 2009 à 2013, le satellite européen Planck a scruté la voûte céleste afin d’analyser le fond diffus cosmologique, cette lumière émise 380 000 ans seulement après le Big-Bang. Avec de précieuses informations sur la naissance de l’Univers et sur la formation des grandes structures.

Planck était un observatoire spatial développé par l’Agence spatiale européenne (ESA) avec une participation de l’agence spatiale américaine, la NASA. La mission du satellite étaitt de cartographier les infimes variations de température (ou d’intensité) du fond diffus cosmologique, rayonnement dans le domaine micro-onde montrant l’Univers tel qu’il est 380 000 ans après le Big Bang. 00.

Le rayonnement étudié ne peut être observé de manière suffisamment précise que depuis l’espace. Deux satellites de la NASA — COBE à la fin des années 1980 et WMAP en 2001 — dressent une première carte du rayonnement fossile. Planck, lancé le 14 mai 2009 par un lanceur Ariane 5, a comme objectif grâce à son instrument principal HFI refroidi à 0,1 kelvin de dresser une carte 20 à 30 fois plus précise que ses prédécesseurs. La collecte des données par HFI s’achève en janvier 2012 après épuisement des isotopes hélium 3 et hélium 4 servant à refroidir les bolomètres utilisés comme détecteurs.

Une première interprétation complète des données collectées a été présentée en mars 2013. Les résultats complets ont été t rendus publics en décembre 2014 et publiés au début de 2015

Pendant quatre ans, le satellite Planck a recherché la première lumière émise librement par l’Univers, il y a environ 14 milliards d’années. La mission Planck a publié les premiers articles scientifiques basés sur l’ensemble de ces résultats Ils comportent cinq cartographies complètes du ciel pour l’instrument à hautes fréquences, connu sous son acronyme anglais « HFI », et quatre ans de données pour huit cartographies complètes du ciel pour l’instrument à basses fréquences, connu sous son acronyme anglais « LFI ».

Pour la première fois, a été obtenue une analyse de ce rayonnement selon deux paramètres de la lumière : son intensité, qui traduit sa température, et sa polarisation, qui traduit l’orientation du champ électrique. Jusqu’à présent, ilallait se contenter des informations concernant les variations d’intensité lumineuse à différentes fréquences. La polarisation donne une information supplémentaire sur le rayonnement fossile. Grâce à la mesure des variations de cette polarisation, Planck renseigne maintenant sur la manière dont bougeait la matière de l’Univers primordial, il y a environ 14 milliards d’années. L’image du rayonnement fossile n’est ainsi plus statique, mais dynamique.

L’un des résultats les plus forts concerne la matière noire, cette matière composée de particules dont la nature reste inconnue et qui n’interagit que très peu avec la matière ordinaire (électrons, atomes, etc.). La théorie prédit que des particules de matière noire, aux débuts de l’Univers, doivent s’annihiler entre elles, produisant une libération d’énergie dont on mesure les effets sur la matière ordinaire et sur la lumière actuelle, en particulier les rayons cosmiques, constitués de particules de très haute énergie.

La question était de savoir si cette annihilation s’est faite plus ou moins fortement et pourrait être détectable. Les dernières observations de Planck révèlent qu’elle n’a pas été très importante, ce qui exclut toute une série de modèles théoriques pour la nature de cette matière. Ces modèles avaient été imaginés pour expliquer des excès de rayons gamma mesurés, ces dernières années, par le satellite américain Fermi, le satellite italien Pamela et l’expérience AMS, installée à bord de la station spatiale internationale. Ces trois expériences avaient interprété ces excès comme une possible conséquence de l’annihilation de matière noire. Mais le niveau de certitude des mesures de Planck est tel – 95 % – qu’il ne laisse aucun doute : l’annihilation de particules de matière noire entre elles n’est pas responsable de ces excès de rayons gamma.

Un autre résultat concerne les neutrinos dits primordiaux .Les neutrinos sont des particules très légères, qui interagissent très peu avec la matière et qui sont donc extrêmement difficiles à détecter. Mais, peu après le Big Bang, alors que l’Univers était encore opaque, leur densité était très importante : elle était comparable à celle des photons, avec lesquels ils interagissaient, et affectait l’expansion de l’Univers et la formation des structures.

Dans le rayonnement fossile, cela se manifeste par d’infimes variations de polarisation, qui ont pu être mesurés par Plank. Par ailleurs, les données finales du prédécesseur de Planck, le satellite américain WMAP, laissaient envisager l’existence de quatre sortes de neutrinos. Les variations de polarisation détectées par Plank ont permis de conclure avec une certitude presque absolue qu’il n’existe bien que trois sortes de neutrinos (électronique, muonique, tauique), comme prévu par le modèle standard de la physique des particules élémentaires?

Voir https://cnes.fr/projets/planck

La Mission DESI (Dark Energy Spectroscopic Instrument DESI)

La première tâche de la mission de DESI est d’étudier la nature de l’énergie sombre : comment la densité d’énergie sombre évolue-t-elle avec le temps et comment affecte-t-elle la formation des structures de matière ? Pour répondre à ces questions, DESI utilisera ses cartes de galaxies pour mesurer deux effets cosmologiques : les oscillations acoustiques de baryons et la distorsion dans l’espace des décalage vers le rouge (redshifts). En plus de nous permettre d’étudier la cosmologie, ces mêmes cartes nous donneront aussi l’opportunité d’étudier la physique des galaxies, des quasars et du gaz intergalactique.

Les oscillations acoustiques de baryons

Le projet DESI a été optimisé pour mesurer une empreinte subtile dans les cartes de galaxies qui provient d’un processus physique important dans l’univers primordial : les Oscillations Acoustiques de Baryons . Pour expliquer cet effet, il faut remonter au rayonnement fossile de l’univers ou fond diffus cosmologique—première émission de photons libres après le Big-Bang—qui emplit l’univers. Aujourd’hui, ce rayonnement thermique correspond à une température de seulement 2,7 degrés au-dessus du zéro absolu; mais au début de l’univers, il devait être bien plus chaud.

Avanr 380.0000 après le Big-Bang, quand l’univers était encore un milliard de fois plus dense qu’aujourd’hui, et suffisamment chaud, les photons avaient assez d’énergie pour ioniser les premiers atomes d’hydrogène et d’hélium, séparer les électrons des noyaux atomiques en entraînant la formation d’un plasma dans l’univers. On dit alors que la matière et le rayonnement sont couplés.

Les électrons diffusent leur énergie en interagissant avec les photons et ces photons créent une pression de radiation suffisante pour résister à la compression au sein du gaz. Des écarts de densité de matière sont apparus au cours des premiers instants de l’univers et se sont propagés comme des ondes acoustiques, ou plutôt comme des oscillations acoustiques de baryons (c’est-à-dire de matière) au sein du plasma ou état primitif de la matière. Les ondes de pression ont voyagé pendant 380 000 ans, jusqu’à ce que l’expansion permettent à l’univers de se refroidir suffisamment pour que les électrons et les noyaux se re-combinent en atomes neutres.

A ce moment appelé la recombinaison, les forces gravitationnelles prennent le dessus dans les zones où subsistent les écarts de densité. Cela constitue les prémices des structures que nous observons aujourd’hui dans l’univers, amas de galaxies et galaxies notamment. Les ondes de pression se sont alors figées, leurs effets rémanents sont encore observables. Autour de chaque région de surdensité, il y a une faible empreinte sphérique de ces ondes autour de cette région. Cela a créé une probabilité légèrement plus grande de trouver des paires de galaxies séparées d’une distance caractéristique. Celle-ci correspond à la distance parcourue par les ondes de pression jusqu’à la recombinaison, et qui aujourd’hui avec l’expansion de l’univers, vaut environ 500 millions d’années-lumière.

Cette légère empreinte a été observée avec plusieurs relevés de données et plus particulièrement à partir du Sloan Digital Sky Survey (SDSS) et de son relevé BOSS (Baryon Oscillation Spectroscopic Survey).

Mesurer ce subtil excès de corrélation représente un enjeu majeur dans l’étude de la nature de l’énergie sombre. Lorsque nous étudions un échantillon de galaxies à redshift élevé et détectons cette l’empreinte BAO dans leur distribution, nous savons que l’échelle est de 500 millions d’années-lumière. Sachant cela, nous pouvons en déduire la distance entre les galaxies. C’est comme si l’empreinte BAO correspondait à un étalon de distance pour mesurer l’expansion de l’univers, il y a le mètre pour les petites échelles de distances, le kilomètre pour les distances entre les villes et nous avons l’échelle BAO pour les distances entre les galaxies dans l’univers.

DESI utilisera le BAO pour mesurer la relation entre distance et redshifts dans une large gamme de redshifts avec une précision inférieure au pourcent. Il s’agit d’un tournant dans la compréhension de l’histoire de l’expansion de l’univers et de l’évolution de l’énergie sombre.

Les distorsions dans l’espace des redshift

Lorsque nous mesurons le redshift d’une galaxie, nous obtenons en réalité deux contributions : la composante dominante qui vient de l’expansion de l’univers et une composante plus faible qui résulte du mouvement propre de la galaxie attirée par les densités de matière environnante sous l’effet de la gravité. Ainsi, la mesure du redshift d’une galaxie à partir des cartes de DESI est sensible à la composante le long de la ligne de visée de la vitesse propre de cette galaxie. La prise en compte des vitesses propres introduit donc des déformations de la distribution des galaxies dans la direction parallèle à la ligne de visée par rapport à la direction perpendiculaire. Nous appelons ces déformations des distorsions dans l’espace des redshifts (Redshift Space Distortions, RSD). Elles sont directement liées à un effet d’effondrement cohérent de galaxies qui s’attirent sous l’effet de l’interaction gravitationnelle.

Or, dans le modèle classique de la cosmologie, l’interaction gravitationnelle est décrite par la théorie de la relativité générale d’Albert Einstein. En mesurant l’effet de RSD, nous pouvons déterminer la quantité de matière présente dans les structures à grande échelle. Si cette quantité de matière est connue par d’autres méthodes, nous pouvons tester si l’attraction gravitationnelle sur une échelle de plusieurs centaines de millions d’années-lumière est conforme aux prédictions de la théorie de la relativité générale. En particulier, nous pouvons mesurer la vitesse à laquelle la matière se structure et forme des galaxies. Ce paramètre cosmologique correspond au taux de croissance des structures, nous pouvons mesurer sa valeur dans les données et la comparer avec la prédiction du modèle. Le test de la relativité générale à ces gigantesques distances est important car cela pourrait valider ou rejeter des alternatives comme les théories de gravité modifiée qui cherchent à expliquer l’accélération de l’expansion de l’univers.

Aux très grandes échelles, nous avons montré que le taux d’expansion évolue de manière très différente à ce qui est prédit par l’attraction gravitationnelle de matière connue d’après les lois de la physique qui demeurent très fiables aux échelles du système solaire. Il est possible que ces différences possèdent d’autres signatures dans la distribution des structures à grande échelle de notre univers.

En plus de mesurer précisément l’évolution des distances pour contraindre les propriétés de l’énergie sombre, une analyse minutieuse des cartes de la distribution des galaxies avec DESI va permettre de détecter les effets de RSD afin de tester la validité de la théorie de la gravitation aux échelles cosmiques.

DESI dans le paysage des projets futurs de cosmologie

Le mystère de l’énergie sombre et le désir de retracer le plus précisément notre histoire cosmique continuent de motiver un grand nombre d’expériences dans le domaine de la cosmologie.

DESI est l’un des programmes d’observation du ciel les plus ambitieux, qui est actuellement en cours de développement et qui, une fois opérationnel, deviendra rapidement le plus grand relevé de données spectroscopiques de galaxies. La cartographie tridimensionnelle que DESI va obtenir présentera un grand intérêt scientifique en elle-même, et elles deviendront encore plus intéressantes lorsqu’elles seront combinées à d’autres données provenant de relevés d’imagerie optique/infrarouge, micro-ondes ou dans le domaine des rayons X.

L’une des forces de la cosmologie moderne est la possibilité de mesurer des propriétés cosmologiques de plusieurs manières, en effet la comparaison de résultats indépendants permet de renforcer notre confiance dans les réponses scientifiques que nous concluons à partir des analyses et de laisser entrevoir de nouvelles études. Nous avons hâte que le remarquable travail de groupe de DESI puisse jouer un rôle important dans le paysage des expériences de cosmologie de la décennie à venir, en particulier autour de l’étude de l’énergie sombre.

Au-delà de l’énergie sombre

Les cartes de DESI seront utilisées pour de nombreuses autres applications en plus des oscillations acoustiques de baryons et des distorsions dans l’espace des redshifts. Nous prévoyons d’utiliser nos mesures de la distribution des galaxies dans une gamme en redshift intermédiaire pour mesurer la somme des masses des neutrinos. Nos mesures permettront également de tester si les fluctuations primordiales de densité dans l’univers suivent le modèle simple adopté actuellement, ou bien si elles mettent en évidence des déviations de ce modèle simple, synonymes de comportements nouveaux à très hautes énergies comme ce fût le cas au cours de la première seconde de l’univers.

Des mesures précises de la distribution des corrélations spatiales des galaxies permettront aussi de tester une grand nombre d’extensions possibles au modèle standard de la cosmologie. Au-delà de la cosmologie, DESI va mesurer précisément les distances de plus de 30 millions de galaxies et de quasars dont les propriétés statistiques pourront être mieux connues. DESI va produire les cartes les plus détaillées jamais réalisées de notre univers proche, ce qui constitue la colonne vertébrale de nombres groupes d’études sur les galaxies et les amas de galaxies ou sur les phénomènes extrêmes au sein de ces galaxies. De plus, DESI va également réaliser un relevé spectroscopique d’étoiles afin d’étudier dans le détail la dynamique de la Voie Lactée, notre propre galaxie.

02/05/2025 La Russie a besoin des réserves de terres rares de l’Ukraine

L’Ukraine concentre à elle seule quelque 5 % des ressources minières mondiales, mais toutes ne sont pas exploitées ou facilement exploitables. D’autres sont dans des territoires occupés par la Russie.

Quant aux terres rares, l’Ukraine se place en quarantième position des pays producteurs de minerais, toutes catégories confondues (charbon inclus), selon la publication . World Mining Data 2024

Sa production repose sur trois minerais stratégiques : le manganèse (huitième producteur mondial), le titane (11e) et le graphite (14e), indispensable aux batteries électriques.

De ce dernier minerai, l’Ukraine concentre « 20 % des ressources mondiales estimées », d’après le Bureau français de recherches géologiques et minières (BRGM).

Selon des estimations du think tank ukrainien We Build Ukraine et de l’Institut national des études stratégiques, environ 40 % des ressources métalliques du pays sont maintenant sous occupation russe (d’après des données du premier semestre 2024).

Depuis, les troupes russes ont continué à progresser dans la région orientale de Donetsk. En janvier, l’Ukraine a fermé sa seule mine de charbon à coke située à l’extérieur de la ville de Pokrovsk, que les forces russes tentent de capturer.

Mais c’est dans le domaine des terres rares que la Russie a le plus grand besoin des réserves de l’Ukraine. Ceci fait que la Russie a occupé au moins deux gisements de lithium ukrainiens pendant la guerre – l’un dans le Donbass et l’autre dans la région de Zaporijjia, dans le Sud-Est. Par contre Kiev contrôle toujours des gisements de lithium dans la région centrale de Kyrovohrad.

Production en tonnes d’oxyde de terres rares
Chine 270.000
USA 45.000
Myanmar 31.000
Australie 13.000
Thailand 13.000
Inde 3.000
Russie 2.500.

L’Ukraine détiendrait environ 5 % des réserves mondiales de terres rares , utilisées dans l’électronique, les technologies de défense et les projets énergétiques. Certaines de ces réserves se situent dans des régions de l’est de l’Ukraine occupées actuellement par la Russie.

01/05/2025 De tous les endroits sur Terre où aurait pu s’écraser un astéroïde, la péninsule du Yucatán était vraisemblablement la plus mal choisie

C’est du moins ce qu’indique une nouvelle étude sur la collision survenue il y a 66 millions d’années entre un astéroïde de 12 kilomètres de diamètre et l’océan bordant aujourd’hui la ville portuaire de Chicxulub, au Mexique. L’impact a provoqué la disparition soudaine des dinosaures, décimant une grande partie de ces créatures et 75 % de toute forme de vie terrestre.

D’après une étude parue en 2017, dont nous publions ci-dessous les références et l’abstract la collision de l’astéroïde avec une sorte de poudrière pétrolière serait à l’origine de ce phénomène d’extinction de masse. La suie ainsi libérée dans l’atmosphère aurait alors provoqué un refroidissement climatique extrême. Selon les résultats de l’étude, la température de la planète se serait située entre -10 °C et -8 °C après l’impact, avec une chute oscillant entre -8 °C et -1 °C sur les sols.

Seuls 13 % de la surface terrestre sont composés de roches susceptibles de libérer une telle quantité de suie, comme l’indique l’équipe responsable de l’étude. En d’autres termes, les dinosaures non aviaires auraient bien pu ne pas disparaître si l’astéroïde avait suivi une autre trajectoire

Rappelons que le Crétacé s’est terminé il y a 66 millions d’années avec de grandes éruptions volcaniques en Inde et l’impact d’une météorite de 10 kilomètres de diamètre dans le golfe du Mexique (formant le cratère de Chicxulub).

Chacun des deux événements est isolément potentiellement catastrophique, mais celui qui a finalement tué les dinosaures non aviaires est longtemps resté une énigme.

Une équipe de chercheurs internationaux, au sein de laquelle on trouve Sietske Batenburg (Géosciences Rennes), a publié en janvier 2020 dans la revue Science (Hull et al., 2020) des résultats originaux qui permettent d’éclairer les circonstances du cataclysme planétaire en précisant la chronologie des évènements.

L’évaluation de leur importance relative – volcanisme vs astéroïde – est compliquée du fait de l’incertitude concernant la datation précise du dégazage volcanique. Pour y voir plus clair, les chercheurs ont utilisé la modélisation du cycle du carbone et les enregistrements de paléotempérature pour se concentrer sur la datation de la période du dégazage volcanique. Ils ont ainsi constaté que les principaux dégazages commencent et se terminent nettement avant l’impact.

Bien que le volcanisme ait provoqué un réchauffement climatique important en augmentant sensiblement l’effet de serre, les conclusions de l’étude montre que celui-ci s’est terminé 200 000 ans avant la fin du Crétacé. C’est donc l’impact de l’astéroïde – coïncidant avec l’extinction de masse – qui constitue par conséquent la principale cause de la disparition des dinosaures.

Si cet événement ne s’était pas produit, les dinosaures auraient vraisemblablement évolués sous la forme de créatures dotées d’un intelligence comparable celle de l’homme. Ils se seraient dotés de plus gros cerveaux capables d’une intelligence analogue à l’intelligence humaine, sinon supérieure.

Les mammifères précurseurs de l’homme seraient restés ce qu’ils étaient, de gros rats rampant entre les pattes des géants

Voir aussi Rethinking Diosaurs’ decline Newscientist 19 april 2025 p.15

Références

nature

Published: 09 November 2017

Site of asteroid impact changed the history of life on Earth: the low probability of mass extinction

Scientific Reports volume 7, Article number: 14855 (2017)

Abstract

Sixty-six million years ago, an asteroid approximately 9 km in diameter hit the hydrocarbon- and sulfur-rich sedimentary rocks in what is now Mexico. Recent studies have shown that this impact at the Yucatan Peninsula heated the hydrocarbon and sulfur in these rocks, forming stratospheric soot and sulfate aerosols and causing extreme global cooling and drought. These events triggered a mass extinction, including dinosaurs, and led to the subsequent macroevolution of mammals. The amount of hydrocarbon and sulfur in rocks varies widely, depending on location, which suggests that cooling and extinction levels were dependent on impact site. Here we show that the probability of significant global cooling, mass extinction, and the subsequent appearance of mammals was quite low after an asteroid impact on the Earth’s surface. This significant event could have occurred if the asteroid hit the hydrocarbon-rich areas occupying approximately 13% of the Earth’s surface. The site of asteroid impact, therefore, changed the history of life on Earth.

01/05/2025 Des hommes de Denisovan vivaient sur des terres émergées entre Formose et la Chine

Une publication parue dans la revue Science annonce l’appartenance d’une mandibule découverte par des pécheurs dans le détroit de Penghu, à Taïwan, à l’espèce Homo denisovensis. Une découverte importante pour cette espèce encore mal connue malgré des données génétiques importantes.

Jusqu’où s’étendait l’aire de répartition de l’Homme de Denisova ? Elle serait allé au moins de la Sibérie jusqu’à Taïwan, là où a été retrouvé un nouveau fossile. Il ne s’agit pas d’un corps entier mais d’un côté droit de mandibule –la partie inférieure de la mâchoire– sur laquelle étaient encore plantées quatre dents intactes. Elle avait été découverte initialement dans le détroit de Penghu, qui se trouve juste en face de Taïwan, à la frontière avec la Chine. Ce ne sont pas des paléontologues mais des pêcheurs qui avaient trouvé ce fossile dans leur filet, parmi les poissons, il y a près de 20 années, en 2008.

Le fossile avait été classé dans un magasin d’antiquités avant d’être redécouvert par un amateur. Durant les précédentes périodes glaciaire, ce détroit faisait partie d’une lande de terre émergée reliant Taiwan et la Chine. Il était peuplé de nombreuses espèces animales. Un précédent reste fossile d’un homme de cette espèce avait ét faite en 2010 dans une grotte des montagnes de l’Altaî, Russie. Mais il ne s’agissait que d’un os de doigt de pied

Après des années passées dans les tiroirs du Musée National des Sciences Naturelles de Taïwan, les protéines du fossile ont été examinées. Les conclusions de ces analyses sont consignées dans une nouvelle publication parue dans la revue Science dont on trouva ci-dessos les références

Pour en savoir plus sur l’Homme de Denisova, voir Silvana Condemi, paléoanthropologue, directrice de recherche au CNRS, rattachée au laboratoire ADES à l’Université d’Aix-Marseille et auteur de L’Enigme Denisova aux éditions Albin Michel.

A male Denisovan mandible from Pleistocene Taiwan

https://www.science.org/doi/10.1126/science.ads3888

Takumi Tsutaya and other authors s

Science 10 Apr 2025 Vol 388, Issue 6743 pp. 176-180

DOI: 10.1126/science.ads388836 734

Editor’s summary

Denisovans are a Pleistocene hominin lineage first identified genomically and known from only a few fossils. Although genomic studies suggest that they were widespread throughout Asia, fossils of this group have thus far only been identified from regions with cold climates, Siberia and Tibet. Tsutaya et al. used ancient proteomic analysis on a previously unidentified hominin mandible from Taiwan and identified it as having belonged to a male Denisovan. This identification confirms previous genomic predictions of the group’s widespread occurrence, including in warmer climates. The robust nature of this mandible is similar to that seen in a Denisovan one from Tibet, suggesting that this is a consistent trait for the lineage. —Sacha Vignieri

Abstract

Denisovans are an extinct hominin group defined by ancient genomes of Middle to Late Pleistocene fossils from southern Siberia. Although genomic evidence suggests their widespread distribution throughout eastern Asia and possibly Oceania, so far only a few fossils from the Altai and Tibet are confidently identified molecularly as Denisovan. We identified a hominin mandible (Penghu 1) from Taiwan (10,000 to 70,000 years ago or 130,000 to 190,000 years ago) as belonging to a male Denisovan by applying ancient protein analysis. We retrieved 4241 amino acid residues and identified two Denisovan-specific variants. The increased fossil sample of Denisovans demonstrates their wider distribution, including warm and humid regions, as well as their shared distinct robust dentognathic traits that markedly contrast with their sister group, Neanderthals.

30/04/2025 Des synapses artificielles dans le cerveau de souris

La synapse st une zone de contact fonctionnelle qui s’établit entre deux neurones, ou entre un neurone et une autre cellule (cellules musculaires, récepteurs sensoriels…). Elle assure la conversion d’un potentiel d’action déclenché dans le neurone présynaptique en un signal dans la cellule postsynaptique. On estime, pour certains types cellulaires (par exemple cellule pyramidale, cellule de Purkinje…), qu’environ 40 % de la surface membranaire est couverte de synapses. Wikipedia

Intervenir dans le cerveau pour modifier les transmissions d’influx nerveux est une opération a risque. Elle peut entrainer la destruction de plus vastes zones du cortex superficiel, entraient des paralysies ou des hallucinations. On cite notamment l’obsessive compulsive disorder (OCD) Néanmoins l’intervention sera de plus en plus tentée en cas par exemple de tumeur ou de chocs violents entraînant des destructions locales du cortex.

Aussi, à la Duke University de Durham (Etats-Unis) la décision a-t-elle été prise de faire de premières expériences chez des souris. Leur cerveau est bien plus petit que celui de l’homme, comme nul n’en ignore, mais il s’agit de mammifères proches de l’homme en ce qui concerne les grandes fonctions cérébrales.

On distingue les synapses au microscope électronique par la taille de la fente synaptique ; de l’ordre de 2 nanomètres pour les synapses électriques, entre 10 et 40 nm pour les synapses chimiques. On peut également, dans le cas des synapses électriques, observer les jonctions communicantes. Au niveau d’une synapse, il s’agit toujours d’un contact entre deux membranes plasmiques, il n’y a jamais fusion en un syncytium.

Les chercheurs cherchaient à savoir si des synapses électriques artificielles pouvaient remplacer les signaux chimiques des synapses naturelles. Un travail analogue avait été fait en utilisant des vers dits nématodes mais le cerveau de ceuc-ci, si cerveau il y a, ne comporte que 300 neurones tandis que la souris en a 71 millions.

Ils implantèrent ensuite des connexines dans le cerveau des souris. Les connexines constituent une grande famille de protéines transmembranaires qui permettent la communication intercellulaire et le transfert d’ions et de petites molécules de signalisation entre les cellules .. Ces connexisnes provenaient d’un poisson …

Note Retour à l’article en anglais, non traduit ici faute de temps

called the white perch (Morone americana). These connexins would later be used by the nerve cells on either side of the junction at the synapse, like the positive and negative parts of a circuit.

After identifying the right proteins, the next issue was knowing where to place them. “We implanted lots of electrodes about the size of a hair into many brain areas at the same time in mice and then we recorded their electrical activity,” says Dzirasa. “This gives an electrical map of how information is flowing through the brain.”

The team then exposed the mice to situations that induce behaviours like anxiety or aggression to see how this flow changed, pinpointing which brain cells should receive the engineered synapse.

Once these had been identified, the researchers injected a harmless virus into the mice’s brains to deliver the genetic information needed to make the connexins. This resulted in working electrical synapses that changed how electricity moved in a microcircuit in the frontal cortex. The mice then showed signs of being more explorative and sociable, suggesting this approach could help treat conditions like social anxiety.

“It’s a cute idea,” says David Spray at the Albert Einstein College of Medicine in New York. “It will likely provide a useful tool to answer the question of what would happen to activity patterns and behaviours if we added electrical synapses to specified cell types in neural circuits.”

The researchers also did a further experiment investigating the potential of this technique for preventing mental health issues. “We wanted to know if we could use this tool to promote resilience,” says Dzirasa.

To attempt this, Dzirasa and his colleagues targeted a long-range circuit between the frontal cortex and an area of the brain called the thalamus. They identified this circuit as important when mice are stressed, which is a sensation they may respond to by freezing in place. Introducing the engineered electrical synapses enhanced communication between these regions and stopped the mice from freezing.

“We have created an approach to edit the connection between cells, enabling targeted rewiring of the brain,” says Dzirasa. “It has the potential to edit many different types of genetically inducted wiring deficits to prevent the emergency of psychiatric disorders.”

Katrin Amunts at the Jülich Research Centre in Germany says that while the research is at an early stage, the scientists “demonstrate in the mouse model that a targeted change at the subcellular level can have an effect at the behavioural level, so there is psychiatric relevance”.

Further work by Dzirasa and a different group of colleagues introduced connexins into juvenile mice genetically predisposed to develop OCD-like symptoms. “Normally, over time, the mice start grooming a lot, and the grooming can be so severe that they get these huge facial lesions that mirror the lesions that some people with OCD get when they compulsively wash their hands,” says Dzirasa.

The mice with the electrical synapses groomed less and about two-thirds of them never developed facial lesions, he says.

Despite the work being done in mice, Dzirasa selected connexins 34.7 and 35 partly on the basis that they should work similarly in people. Existing atlases of gene expression profiles in humans could also identify which cells to target.

“These gene expression patterns are like a GPS indicator,” he says, showing which cells do what. Viruses carrying the necessary genomic material could be injected into the bloodstream and then pass through the blood-brain barrier, which could also be opened via focused ultrasound, to target cells with the right profiles, says Dzirasa.

“I’m personally very excited,” says Ithai Rabinowitch at the Hebrew University of Jerusalem in Israel, part of the team that put an electrical synapse in C. elegans. “Engineering or editing synaptic connections provides a potential all-biological approach for elucidating neural circuit function and for potentially treating various diseases involving neural connectivity,” he says. “Importantly, once installed, these new connections drive neural circuit information flow and function completely autonomously, with no need for external activation or regulation.”

But brain editing in people is a long way off and raises ethical questions, says Dzirasa. “I just want to make sure there’s something available for people if they need it.”

Rabinowitch also wonders if the brain would respond to the changes by making new neural links that may undo the effects of the engineered synapses or create other potentially negative pathways. The intervention might also have unknown side effects, he says.

Voir aussi

Brain scans are putting a major theory of consciousness to the test

A proposed way to measure consciousness called integrated information theory has been tested using data from human brain scans, and seems to workcrodosing LSD increases the complexity of your brain signals

A measure of consciousness called neural complexity increases even with small doses of LSD, but we still don’t know the potential risks of microdosing psychedelic drugs

Reference:

bioRxiv DOI: 10.1101/2025.03.25.645291

29/04/2025 Notre cosmos dissimule-t-il une réalité bien plus étrange ?

La Théorie des Cordes paraît aujourd’hui en mesure de devenir une théorie de Tout, c’est-à-dire apporter une explication à tout ce qui était jusqu’ici incompréhensible pour la science, de la gravité au Big Bang et aux Trous noirs. Le seul problème est qu’elle ne peut expliquer un univers comme le nôtre, en expansion à une vitesse accélérée.

En fait nul n’a compris encore la raison de cette expansion. On évoque une mystérieuse énergie noire. Mais, selon les théories actuelles, rien ne devrait se produire.

Cependant aujourd’hui certains physiciens proposent une solution à cette interrogation. Pour eux, notre univers ne serait qu’un point dans un ensemble beaucoup plus vaste dont une expansion accélérée serait la règle naturelle, entre un hyper-espace de grande dimension et un vide absolu, selon la description qu’en donne Antonio Padilla, de l’Université de Nottingham (UK).

La théorie des cordes ,aujourd’hui célébré, avait commencé modestement. Ce n’était alors qu’une simple équation destinée à donner un sens aux collisions entre protons et neutrons mus par ce que l’on nommait la « strong force ». Celle-ci l’emporte sur la gravité sur les courtes distances quand il s’agit de tenir réunis les protons dans les noyaux des atomes. Mais dans un sens étendu, les physiciens suggérèrent que chaque particule fondamentale, électron, quark, boson de Higgs, pouvait être l’extrémité d’une corde minuscule vibrant sur un rythme distinct.

Le premier succès de la théorie des cordes fut de pouvoir décrire la gravité . Plus tard les autres forces furent aussi analysées. La théorie des cordes devint ainsi une « théorie du Tout ».

Ses mathématiques sont complexes. Nous n’en connaissons que trois, trois d’espace et une de temps. Cependant certains théoriciens des cordes ont suggéré qu’elles étaient dix séparées par une membrane poreuse. mais elles seraient si minuscules qu’elles seraient inobservables par tout instrument que ce soit. Elles ont été nommés des branes. Malheureusement la théorie des cordes est si flexible qu’elle peut décrire de nombreux objets imaginaires au nombre d’au moins 10 puissance 500 Quelle autorité peut-elle avoir en ce cas précis ?

.

Suite non traduite et non résumée

It might seem odd that string theory struggles with something so apparently mundane as an accelerating universe. The reason is that the rate of expansion comes from the very geometry of space-time, as defined by Albert Einstein’s general theory of relativity and later descibed in detail by cosmologist Willem de Sitter. In one solution to Einstein’s equations, space-time is spherical and expanding at an accelerating rate – what’s now known as a de Sitter (dS) space. In the alternative solution, space-time is saddle-shaped and cannot expand at all, called an anti-de Sitter (AdS) space. String theory strongly implies that only AdS space-times are stable and able to support themselves, even though a wealth of astronomical data, including from those distant supernovae, confirms that our present-day universe is dS.

What we see and feel would be just a projection of a greater reality, beyond our senses

The seed of an idea to get around this impasse was planted even before physicists had fully got to grips with dark energy and the accelerating universe. In 1999, in an attempt to solve an entirely different problem in string theory, theorists Lisa Randall and Raman Sundrum toyed with the concept of high-dimensional branes, albeit in a less extravagant, easier-to-describe, five-dimensional (5D) setting.

In geometry, the surface of an object always requires one dimension fewer than the object itself – for instance, each face of a 3D cube is a 2D square. Likewise, Randall and Sundrum discovered that it was possible to have a pair of 5D AdS space-times separated by a brane that was merely 4D, just like our universe. Moreover, Randall’s later work with theorist Andreas Karch showed that this brane would have an accelerating, dS geometry – again, just like our universe. Did we live on a brane? The possibility was tantalising.

Alas, despite its superficial promise, the Randall-Karch brane never much helped to ease string theory’s woes. The reason was that, sandwiched between two mammoth AdS space-times, it wasn’t much more stable than the few pure dS universes that could be wrenched out of string theory. About five years ago, however, Danielsson and his colleagues at Uppsala University had an epiphany. “We thought, what if instability wasn’t a problem?” he says. “What if we could turn it to our advantage?”

Every space-time model has a certain level of energy woven into its fabric, governing the types and behaviours of the particles, strings, branes and other entities that may be contained within it. If a space-time doesn’t reside at the lowest possible energy, quantum mechanics says it is inherently unstable and has the risk of “decaying”, suddenly transforming into a new universe in which the energy is lower. Danielsson’s group considered a 5D AdS space-time that begins high on this energy ladder, and found that if even a tiny part of it decays, this fragment quickly forms a “dark bubble” of lower-energy 5D AdS space-time. As in the Randall-Karch scenario, this bubble is enclosed by a 4D dS space-time like our own – yet crucially, it arises out of instability, rather than being at the mercy of it.

In this new scenario, the bubble membrane on which our cosmos is poised still wouldn’t be perfectly stable. But that just means another dark bubble would occasionally pop up, or nucleate, within its inner 5D space-time, which we can’t see. In fact, new dark bubbles would continually nucleate within each other, each enclosed by a dS brane – in effect, a new universe. In this grand multiverse, what we refer to as “the” big bang would be just the moment our parent bubble gave birth to ours.

Danielsson argues that this idea is actually more intuitive than accepted big-bang cosmology. “A favourite picture of the big bang is that it’s like a balloon expanding into space,” he says. “Usually someone tells you that’s wrong: the balloon isn’t expanding into space, because that extra space – the beyond – simply doesn’t exist. But with the dark bubble, actually it does.”

Leaking gravity

However, there is a fear that, on closer inspection, the bubble may burst. The issue has to do with that most pesky of nature’s forces, gravity, and, in particular, why it is so weak. A common illustration of gravity’s weakness is the comparative strength of a fridge magnet, which is able to exert enough electromagnetic force to stick to a metal door and, in so doing, counteract the gravitational pull of the entire planet. String theory offers a generic, hand-waving answer to gravity’s feebleness: with 10 dimensions to act in, gravity is somehow diluted more than the others. But if gravity is leaking away, theorists still have to explain why it isn’t so weak as to let planets escape their orbits and spinning galaxies fly apart.

The trick is to somehow confine gravity so that only a little – just the right amount – seeps away into the extra dimensions. Padilla argues that dark bubbles don’t successfully do this. After all, the dark bubble multiverse is infinite, so gravity can potentially leak anywhere. As a result, Danielsson’s group has had to introduce additional strings in their fifth dimension to tether gravity to the bubble membranes.

“To us, it looked like you have to jump through hoops to get gravity to look 4D,” says Padilla. For this reason, he and his colleagues Ben Muntz and Paul Saffin at the University of Nottingham began to toy with an alternative solution: get rid of the multiverse and have just one bubble. With no infinite space-time, gravity’s leakage is stemmed, allowing it to be weak, but not too weak. And while our world is still the 4D brane surrounding a 5D bubble, it is now also the barrier between a 5D cosmos and pure nothingness. In other words, it is literally the edge of the universe, an “end of the world” brane. “Of course, this also presents a problem,” says Padilla. “What’s nothing, and how can something come out of it?”

How to get something from nothing is a vexed question, to say the least. From the dawn of philosophical thought, people have wondered how space, time, substance – even the rules governing those things – can arise if there is nothing there to begin with. As physics deals with relationships between entities, there seems little hope that it can ever fully answer this mystery.

.24/04/2025 La physique des particules en crise

La physique des particules rencontre aujourd’hui deux difficultés. Un approche connue souu le nom de supersymétrie, par exemple, prévoit de nouvelles particules permettant d’annuler les fluctuations quantiques résultant du modèle standard des particules.

La supersymétrie (abrégée en SuSy) est une symétrie supposée de la physique des particules qui postule une relation profonde entre les particules de spin demi-entier (les fermions) qui constituent la matière et les particules de spin entier (les bosons) véhiculant les interactions. Dans le cadre de la SuSy, chaque fermion est associé à un « superpartenaire » de spin entier, alors que chaque boson est associé à un « superpartenaire » de spin demi-entier. (Wikipedia).

Une solution alternative a été proposée par Nima Arkani-Hamed, aujourd’hui à l’ Institute for Advanced Study à Princeton, New Jersey.

Celle-ci considère que la gravité peut fuir à travers ces extra-dimensions, la rendant progressivement plus faible qu’elle ne l »est aujourd’hui. Des modèles basés sur cette hypothèse prévoient une échelle de Planck inférieure à l’actuelle, la faisant paraître plus faible qu’elle ne l’est actuellement. Les extradimensions sont actuellement invisibles parce qu’elle sont trop faibles

La longueur de Planck ou échelle de Planck est une unité de longueur qui fait partie du système d’unités naturelles dites unités de Planck et vaut 1,616 25 En physique des particules et en cosmologie physique, l’échelle de Planck est une échelle d’énergie autour de 1,22 × 10 28 eV (l’énergie de Planck, correspondant à l’équivalent énergétique de la masse de Planck, 2,17645 × 10 8 kg) à laquelle les effets quantiques de la gravité deviennent significatifs. (Wikipedia)

Jusqu’à présent cependant ces hypothèses se sont révélées trop timides pour rendre compte des nouvelles observations du LHC, d’autant plus que celui-ci ne cesse pas d’en produire.

Pour résumer, la physique des particules est en crise. C’est pourquoi un petit groupe de théoriciens, ont commencé à explorer une alternative au réductionnisme tel qu’il est connu aujourd’hui. Au lieu d’étudier les différents niveaux d’énergie de l’univers comme des entités indépendantes, il les traite comme si elles se conditionnaient respectivement..

De la même façon, dans un arc en ciel l’ultraviolet et l’infrarouge, que nous ne pouvons pas voir, enferment les autres couleurs du spectre que nous pouvons voir, lerouge, l’orange, le jaune, le vert, le bleu, l’indigo et le violet. C’est dans l’équivalent de celles-ci qu’opère le modèle standard des particules.

Dans la fin des années 1970, les physiciens Andrew Cohen , David Kaplan et Ann Nelson , en étudiant les trous noirs calculèrent qu’il y avait un minimum d’énergie à partir duquel le modèle standard cessait d’être viable

voir Effective Field Theory, Black Holes, and the Cosmological Constant

https://arxiv.org/abs/hep-th/9803132

Autrement dit, les caractères physiques de tous ces éléments semblent se conditionner respectivement. Le phénomène a été dit UV/IR mixing.

https://lsa.umich.edu/content/dam/lctp-assets/lctp-docs/seth-koren.pdf

While studying black holes, Cohen and his colleagues calculated that there is a maximum length, or minimum energy, at which the standard model stops being valid. Beyond it, gravity takes over. It might seem intuitive that if there is a lower limit, there must also be an upper one. But crucially the researchers found that these seemingly unrelated cutoffs aren’t independent of each other. In other words, the physics at these vastly different energy scales seems to be related – a phenomenon dubbed

Read more:

The quantum experiment that could prove reality doesn’t exist

The calculations didn’t suggest any concrete values for the low-energy cutoff. So Cohen and his collaborators tried out the largest scale they could think of: the radius of the observable universe. In a further fascinating twist, the corresponding UV cutoff to this IR cutoff turned out to be exactly the tiny energy value of the universe’s dark energy – not the Planck scale, after all. If the virtual particles contributing to dark energy abide by this limit, that could explain why these effects don’t drive dark energy to ridiculously large values.

For a long time, no one took much notice of this result. Most people had their sights set on supersymmetry and its ability to resolve the problem of the Higgs particle. But recently the crisis in physics has become more apparent, as many potential solutions to the fine-tuning problem have fallen away. As a result, the insights of Cohen and his colleagues have been receiving a huge amount of interest from theorists like myself. I started to wonder: if UV/IR mixing might help to solve the dark energy problem, could it also assist with the second major problem in fundamental physics, namely the unbearable lightness of the Higgs?

To answer this question, Tom Kephart at Vanderbilt University in Tennessee and I first attempted to work out what the IR cutoff might be for the Higgs boson based on the limited lifetime of the particle. We determined a UV cutoff that is 11 orders of magnitude below the Planck scale. It is better than what we had, and yet still a million times too large for the Higgs mass we see. Adding extra dimensions could resolve the problem entirely.

Over recent years, theorists like me have tried several other ways to solve the Higgs problem using variations of UV/IR mixing – each coming from various angles. Some, like ours, take their inspiration from Cohen and his colleagues’ work on black holes. Others were born in string theory, which suggests everything is made of unbelievably tiny strings. None of the attempts so far is supported by experimental evidence, but they may get us a step in the right direction. A few of them even point to one fundamental property of underlying reality that could be causing this mixing to happen, with big implications for how we see the universe.

Quantum entanglement

Quantum entanglement is usually described as a startling correlation between quantum objects. Prepare two particles in a particular way and a measurement of one immediately fixes the other, regardless of the distance between them. But these correlations can be thought of as proof of the fact that entangled quantum systems can’t be understood as being made out of parts: they are one and the same. Just as this indivisibility links faraway particles, it also can link quantum effects at different energies. In other words, quantum entanglement could be responsible for the UV and the IR scales of the universe seemingly talking to each other.

As we proceed up the size scale and down in energy, the effects of lower energies could be broken by a process called decoherence. This well-understood quantum phenomenon hides entanglement from the eye of a local observer. It is the reason why we experience no quantum weirdness in our daily lives.

Some work has found a relationship between entanglement and UV/IR mixing, but the bounds in Cohen and his colleagues’ study were caused by gravity rather than entanglement. Excitingly, recent work by leading researchers in string theory offers a solution: by suggesting gravity itself may be entanglement in disguise.

It is a bold idea, but I suspect entanglement causes UV/IR mixing. If so, there are huge implications for understanding reality at its most fundamental. If entanglement can be applied to the entire cosmos, then instead of everything being made of smaller and smaller pieces, it would turn the universe into “a single, indivisible unit”, in the words of quantum pioneer David Bohm. All objects in existence would be encoded in a universal wave function, a mathematical entity that describes a single, entangled state.

Soon, we may know if this matches up with reality. Cohen and his collaborators suggested UV/IR mixing would affect the interaction of electrons or subatomic particles called muons with electromagnetic fields, showing up as a mismatch between the standard model’s predictions and measurements. And the phenomenon may crop up in other processes, too. One example my colleagues and I are currently exploring relates to neutrino masses. Unlike any other particles, the almost non-existent masses of the elusive neutrinos can be entirely generated by virtual particles, according to some models. This means they should be more sensitive than other particles to any UV/IR mixing effects.

If we do find evidence to support this idea, it would dramatically alter the way we conceive of the cosmos. It would mean we could not only see a world in a grain of sand, as the poet William Blake once said, but we could also quite literally see the entire universe in its tiniest pieces and particles. While this might sound like just a different way of going about physics, it is much more than that. I believe that we are on the way to a completely new understanding of how the universe is put together.

Heinrich Päs is a theoretical physicist at the Technical University of Dortmund in Germany and the author of All is One