03/05/2025 Planck, le rayonnement fossile et les neutrinos primordiaux, retour sur les principaux résultats

De 2009 à 2013, le satellite européen Planck a scruté la voûte céleste afin d’analyser le fond diffus cosmologique, cette lumière émise 380 000 ans seulement après le Big-Bang. Avec de précieuses informations sur la naissance de l’Univers et sur la formation des grandes structures.

Planck était un observatoire spatial développé par l’Agence spatiale européenne (ESA) avec une participation de l’agence spatiale américaine, la NASA. La mission du satellite étaitt de cartographier les infimes variations de température (ou d’intensité) du fond diffus cosmologique, rayonnement dans le domaine micro-onde montrant l’Univers tel qu’il est 380 000 ans après le Big Bang. 00.

Le rayonnement étudié ne peut être observé de manière suffisamment précise que depuis l’espace. Deux satellites de la NASA — COBE à la fin des années 1980 et WMAP en 2001 — dressent une première carte du rayonnement fossile. Planck, lancé le 14 mai 2009 par un lanceur Ariane 5, a comme objectif grâce à son instrument principal HFI refroidi à 0,1 kelvin de dresser une carte 20 à 30 fois plus précise que ses prédécesseurs. La collecte des données par HFI s’achève en janvier 2012 après épuisement des isotopes hélium 3 et hélium 4 servant à refroidir les bolomètres utilisés comme détecteurs.

Une première interprétation complète des données collectées a été présentée en mars 2013. Les résultats complets ont été t rendus publics en décembre 2014 et publiés au début de 2015

Pendant quatre ans, le satellite Planck a recherché la première lumière émise librement par l’Univers, il y a environ 14 milliards d’années. La mission Planck a publié les premiers articles scientifiques basés sur l’ensemble de ces résultats Ils comportent cinq cartographies complètes du ciel pour l’instrument à hautes fréquences, connu sous son acronyme anglais « HFI », et quatre ans de données pour huit cartographies complètes du ciel pour l’instrument à basses fréquences, connu sous son acronyme anglais « LFI ».

Pour la première fois, a été obtenue une analyse de ce rayonnement selon deux paramètres de la lumière : son intensité, qui traduit sa température, et sa polarisation, qui traduit l’orientation du champ électrique. Jusqu’à présent, ilallait se contenter des informations concernant les variations d’intensité lumineuse à différentes fréquences. La polarisation donne une information supplémentaire sur le rayonnement fossile. Grâce à la mesure des variations de cette polarisation, Planck renseigne maintenant sur la manière dont bougeait la matière de l’Univers primordial, il y a environ 14 milliards d’années. L’image du rayonnement fossile n’est ainsi plus statique, mais dynamique.

L’un des résultats les plus forts concerne la matière noire, cette matière composée de particules dont la nature reste inconnue et qui n’interagit que très peu avec la matière ordinaire (électrons, atomes, etc.). La théorie prédit que des particules de matière noire, aux débuts de l’Univers, doivent s’annihiler entre elles, produisant une libération d’énergie dont on mesure les effets sur la matière ordinaire et sur la lumière actuelle, en particulier les rayons cosmiques, constitués de particules de très haute énergie.

La question était de savoir si cette annihilation s’est faite plus ou moins fortement et pourrait être détectable. Les dernières observations de Planck révèlent qu’elle n’a pas été très importante, ce qui exclut toute une série de modèles théoriques pour la nature de cette matière. Ces modèles avaient été imaginés pour expliquer des excès de rayons gamma mesurés, ces dernières années, par le satellite américain Fermi, le satellite italien Pamela et l’expérience AMS, installée à bord de la station spatiale internationale. Ces trois expériences avaient interprété ces excès comme une possible conséquence de l’annihilation de matière noire. Mais le niveau de certitude des mesures de Planck est tel – 95 % – qu’il ne laisse aucun doute : l’annihilation de particules de matière noire entre elles n’est pas responsable de ces excès de rayons gamma.

Un autre résultat concerne les neutrinos dits primordiaux .Les neutrinos sont des particules très légères, qui interagissent très peu avec la matière et qui sont donc extrêmement difficiles à détecter. Mais, peu après le Big Bang, alors que l’Univers était encore opaque, leur densité était très importante : elle était comparable à celle des photons, avec lesquels ils interagissaient, et affectait l’expansion de l’Univers et la formation des structures.

Dans le rayonnement fossile, cela se manifeste par d’infimes variations de polarisation, qui ont pu être mesurés par Plank. Par ailleurs, les données finales du prédécesseur de Planck, le satellite américain WMAP, laissaient envisager l’existence de quatre sortes de neutrinos. Les variations de polarisation détectées par Plank ont permis de conclure avec une certitude presque absolue qu’il n’existe bien que trois sortes de neutrinos (électronique, muonique, tauique), comme prévu par le modèle standard de la physique des particules élémentaires?

Voir https://cnes.fr/projets/planck

La Mission DESI (Dark Energy Spectroscopic Instrument DESI)

La première tâche de la mission de DESI est d’étudier la nature de l’énergie sombre : comment la densité d’énergie sombre évolue-t-elle avec le temps et comment affecte-t-elle la formation des structures de matière ? Pour répondre à ces questions, DESI utilisera ses cartes de galaxies pour mesurer deux effets cosmologiques : les oscillations acoustiques de baryons et la distorsion dans l’espace des décalage vers le rouge (redshifts). En plus de nous permettre d’étudier la cosmologie, ces mêmes cartes nous donneront aussi l’opportunité d’étudier la physique des galaxies, des quasars et du gaz intergalactique.

Les oscillations acoustiques de baryons

Le projet DESI a été optimisé pour mesurer une empreinte subtile dans les cartes de galaxies qui provient d’un processus physique important dans l’univers primordial : les Oscillations Acoustiques de Baryons . Pour expliquer cet effet, il faut remonter au rayonnement fossile de l’univers ou fond diffus cosmologique—première émission de photons libres après le Big-Bang—qui emplit l’univers. Aujourd’hui, ce rayonnement thermique correspond à une température de seulement 2,7 degrés au-dessus du zéro absolu; mais au début de l’univers, il devait être bien plus chaud.

Avanr 380.0000 après le Big-Bang, quand l’univers était encore un milliard de fois plus dense qu’aujourd’hui, et suffisamment chaud, les photons avaient assez d’énergie pour ioniser les premiers atomes d’hydrogène et d’hélium, séparer les électrons des noyaux atomiques en entraînant la formation d’un plasma dans l’univers. On dit alors que la matière et le rayonnement sont couplés.

Les électrons diffusent leur énergie en interagissant avec les photons et ces photons créent une pression de radiation suffisante pour résister à la compression au sein du gaz. Des écarts de densité de matière sont apparus au cours des premiers instants de l’univers et se sont propagés comme des ondes acoustiques, ou plutôt comme des oscillations acoustiques de baryons (c’est-à-dire de matière) au sein du plasma ou état primitif de la matière. Les ondes de pression ont voyagé pendant 380 000 ans, jusqu’à ce que l’expansion permettent à l’univers de se refroidir suffisamment pour que les électrons et les noyaux se re-combinent en atomes neutres.

A ce moment appelé la recombinaison, les forces gravitationnelles prennent le dessus dans les zones où subsistent les écarts de densité. Cela constitue les prémices des structures que nous observons aujourd’hui dans l’univers, amas de galaxies et galaxies notamment. Les ondes de pression se sont alors figées, leurs effets rémanents sont encore observables. Autour de chaque région de surdensité, il y a une faible empreinte sphérique de ces ondes autour de cette région. Cela a créé une probabilité légèrement plus grande de trouver des paires de galaxies séparées d’une distance caractéristique. Celle-ci correspond à la distance parcourue par les ondes de pression jusqu’à la recombinaison, et qui aujourd’hui avec l’expansion de l’univers, vaut environ 500 millions d’années-lumière.

Cette légère empreinte a été observée avec plusieurs relevés de données et plus particulièrement à partir du Sloan Digital Sky Survey (SDSS) et de son relevé BOSS (Baryon Oscillation Spectroscopic Survey).

Mesurer ce subtil excès de corrélation représente un enjeu majeur dans l’étude de la nature de l’énergie sombre. Lorsque nous étudions un échantillon de galaxies à redshift élevé et détectons cette l’empreinte BAO dans leur distribution, nous savons que l’échelle est de 500 millions d’années-lumière. Sachant cela, nous pouvons en déduire la distance entre les galaxies. C’est comme si l’empreinte BAO correspondait à un étalon de distance pour mesurer l’expansion de l’univers, il y a le mètre pour les petites échelles de distances, le kilomètre pour les distances entre les villes et nous avons l’échelle BAO pour les distances entre les galaxies dans l’univers.

DESI utilisera le BAO pour mesurer la relation entre distance et redshifts dans une large gamme de redshifts avec une précision inférieure au pourcent. Il s’agit d’un tournant dans la compréhension de l’histoire de l’expansion de l’univers et de l’évolution de l’énergie sombre.

Les distorsions dans l’espace des redshift

Lorsque nous mesurons le redshift d’une galaxie, nous obtenons en réalité deux contributions : la composante dominante qui vient de l’expansion de l’univers et une composante plus faible qui résulte du mouvement propre de la galaxie attirée par les densités de matière environnante sous l’effet de la gravité. Ainsi, la mesure du redshift d’une galaxie à partir des cartes de DESI est sensible à la composante le long de la ligne de visée de la vitesse propre de cette galaxie. La prise en compte des vitesses propres introduit donc des déformations de la distribution des galaxies dans la direction parallèle à la ligne de visée par rapport à la direction perpendiculaire. Nous appelons ces déformations des distorsions dans l’espace des redshifts (Redshift Space Distortions, RSD). Elles sont directement liées à un effet d’effondrement cohérent de galaxies qui s’attirent sous l’effet de l’interaction gravitationnelle.

Or, dans le modèle classique de la cosmologie, l’interaction gravitationnelle est décrite par la théorie de la relativité générale d’Albert Einstein. En mesurant l’effet de RSD, nous pouvons déterminer la quantité de matière présente dans les structures à grande échelle. Si cette quantité de matière est connue par d’autres méthodes, nous pouvons tester si l’attraction gravitationnelle sur une échelle de plusieurs centaines de millions d’années-lumière est conforme aux prédictions de la théorie de la relativité générale. En particulier, nous pouvons mesurer la vitesse à laquelle la matière se structure et forme des galaxies. Ce paramètre cosmologique correspond au taux de croissance des structures, nous pouvons mesurer sa valeur dans les données et la comparer avec la prédiction du modèle. Le test de la relativité générale à ces gigantesques distances est important car cela pourrait valider ou rejeter des alternatives comme les théories de gravité modifiée qui cherchent à expliquer l’accélération de l’expansion de l’univers.

Aux très grandes échelles, nous avons montré que le taux d’expansion évolue de manière très différente à ce qui est prédit par l’attraction gravitationnelle de matière connue d’après les lois de la physique qui demeurent très fiables aux échelles du système solaire. Il est possible que ces différences possèdent d’autres signatures dans la distribution des structures à grande échelle de notre univers.

En plus de mesurer précisément l’évolution des distances pour contraindre les propriétés de l’énergie sombre, une analyse minutieuse des cartes de la distribution des galaxies avec DESI va permettre de détecter les effets de RSD afin de tester la validité de la théorie de la gravitation aux échelles cosmiques.

DESI dans le paysage des projets futurs de cosmologie

Le mystère de l’énergie sombre et le désir de retracer le plus précisément notre histoire cosmique continuent de motiver un grand nombre d’expériences dans le domaine de la cosmologie.

DESI est l’un des programmes d’observation du ciel les plus ambitieux, qui est actuellement en cours de développement et qui, une fois opérationnel, deviendra rapidement le plus grand relevé de données spectroscopiques de galaxies. La cartographie tridimensionnelle que DESI va obtenir présentera un grand intérêt scientifique en elle-même, et elles deviendront encore plus intéressantes lorsqu’elles seront combinées à d’autres données provenant de relevés d’imagerie optique/infrarouge, micro-ondes ou dans le domaine des rayons X.

L’une des forces de la cosmologie moderne est la possibilité de mesurer des propriétés cosmologiques de plusieurs manières, en effet la comparaison de résultats indépendants permet de renforcer notre confiance dans les réponses scientifiques que nous concluons à partir des analyses et de laisser entrevoir de nouvelles études. Nous avons hâte que le remarquable travail de groupe de DESI puisse jouer un rôle important dans le paysage des expériences de cosmologie de la décennie à venir, en particulier autour de l’étude de l’énergie sombre.

Au-delà de l’énergie sombre

Les cartes de DESI seront utilisées pour de nombreuses autres applications en plus des oscillations acoustiques de baryons et des distorsions dans l’espace des redshifts. Nous prévoyons d’utiliser nos mesures de la distribution des galaxies dans une gamme en redshift intermédiaire pour mesurer la somme des masses des neutrinos. Nos mesures permettront également de tester si les fluctuations primordiales de densité dans l’univers suivent le modèle simple adopté actuellement, ou bien si elles mettent en évidence des déviations de ce modèle simple, synonymes de comportements nouveaux à très hautes énergies comme ce fût le cas au cours de la première seconde de l’univers.

Des mesures précises de la distribution des corrélations spatiales des galaxies permettront aussi de tester une grand nombre d’extensions possibles au modèle standard de la cosmologie. Au-delà de la cosmologie, DESI va mesurer précisément les distances de plus de 30 millions de galaxies et de quasars dont les propriétés statistiques pourront être mieux connues. DESI va produire les cartes les plus détaillées jamais réalisées de notre univers proche, ce qui constitue la colonne vertébrale de nombres groupes d’études sur les galaxies et les amas de galaxies ou sur les phénomènes extrêmes au sein de ces galaxies. De plus, DESI va également réaliser un relevé spectroscopique d’étoiles afin d’étudier dans le détail la dynamique de la Voie Lactée, notre propre galaxie.

02/05/2025 La Russie a besoin des réserves de terres rares de l’Ukraine

L’Ukraine concentre à elle seule quelque 5 % des ressources minières mondiales, mais toutes ne sont pas exploitées ou facilement exploitables. D’autres sont dans des territoires occupés par la Russie.

Quant aux terres rares, l’Ukraine se place en quarantième position des pays producteurs de minerais, toutes catégories confondues (charbon inclus), selon la publication . World Mining Data 2024

Sa production repose sur trois minerais stratégiques : le manganèse (huitième producteur mondial), le titane (11e) et le graphite (14e), indispensable aux batteries électriques.

De ce dernier minerai, l’Ukraine concentre « 20 % des ressources mondiales estimées », d’après le Bureau français de recherches géologiques et minières (BRGM).

Selon des estimations du think tank ukrainien We Build Ukraine et de l’Institut national des études stratégiques, environ 40 % des ressources métalliques du pays sont maintenant sous occupation russe (d’après des données du premier semestre 2024).

Depuis, les troupes russes ont continué à progresser dans la région orientale de Donetsk. En janvier, l’Ukraine a fermé sa seule mine de charbon à coke située à l’extérieur de la ville de Pokrovsk, que les forces russes tentent de capturer.

Mais c’est dans le domaine des terres rares que la Russie a le plus grand besoin des réserves de l’Ukraine. Ceci fait que la Russie a occupé au moins deux gisements de lithium ukrainiens pendant la guerre – l’un dans le Donbass et l’autre dans la région de Zaporijjia, dans le Sud-Est. Par contre Kiev contrôle toujours des gisements de lithium dans la région centrale de Kyrovohrad.

Production en tonnes d’oxyde de terres rares
Chine 270.000
USA 45.000
Myanmar 31.000
Australie 13.000
Thailand 13.000
Inde 3.000
Russie 2.500.

L’Ukraine détiendrait environ 5 % des réserves mondiales de terres rares , utilisées dans l’électronique, les technologies de défense et les projets énergétiques. Certaines de ces réserves se situent dans des régions de l’est de l’Ukraine occupées actuellement par la Russie.

01/05/2025 De tous les endroits sur Terre où aurait pu s’écraser un astéroïde, la péninsule du Yucatán était vraisemblablement la plus mal choisie

C’est du moins ce qu’indique une nouvelle étude sur la collision survenue il y a 66 millions d’années entre un astéroïde de 12 kilomètres de diamètre et l’océan bordant aujourd’hui la ville portuaire de Chicxulub, au Mexique. L’impact a provoqué la disparition soudaine des dinosaures, décimant une grande partie de ces créatures et 75 % de toute forme de vie terrestre.

D’après une étude parue en 2017, dont nous publions ci-dessous les références et l’abstract la collision de l’astéroïde avec une sorte de poudrière pétrolière serait à l’origine de ce phénomène d’extinction de masse. La suie ainsi libérée dans l’atmosphère aurait alors provoqué un refroidissement climatique extrême. Selon les résultats de l’étude, la température de la planète se serait située entre -10 °C et -8 °C après l’impact, avec une chute oscillant entre -8 °C et -1 °C sur les sols.

Seuls 13 % de la surface terrestre sont composés de roches susceptibles de libérer une telle quantité de suie, comme l’indique l’équipe responsable de l’étude. En d’autres termes, les dinosaures non aviaires auraient bien pu ne pas disparaître si l’astéroïde avait suivi une autre trajectoire

Rappelons que le Crétacé s’est terminé il y a 66 millions d’années avec de grandes éruptions volcaniques en Inde et l’impact d’une météorite de 10 kilomètres de diamètre dans le golfe du Mexique (formant le cratère de Chicxulub).

Chacun des deux événements est isolément potentiellement catastrophique, mais celui qui a finalement tué les dinosaures non aviaires est longtemps resté une énigme.

Une équipe de chercheurs internationaux, au sein de laquelle on trouve Sietske Batenburg (Géosciences Rennes), a publié en janvier 2020 dans la revue Science (Hull et al., 2020) des résultats originaux qui permettent d’éclairer les circonstances du cataclysme planétaire en précisant la chronologie des évènements.

L’évaluation de leur importance relative – volcanisme vs astéroïde – est compliquée du fait de l’incertitude concernant la datation précise du dégazage volcanique. Pour y voir plus clair, les chercheurs ont utilisé la modélisation du cycle du carbone et les enregistrements de paléotempérature pour se concentrer sur la datation de la période du dégazage volcanique. Ils ont ainsi constaté que les principaux dégazages commencent et se terminent nettement avant l’impact.

Bien que le volcanisme ait provoqué un réchauffement climatique important en augmentant sensiblement l’effet de serre, les conclusions de l’étude montre que celui-ci s’est terminé 200 000 ans avant la fin du Crétacé. C’est donc l’impact de l’astéroïde – coïncidant avec l’extinction de masse – qui constitue par conséquent la principale cause de la disparition des dinosaures.

Si cet événement ne s’était pas produit, les dinosaures auraient vraisemblablement évolués sous la forme de créatures dotées d’un intelligence comparable celle de l’homme. Ils se seraient dotés de plus gros cerveaux capables d’une intelligence analogue à l’intelligence humaine, sinon supérieure.

Les mammifères précurseurs de l’homme seraient restés ce qu’ils étaient, de gros rats rampant entre les pattes des géants

Voir aussi Rethinking Diosaurs’ decline Newscientist 19 april 2025 p.15

Références

nature

Published: 09 November 2017

Site of asteroid impact changed the history of life on Earth: the low probability of mass extinction

Scientific Reports volume 7, Article number: 14855 (2017)

Abstract

Sixty-six million years ago, an asteroid approximately 9 km in diameter hit the hydrocarbon- and sulfur-rich sedimentary rocks in what is now Mexico. Recent studies have shown that this impact at the Yucatan Peninsula heated the hydrocarbon and sulfur in these rocks, forming stratospheric soot and sulfate aerosols and causing extreme global cooling and drought. These events triggered a mass extinction, including dinosaurs, and led to the subsequent macroevolution of mammals. The amount of hydrocarbon and sulfur in rocks varies widely, depending on location, which suggests that cooling and extinction levels were dependent on impact site. Here we show that the probability of significant global cooling, mass extinction, and the subsequent appearance of mammals was quite low after an asteroid impact on the Earth’s surface. This significant event could have occurred if the asteroid hit the hydrocarbon-rich areas occupying approximately 13% of the Earth’s surface. The site of asteroid impact, therefore, changed the history of life on Earth.

01/05/2025 Des hommes de Denisovan vivaient sur des terres émergées entre Formose et la Chine

Une publication parue dans la revue Science annonce l’appartenance d’une mandibule découverte par des pécheurs dans le détroit de Penghu, à Taïwan, à l’espèce Homo denisovensis. Une découverte importante pour cette espèce encore mal connue malgré des données génétiques importantes.

Jusqu’où s’étendait l’aire de répartition de l’Homme de Denisova ? Elle serait allé au moins de la Sibérie jusqu’à Taïwan, là où a été retrouvé un nouveau fossile. Il ne s’agit pas d’un corps entier mais d’un côté droit de mandibule –la partie inférieure de la mâchoire– sur laquelle étaient encore plantées quatre dents intactes. Elle avait été découverte initialement dans le détroit de Penghu, qui se trouve juste en face de Taïwan, à la frontière avec la Chine. Ce ne sont pas des paléontologues mais des pêcheurs qui avaient trouvé ce fossile dans leur filet, parmi les poissons, il y a près de 20 années, en 2008.

Le fossile avait été classé dans un magasin d’antiquités avant d’être redécouvert par un amateur. Durant les précédentes périodes glaciaire, ce détroit faisait partie d’une lande de terre émergée reliant Taiwan et la Chine. Il était peuplé de nombreuses espèces animales. Un précédent reste fossile d’un homme de cette espèce avait ét faite en 2010 dans une grotte des montagnes de l’Altaî, Russie. Mais il ne s’agissait que d’un os de doigt de pied

Après des années passées dans les tiroirs du Musée National des Sciences Naturelles de Taïwan, les protéines du fossile ont été examinées. Les conclusions de ces analyses sont consignées dans une nouvelle publication parue dans la revue Science dont on trouva ci-dessos les références

Pour en savoir plus sur l’Homme de Denisova, voir Silvana Condemi, paléoanthropologue, directrice de recherche au CNRS, rattachée au laboratoire ADES à l’Université d’Aix-Marseille et auteur de L’Enigme Denisova aux éditions Albin Michel.

A male Denisovan mandible from Pleistocene Taiwan

https://www.science.org/doi/10.1126/science.ads3888

Takumi Tsutaya and other authors s

Science 10 Apr 2025 Vol 388, Issue 6743 pp. 176-180

DOI: 10.1126/science.ads388836 734

Editor’s summary

Denisovans are a Pleistocene hominin lineage first identified genomically and known from only a few fossils. Although genomic studies suggest that they were widespread throughout Asia, fossils of this group have thus far only been identified from regions with cold climates, Siberia and Tibet. Tsutaya et al. used ancient proteomic analysis on a previously unidentified hominin mandible from Taiwan and identified it as having belonged to a male Denisovan. This identification confirms previous genomic predictions of the group’s widespread occurrence, including in warmer climates. The robust nature of this mandible is similar to that seen in a Denisovan one from Tibet, suggesting that this is a consistent trait for the lineage. —Sacha Vignieri

Abstract

Denisovans are an extinct hominin group defined by ancient genomes of Middle to Late Pleistocene fossils from southern Siberia. Although genomic evidence suggests their widespread distribution throughout eastern Asia and possibly Oceania, so far only a few fossils from the Altai and Tibet are confidently identified molecularly as Denisovan. We identified a hominin mandible (Penghu 1) from Taiwan (10,000 to 70,000 years ago or 130,000 to 190,000 years ago) as belonging to a male Denisovan by applying ancient protein analysis. We retrieved 4241 amino acid residues and identified two Denisovan-specific variants. The increased fossil sample of Denisovans demonstrates their wider distribution, including warm and humid regions, as well as their shared distinct robust dentognathic traits that markedly contrast with their sister group, Neanderthals.

30/04/2025 Des synapses artificielles dans le cerveau de souris

La synapse st une zone de contact fonctionnelle qui s’établit entre deux neurones, ou entre un neurone et une autre cellule (cellules musculaires, récepteurs sensoriels…). Elle assure la conversion d’un potentiel d’action déclenché dans le neurone présynaptique en un signal dans la cellule postsynaptique. On estime, pour certains types cellulaires (par exemple cellule pyramidale, cellule de Purkinje…), qu’environ 40 % de la surface membranaire est couverte de synapses. Wikipedia

Intervenir dans le cerveau pour modifier les transmissions d’influx nerveux est une opération a risque. Elle peut entrainer la destruction de plus vastes zones du cortex superficiel, entraient des paralysies ou des hallucinations. On cite notamment l’obsessive compulsive disorder (OCD) Néanmoins l’intervention sera de plus en plus tentée en cas par exemple de tumeur ou de chocs violents entraînant des destructions locales du cortex.

Aussi, à la Duke University de Durham (Etats-Unis) la décision a-t-elle été prise de faire de premières expériences chez des souris. Leur cerveau est bien plus petit que celui de l’homme, comme nul n’en ignore, mais il s’agit de mammifères proches de l’homme en ce qui concerne les grandes fonctions cérébrales.

On distingue les synapses au microscope électronique par la taille de la fente synaptique ; de l’ordre de 2 nanomètres pour les synapses électriques, entre 10 et 40 nm pour les synapses chimiques. On peut également, dans le cas des synapses électriques, observer les jonctions communicantes. Au niveau d’une synapse, il s’agit toujours d’un contact entre deux membranes plasmiques, il n’y a jamais fusion en un syncytium.

Les chercheurs cherchaient à savoir si des synapses électriques artificielles pouvaient remplacer les signaux chimiques des synapses naturelles. Un travail analogue avait été fait en utilisant des vers dits nématodes mais le cerveau de ceuc-ci, si cerveau il y a, ne comporte que 300 neurones tandis que la souris en a 71 millions.

Ils implantèrent ensuite des connexines dans le cerveau des souris. Les connexines constituent une grande famille de protéines transmembranaires qui permettent la communication intercellulaire et le transfert d’ions et de petites molécules de signalisation entre les cellules .. Ces connexisnes provenaient d’un poisson …

Note Retour à l’article en anglais, non traduit ici faute de temps

called the white perch (Morone americana). These connexins would later be used by the nerve cells on either side of the junction at the synapse, like the positive and negative parts of a circuit.

After identifying the right proteins, the next issue was knowing where to place them. “We implanted lots of electrodes about the size of a hair into many brain areas at the same time in mice and then we recorded their electrical activity,” says Dzirasa. “This gives an electrical map of how information is flowing through the brain.”

The team then exposed the mice to situations that induce behaviours like anxiety or aggression to see how this flow changed, pinpointing which brain cells should receive the engineered synapse.

Once these had been identified, the researchers injected a harmless virus into the mice’s brains to deliver the genetic information needed to make the connexins. This resulted in working electrical synapses that changed how electricity moved in a microcircuit in the frontal cortex. The mice then showed signs of being more explorative and sociable, suggesting this approach could help treat conditions like social anxiety.

“It’s a cute idea,” says David Spray at the Albert Einstein College of Medicine in New York. “It will likely provide a useful tool to answer the question of what would happen to activity patterns and behaviours if we added electrical synapses to specified cell types in neural circuits.”

The researchers also did a further experiment investigating the potential of this technique for preventing mental health issues. “We wanted to know if we could use this tool to promote resilience,” says Dzirasa.

To attempt this, Dzirasa and his colleagues targeted a long-range circuit between the frontal cortex and an area of the brain called the thalamus. They identified this circuit as important when mice are stressed, which is a sensation they may respond to by freezing in place. Introducing the engineered electrical synapses enhanced communication between these regions and stopped the mice from freezing.

“We have created an approach to edit the connection between cells, enabling targeted rewiring of the brain,” says Dzirasa. “It has the potential to edit many different types of genetically inducted wiring deficits to prevent the emergency of psychiatric disorders.”

Katrin Amunts at the Jülich Research Centre in Germany says that while the research is at an early stage, the scientists “demonstrate in the mouse model that a targeted change at the subcellular level can have an effect at the behavioural level, so there is psychiatric relevance”.

Further work by Dzirasa and a different group of colleagues introduced connexins into juvenile mice genetically predisposed to develop OCD-like symptoms. “Normally, over time, the mice start grooming a lot, and the grooming can be so severe that they get these huge facial lesions that mirror the lesions that some people with OCD get when they compulsively wash their hands,” says Dzirasa.

The mice with the electrical synapses groomed less and about two-thirds of them never developed facial lesions, he says.

Despite the work being done in mice, Dzirasa selected connexins 34.7 and 35 partly on the basis that they should work similarly in people. Existing atlases of gene expression profiles in humans could also identify which cells to target.

“These gene expression patterns are like a GPS indicator,” he says, showing which cells do what. Viruses carrying the necessary genomic material could be injected into the bloodstream and then pass through the blood-brain barrier, which could also be opened via focused ultrasound, to target cells with the right profiles, says Dzirasa.

“I’m personally very excited,” says Ithai Rabinowitch at the Hebrew University of Jerusalem in Israel, part of the team that put an electrical synapse in C. elegans. “Engineering or editing synaptic connections provides a potential all-biological approach for elucidating neural circuit function and for potentially treating various diseases involving neural connectivity,” he says. “Importantly, once installed, these new connections drive neural circuit information flow and function completely autonomously, with no need for external activation or regulation.”

But brain editing in people is a long way off and raises ethical questions, says Dzirasa. “I just want to make sure there’s something available for people if they need it.”

Rabinowitch also wonders if the brain would respond to the changes by making new neural links that may undo the effects of the engineered synapses or create other potentially negative pathways. The intervention might also have unknown side effects, he says.

Voir aussi

Brain scans are putting a major theory of consciousness to the test

A proposed way to measure consciousness called integrated information theory has been tested using data from human brain scans, and seems to workcrodosing LSD increases the complexity of your brain signals

A measure of consciousness called neural complexity increases even with small doses of LSD, but we still don’t know the potential risks of microdosing psychedelic drugs

Reference:

bioRxiv DOI: 10.1101/2025.03.25.645291

29/04/2025 Notre cosmos dissimule-t-il une réalité bien plus étrange ?

La Théorie des Cordes paraît aujourd’hui en mesure de devenir une théorie de Tout, c’est-à-dire apporter une explication à tout ce qui était jusqu’ici incompréhensible pour la science, de la gravité au Big Bang et aux Trous noirs. Le seul problème est qu’elle ne peut expliquer un univers comme le nôtre, en expansion à une vitesse accélérée.

En fait nul n’a compris encore la raison de cette expansion. On évoque une mystérieuse énergie noire. Mais, selon les théories actuelles, rien ne devrait se produire.

Cependant aujourd’hui certains physiciens proposent une solution à cette interrogation. Pour eux, notre univers ne serait qu’un point dans un ensemble beaucoup plus vaste dont une expansion accélérée serait la règle naturelle, entre un hyper-espace de grande dimension et un vide absolu, selon la description qu’en donne Antonio Padilla, de l’Université de Nottingham (UK).

La théorie des cordes ,aujourd’hui célébré, avait commencé modestement. Ce n’était alors qu’une simple équation destinée à donner un sens aux collisions entre protons et neutrons mus par ce que l’on nommait la « strong force ». Celle-ci l’emporte sur la gravité sur les courtes distances quand il s’agit de tenir réunis les protons dans les noyaux des atomes. Mais dans un sens étendu, les physiciens suggérèrent que chaque particule fondamentale, électron, quark, boson de Higgs, pouvait être l’extrémité d’une corde minuscule vibrant sur un rythme distinct.

Le premier succès de la théorie des cordes fut de pouvoir décrire la gravité . Plus tard les autres forces furent aussi analysées. La théorie des cordes devint ainsi une « théorie du Tout ».

Ses mathématiques sont complexes. Nous n’en connaissons que trois, trois d’espace et une de temps. Cependant certains théoriciens des cordes ont suggéré qu’elles étaient dix séparées par une membrane poreuse. mais elles seraient si minuscules qu’elles seraient inobservables par tout instrument que ce soit. Elles ont été nommés des branes. Malheureusement la théorie des cordes est si flexible qu’elle peut décrire de nombreux objets imaginaires au nombre d’au moins 10 puissance 500 Quelle autorité peut-elle avoir en ce cas précis ?

.

Suite non traduite et non résumée

It might seem odd that string theory struggles with something so apparently mundane as an accelerating universe. The reason is that the rate of expansion comes from the very geometry of space-time, as defined by Albert Einstein’s general theory of relativity and later descibed in detail by cosmologist Willem de Sitter. In one solution to Einstein’s equations, space-time is spherical and expanding at an accelerating rate – what’s now known as a de Sitter (dS) space. In the alternative solution, space-time is saddle-shaped and cannot expand at all, called an anti-de Sitter (AdS) space. String theory strongly implies that only AdS space-times are stable and able to support themselves, even though a wealth of astronomical data, including from those distant supernovae, confirms that our present-day universe is dS.

What we see and feel would be just a projection of a greater reality, beyond our senses

The seed of an idea to get around this impasse was planted even before physicists had fully got to grips with dark energy and the accelerating universe. In 1999, in an attempt to solve an entirely different problem in string theory, theorists Lisa Randall and Raman Sundrum toyed with the concept of high-dimensional branes, albeit in a less extravagant, easier-to-describe, five-dimensional (5D) setting.

In geometry, the surface of an object always requires one dimension fewer than the object itself – for instance, each face of a 3D cube is a 2D square. Likewise, Randall and Sundrum discovered that it was possible to have a pair of 5D AdS space-times separated by a brane that was merely 4D, just like our universe. Moreover, Randall’s later work with theorist Andreas Karch showed that this brane would have an accelerating, dS geometry – again, just like our universe. Did we live on a brane? The possibility was tantalising.

Alas, despite its superficial promise, the Randall-Karch brane never much helped to ease string theory’s woes. The reason was that, sandwiched between two mammoth AdS space-times, it wasn’t much more stable than the few pure dS universes that could be wrenched out of string theory. About five years ago, however, Danielsson and his colleagues at Uppsala University had an epiphany. “We thought, what if instability wasn’t a problem?” he says. “What if we could turn it to our advantage?”

Every space-time model has a certain level of energy woven into its fabric, governing the types and behaviours of the particles, strings, branes and other entities that may be contained within it. If a space-time doesn’t reside at the lowest possible energy, quantum mechanics says it is inherently unstable and has the risk of “decaying”, suddenly transforming into a new universe in which the energy is lower. Danielsson’s group considered a 5D AdS space-time that begins high on this energy ladder, and found that if even a tiny part of it decays, this fragment quickly forms a “dark bubble” of lower-energy 5D AdS space-time. As in the Randall-Karch scenario, this bubble is enclosed by a 4D dS space-time like our own – yet crucially, it arises out of instability, rather than being at the mercy of it.

In this new scenario, the bubble membrane on which our cosmos is poised still wouldn’t be perfectly stable. But that just means another dark bubble would occasionally pop up, or nucleate, within its inner 5D space-time, which we can’t see. In fact, new dark bubbles would continually nucleate within each other, each enclosed by a dS brane – in effect, a new universe. In this grand multiverse, what we refer to as “the” big bang would be just the moment our parent bubble gave birth to ours.

Danielsson argues that this idea is actually more intuitive than accepted big-bang cosmology. “A favourite picture of the big bang is that it’s like a balloon expanding into space,” he says. “Usually someone tells you that’s wrong: the balloon isn’t expanding into space, because that extra space – the beyond – simply doesn’t exist. But with the dark bubble, actually it does.”

Leaking gravity

However, there is a fear that, on closer inspection, the bubble may burst. The issue has to do with that most pesky of nature’s forces, gravity, and, in particular, why it is so weak. A common illustration of gravity’s weakness is the comparative strength of a fridge magnet, which is able to exert enough electromagnetic force to stick to a metal door and, in so doing, counteract the gravitational pull of the entire planet. String theory offers a generic, hand-waving answer to gravity’s feebleness: with 10 dimensions to act in, gravity is somehow diluted more than the others. But if gravity is leaking away, theorists still have to explain why it isn’t so weak as to let planets escape their orbits and spinning galaxies fly apart.

The trick is to somehow confine gravity so that only a little – just the right amount – seeps away into the extra dimensions. Padilla argues that dark bubbles don’t successfully do this. After all, the dark bubble multiverse is infinite, so gravity can potentially leak anywhere. As a result, Danielsson’s group has had to introduce additional strings in their fifth dimension to tether gravity to the bubble membranes.

“To us, it looked like you have to jump through hoops to get gravity to look 4D,” says Padilla. For this reason, he and his colleagues Ben Muntz and Paul Saffin at the University of Nottingham began to toy with an alternative solution: get rid of the multiverse and have just one bubble. With no infinite space-time, gravity’s leakage is stemmed, allowing it to be weak, but not too weak. And while our world is still the 4D brane surrounding a 5D bubble, it is now also the barrier between a 5D cosmos and pure nothingness. In other words, it is literally the edge of the universe, an “end of the world” brane. “Of course, this also presents a problem,” says Padilla. “What’s nothing, and how can something come out of it?”

How to get something from nothing is a vexed question, to say the least. From the dawn of philosophical thought, people have wondered how space, time, substance – even the rules governing those things – can arise if there is nothing there to begin with. As physics deals with relationships between entities, there seems little hope that it can ever fully answer this mystery.

.24/04/2025 La physique des particules en crise

La physique des particules rencontre aujourd’hui deux difficultés. Un approche connue souu le nom de supersymétrie, par exemple, prévoit de nouvelles particules permettant d’annuler les fluctuations quantiques résultant du modèle standard des particules.

La supersymétrie (abrégée en SuSy) est une symétrie supposée de la physique des particules qui postule une relation profonde entre les particules de spin demi-entier (les fermions) qui constituent la matière et les particules de spin entier (les bosons) véhiculant les interactions. Dans le cadre de la SuSy, chaque fermion est associé à un « superpartenaire » de spin entier, alors que chaque boson est associé à un « superpartenaire » de spin demi-entier. (Wikipedia).

Une solution alternative a été proposée par Nima Arkani-Hamed, aujourd’hui à l’ Institute for Advanced Study à Princeton, New Jersey.

Celle-ci considère que la gravité peut fuir à travers ces extra-dimensions, la rendant progressivement plus faible qu’elle ne l »est aujourd’hui. Des modèles basés sur cette hypothèse prévoient une échelle de Planck inférieure à l’actuelle, la faisant paraître plus faible qu’elle ne l’est actuellement. Les extradimensions sont actuellement invisibles parce qu’elle sont trop faibles

La longueur de Planck ou échelle de Planck est une unité de longueur qui fait partie du système d’unités naturelles dites unités de Planck et vaut 1,616 25 En physique des particules et en cosmologie physique, l’échelle de Planck est une échelle d’énergie autour de 1,22 × 10 28 eV (l’énergie de Planck, correspondant à l’équivalent énergétique de la masse de Planck, 2,17645 × 10 8 kg) à laquelle les effets quantiques de la gravité deviennent significatifs. (Wikipedia)

Jusqu’à présent cependant ces hypothèses se sont révélées trop timides pour rendre compte des nouvelles observations du LHC, d’autant plus que celui-ci ne cesse pas d’en produire.

Pour résumer, la physique des particules est en crise. C’est pourquoi un petit groupe de théoriciens, ont commencé à explorer une alternative au réductionnisme tel qu’il est connu aujourd’hui. Au lieu d’étudier les différents niveaux d’énergie de l’univers comme des entités indépendantes, il les traite comme si elles se conditionnaient respectivement..

De la même façon, dans un arc en ciel l’ultraviolet et l’infrarouge, que nous ne pouvons pas voir, enferment les autres couleurs du spectre que nous pouvons voir, lerouge, l’orange, le jaune, le vert, le bleu, l’indigo et le violet. C’est dans l’équivalent de celles-ci qu’opère le modèle standard des particules.

Dans la fin des années 1970, les physiciens Andrew Cohen , David Kaplan et Ann Nelson , en étudiant les trous noirs calculèrent qu’il y avait un minimum d’énergie à partir duquel le modèle standard cessait d’être viable

voir Effective Field Theory, Black Holes, and the Cosmological Constant

https://arxiv.org/abs/hep-th/9803132

Autrement dit, les caractères physiques de tous ces éléments semblent se conditionner respectivement. Le phénomène a été dit UV/IR mixing.

https://lsa.umich.edu/content/dam/lctp-assets/lctp-docs/seth-koren.pdf

While studying black holes, Cohen and his colleagues calculated that there is a maximum length, or minimum energy, at which the standard model stops being valid. Beyond it, gravity takes over. It might seem intuitive that if there is a lower limit, there must also be an upper one. But crucially the researchers found that these seemingly unrelated cutoffs aren’t independent of each other. In other words, the physics at these vastly different energy scales seems to be related – a phenomenon dubbed

Read more:

The quantum experiment that could prove reality doesn’t exist

The calculations didn’t suggest any concrete values for the low-energy cutoff. So Cohen and his collaborators tried out the largest scale they could think of: the radius of the observable universe. In a further fascinating twist, the corresponding UV cutoff to this IR cutoff turned out to be exactly the tiny energy value of the universe’s dark energy – not the Planck scale, after all. If the virtual particles contributing to dark energy abide by this limit, that could explain why these effects don’t drive dark energy to ridiculously large values.

For a long time, no one took much notice of this result. Most people had their sights set on supersymmetry and its ability to resolve the problem of the Higgs particle. But recently the crisis in physics has become more apparent, as many potential solutions to the fine-tuning problem have fallen away. As a result, the insights of Cohen and his colleagues have been receiving a huge amount of interest from theorists like myself. I started to wonder: if UV/IR mixing might help to solve the dark energy problem, could it also assist with the second major problem in fundamental physics, namely the unbearable lightness of the Higgs?

To answer this question, Tom Kephart at Vanderbilt University in Tennessee and I first attempted to work out what the IR cutoff might be for the Higgs boson based on the limited lifetime of the particle. We determined a UV cutoff that is 11 orders of magnitude below the Planck scale. It is better than what we had, and yet still a million times too large for the Higgs mass we see. Adding extra dimensions could resolve the problem entirely.

Over recent years, theorists like me have tried several other ways to solve the Higgs problem using variations of UV/IR mixing – each coming from various angles. Some, like ours, take their inspiration from Cohen and his colleagues’ work on black holes. Others were born in string theory, which suggests everything is made of unbelievably tiny strings. None of the attempts so far is supported by experimental evidence, but they may get us a step in the right direction. A few of them even point to one fundamental property of underlying reality that could be causing this mixing to happen, with big implications for how we see the universe.

Quantum entanglement

Quantum entanglement is usually described as a startling correlation between quantum objects. Prepare two particles in a particular way and a measurement of one immediately fixes the other, regardless of the distance between them. But these correlations can be thought of as proof of the fact that entangled quantum systems can’t be understood as being made out of parts: they are one and the same. Just as this indivisibility links faraway particles, it also can link quantum effects at different energies. In other words, quantum entanglement could be responsible for the UV and the IR scales of the universe seemingly talking to each other.

As we proceed up the size scale and down in energy, the effects of lower energies could be broken by a process called decoherence. This well-understood quantum phenomenon hides entanglement from the eye of a local observer. It is the reason why we experience no quantum weirdness in our daily lives.

Some work has found a relationship between entanglement and UV/IR mixing, but the bounds in Cohen and his colleagues’ study were caused by gravity rather than entanglement. Excitingly, recent work by leading researchers in string theory offers a solution: by suggesting gravity itself may be entanglement in disguise.

It is a bold idea, but I suspect entanglement causes UV/IR mixing. If so, there are huge implications for understanding reality at its most fundamental. If entanglement can be applied to the entire cosmos, then instead of everything being made of smaller and smaller pieces, it would turn the universe into “a single, indivisible unit”, in the words of quantum pioneer David Bohm. All objects in existence would be encoded in a universal wave function, a mathematical entity that describes a single, entangled state.

Soon, we may know if this matches up with reality. Cohen and his collaborators suggested UV/IR mixing would affect the interaction of electrons or subatomic particles called muons with electromagnetic fields, showing up as a mismatch between the standard model’s predictions and measurements. And the phenomenon may crop up in other processes, too. One example my colleagues and I are currently exploring relates to neutrino masses. Unlike any other particles, the almost non-existent masses of the elusive neutrinos can be entirely generated by virtual particles, according to some models. This means they should be more sensitive than other particles to any UV/IR mixing effects.

If we do find evidence to support this idea, it would dramatically alter the way we conceive of the cosmos. It would mean we could not only see a world in a grain of sand, as the poet William Blake once said, but we could also quite literally see the entire universe in its tiniest pieces and particles. While this might sound like just a different way of going about physics, it is much more than that. I believe that we are on the way to a completely new understanding of how the universe is put together.

Heinrich Päs is a theoretical physicist at the Technical University of Dortmund in Germany and the author of All is One

26/04/2025 Le satellite Européen Euclid et l’observation de l’énergie noire dans l’univers

Le 1er juillet 2023, le satellite européen Euclid a quitté la Terre pour cartographier tune partie de l’Univers visible. La mission vise à comprendre comment l’univers se structure et pourquoi son expansion s’accélère depuis ces 10 derniers milliards d’années. Ces phénomènes qui mettent en jeu l’énergie noire et la matière noire.

Euclid est la 2ème mission M2 (dite moyenne) du programme scientifique obligatoire Cosmic Vision de l’ESA, une mission d’astronomie et d’astrophysique sélectionnée au SPC du 04 octobre 2011, puis adoptée au SPC du 20 juin 2012. C’est une mission principalement dédiée à la cosmologie, c’est-à-dire à l’étude de l’origine, de la nature, de la structure et de l’évolution de l’Univers qui va essayer d’accroître nos connaissances sur deux composantes encore mystérieuses de notre univers, l’énergie noire et la matière noire.

La mission a principalement deux buts. Le premier est de comprendre pourquoi l’expansion de l’Univers s’accélère sous l’effet de cette encore mystérieuse « énergie noire », (ou « sombre »). Le second est de cartographier la non moins mystérieuse « matière noire » (ou « sombre »), puisque bien qu’invisible directement à nos yeux et aux instruments, elle participe, avec la matière visible (étoiles, nébuleuses, …etc) aux effets de gravitation qui lient entre elles les étoiles au sein des galaxies et les galaxies au sein des amas.

En observant toujours plus loin, donc en remontant plus loin dans le temps, Euclid tentera de reconstruire l’évolution de notre univers au cours des 10 derniers milliards d’années sous les effets antagonistes de la matière noire et de l’énergie noire.

Au cours de sa mission nominale de 6 ans, Euclid doit observer à peu près un tiers de la voûte céleste, soit un peu moins de 15 000 degrés², le reste étant occulté par le plan galactique (disque dans lequel tournent les galaxies de la Voie Lactée) et par le plan de l’écliptique (disque dans lequel tournent les planètes de notre système solaire).

À ce relevé s’ajouteront des observations environ 10 fois plus profondes visant trois champs situés près des pôles écliptiques, un au nord couvrant 20 degrés et 2 au sud couvrant chacun 10 degrés. Ils seront visités régulièrement pendant toute la durée de la mission, et serviront de données d’étalonnage et de contrôle de stabilité des performances du télescope et des instruments, ainsi que de données scientifiques pour l’observation des galaxies et des quasars les plus lointains de l’Univers.

Euclid observera donc des milliards de galaxies et l’évolution des grandes structures de l’univers à travers les âges jusqu’à 10 milliards d’années dans le passé, dans le domaine visible et proche infrarouge (longueur d’onde de 550 à 2000 nm). Pour ce faire, il est prévu de déterminer les décalages spectraux vers le rouge (appelé redshift et noté z) des sources observées par des méthodes spectrométriques et photométriques issues de mesures instrumentales et complémentées, pour les mesures photométriques, par l’assistance de télescopes terrestres pour des mesures dans le domaine visible.

Avec son immense couverture céleste et ses catalogues de milliards d’étoiles et de galaxies, l’intérêt scientifique de la mission dépasse le cadre de la cosmologie. Cette base de données alimentera en sources l’ensemble de la communauté astronomique mondiale pour des décennies et constituera un réservoir d’objets astronomiques nouveaux pour des observations impliquant les télescopes le JWST, l’E-ELT, le TMT, ALMA, SKA ou le Vera C. Rubin Observatory.

Pour réaliser ce travail de cartographie, Euclid aura à son bord 2 instruments, un spectrophotomètre proche infrarouge appelé NISP (Near Infrared Spectro Photometer) et un imageur travaillant dans le domaine visible, l’Instrument VIS (VISible Instrument), développés par un consortium international dirigé par l’Institut d’Astrophysique de Paris (IAP/CNRS). Celui-cid regroupe plus de 2 200 personnes (dont 425 en France) réparties dans environ 250 laboratoires (dont 40 en France) de 16 pays. 

Note

Nul n’a compris encore compris la raison de l’expansion de l’univers. On évoque une mystérieuse énergie noire. Selon les hypothéses actualles, rien ne devrait se produire. Cependant aujourd’hui certains physiciens proposent une solution à cette interrogation. Pour eux, notre univers ne serait qu’un point dans un ensemble beaucoup plus vaste dont une expansion accélérée serait la règle naturelle, entre un hyper-espace de grande dimension et un vide absolu, selon la description qu’en donne Antonio Padilla, de l’Université de Nottingham (UK). Comme l’observe le Newscientist, les lois de la physique semblent appliquer une règle mathématique mysterieuse

27/04/2025 Le satellite français d’observation militaire CSO-3

Le satellite militaire français d’observation CSO-3 (Composante Spatiale Optique). CSO-3 a été mis en orbite le 6 mars 2025 depuis le Centre spatial guyanais, au moyen du lanceur Ariane 6, à 17h24, heure de Paris.

Le lancement marque la fin d’un cycle de renouvellement des capacités spatiales d’observation de la défense française. Le système CSO, composé de trois satellites dont les deux premiers ont été mis en orbite en 2018 et 2020, constitue la nouvelle génération de satellites d’observation militaire.

Les satellites CSO permettent aux armées d’accéder à des images d’une qualité sans précédent en Europe, d’avoir accès à des détails plus fins et d’identifier des cibles plus petites de jour dans le visible, comme de nuit dans l’infrarouge. Ces satellites représentent ainsi une plus-value significative pour les activités d’appui aux opérations, de renseignement et de ciblage. CSO est également un système agile offrant aux utilisateurs, en un seul survol, plus d’images sur une même zone géographique. Enfin, ses capacités de réactivité permettent une meilleure adaptation au rythme des opérations.

Il constitue un outil indispensable de la politique de défense de la France en garantissant une autonomie d’appréciation et une souveraineté décisionnelle dans l’espace.

Le système CSO, développé dans un cadre national au sein du programme MUSIS mené par la DGA, au profit du CDE, est résolument ouvert aux partenariats européens au travers d’accords bilatéraux avec huit partenaires. En effet, actuellement, l’Allemagne (2015), la Suède (2015), la Belgique (2017), l’Italie (2019), l’Espagne (2021), la Suisse (2023), la Pologne (2024) et la Grèce (2024) ont déjà rejoint la communauté CSO via des accords de coopération.

La DGA assure la maîtrise d’ouvrage du programme MUSIS, en équipe intégrée avec le CDE, grand commandement de l’armée de l’Air et de l’Espace. Elle assure en propre la maîtrise d’ouvrage du segment sol utilisateurs (SSU), ainsi que l’ensemble des aspects ayant trait à la mise en place des partenariats de coopération.

La DGA a délégué au CNES la maîtrise d’ouvrage pour la réalisation et le lancement des satellites CSO, ainsi que pour la réalisation du segment sol mission (SSM). La maîtrise d’œuvre industrielle des satellites CSO est assurée par le groupement d’entreprises Thales Alenia Space et Airbus Defence and Space. Arianespace fournit les services de lancement.