18/05/2025 Le temps ne s’écoule pas de la même façon dans tout l’univers

Aujourd’hui un groupe de cosmologistes proposent l’hypothèse selon laquelle l’écoulement du temps n’est pas identique dans tout l’univers. Il varierait dans cette hypothèse dite timescape cosmology. Selon celle-ci, dans de grandes parties de l’univers, le temps aurait duré des millions d’années plus longtemps que dans le reste de l’univers.

Selon David Wiltshire de l’University of Canterbury en Nouvelle Zélande, cette hypothèse pourrait exliquer un des plus grands mystères de la physique. Il ne s’agit pas du fait que l’univers soit en expansion, mais du fait que celle-ci s’accélère. Pour expliquer cette accélération, le concept d’énergie noire avait été imaginé. Mais celui-di contredit le principe cosmologique selon lequel il n’y a pas de place spéciale dans l’univers. Tout ce qui est bon pour la Terre l’est également pour tout l’espace. On dit que l’univers est à la fois isotrope et homogène aux grandes échelles. Si je regardes la distribution des galaxies à grande distance j’en vois le même nombre du nord au sud et de l’est à l’ouest rappelle Joshua Frieman, cosmologiste à l’Université de Chicago.

Cependant avec ce principe et la loi de la relativité générale il est impossible d’expliquer l’univers qui n’apparait isotrope et homogène qu’à des échelles de 400 millions d’années-lumière. En dessous selon les emplacements, l’on trouve des amas de galaxies et des espaces vides.

Vers la mi 2000, Wiltshire pris connaissance du travail de Thomas Buchert, alors en service au laboratoire des particules élémentaires du CERN, qui avait été frappé par ce manque d’homogénéité comportant des vides faisant 95% du volume de l’univers L’un et l’autre élaborèrent jusqu’en 2007 le modèle dit time escape.

Celui-ci repose sur un phénomène dit de la dilatation gravitationnelle du temps

(à suivre)

18/05/2025 Les prévisions sur l’avenir de l’univers remises en question

Les scientifiques travaillant sur le Dark Energy Spectroscopic Instrument (DESI, instrument spectroscopique pour l’énergie sombre) ont réalisé la plus grande carte en 3D de l’univers et en ont tiré une mesure aussi précise que possible de l’énergie sombre (dite aussi énergie noire), cause supposée de l’expansion, elle même supposée, de l’univers.

DESI est monté sur un télescope. Il mesure le redshift de la lumière émise par les galaxies éloignées . Le redshift ou expansion vers le rouge est un accroissement de la longueur d’onde de la lumière émise par ces galaxies. Il correspond à une diminution de la fréquence et de l’énergie de la lumière provenant de ces mêmes galaxies alors qu’elles se déplacent dans l’univers.

C’est ce qui est représenté par le concept de constante cosmologique. La constante cosmologique est un paramètre ajouté par Einstein en février 1917 à ses équations de la relativité générale, dans le but de rendre sa théorie compatible avec l’idée qu’il se faisait alors d’un Univers statique.

A partir de ces données, les scientifiques peuvent déterminer l’importance de l’expansion de l’univers. Or aujourd’hui l’étude de cette lumière semble montrer qu’elle ne correspond pas à ce qu’elle serait si l’univers était en expansion.

Mais si l’univers n’était pas en expansion, il serait stable ou en régression. Le concept de stabilité de l’univers correspond à une stabilité de la constante cosmologique, hypothèse qu’aucune observation ne permet de confirmer.

Par contre un univers en régression finirait par s’effondrer sur lui-même (big crunch). Que se passerait-il ensuite ? Aucun théoricien ne se risque aujourd’hui à imaginer une réponse à cette question.

17/05/2025 Des astéroides comme Bennu ont-ils transporté les éléments nécessaires à la vie à l’intérieur de la galaxie ?

OSIRIS-REx (acronyme de Origins-Spectral Interpretation-Resource Identification-Security-Regolith Explorer) est une mission de la NASA, qui a pour objectif d’étudier l’astéroïde Bénnu et de ramener un échantillon de son sol sur Terre. La sonde spatiale est lancée le 8septembre2016 par une fusée Atlas V 411. Bénou est un astéroïde de type Apollon, dont l’orbite croise celle de la Terre (astéroïde géocroiseur), sélectionné pour cette mission pour deux raisons : il a très peu évolué depuis la formation du système solaire et son orbite, proche de celle de la Terre, facilite son approche.

La sonde spatiale d’environ deux tonnes emporte plusieurs caméras, des spectromètres pour déterminer la composition de la surface et un altimètre destiné à dresser une carte topographique de l’astéroïde. Les données recueillies in situ doivent contribuer à améliorer nos connaissances sur le processus de formation et et d’évolution du Système solaire. Mais l’objectif principal de la mission est de ramener sur Terre un échantillon de sol de l’astéroïde qui permettra, grâce aux instruments disponibles dans les laboratoires terrestres, d’isoler éventuellement les composants primordiaux du Système solaire que l’astéroïde a théoriquement préservés.

La mission OSIRIS-REx, proposée par une équipe scientifique de l’université de l’Arizona, est sélectionnée en mai 2011. C’est la troisième sonde spatiale du programme New Frontiers de la NASA, qui regroupe des missions interplanétaires de classe moyenne, dont le coût hors lancement est plafonné à 800 millions de dollars américains. La sonde spatiale, après deux années de transit, s’est placée en orbite autour de l’astéroïde Bénou début décembre 2018. Après une phase de reconnaissance et d’étude, la sonde spatiale effectue le prélèvement des échantillons de sol de l’astéroïde (122 grammes) le 20 octobre 2020. Le retour sur Terre de la capsule contenant ces échantillons a eu lieu le 24 septembre 2023. La sonde spatiale doit alors débuter une nouvelle mission ayant pour objectif l’étude de l’astéroïdegéocroiseurApophis autour duquel elle se placera en orbite en 2029

L’étude de ces échantillons a fait apparaître des molécules qui, sur la Terre, sont nécessaires à la vie. Il ne s’agit pas de vie elle-même, mais d’éléments qui sont présents dans tout le système solaire et qui, en présence d’eau salée, peuvent interagir et se combiner pour donner naissance à la vie et lui servir ensuite de support.

Ceci suggère l’hypothèse que la vie soit apparue sur les autres planètes de la même façon qu’elle l’a fait sur la Terre et ce dès la formation du jeune système solaire

Dans un article de recherche récemment édité par Nature et Nature Astronomy, dont on trouvera ci-dessous les références et les abstracts, des scientifiques de la NASA et d’autres institutions présentent les analyses en profondeur des minéraux et molécules présents dans les échantillons de Bennu rapportés sur Terre en 2023 par la mission OSIRIS-REx.

On y trouve 14 des éléments constituant les acides aminée terrestres qui servent sur Terre à fabriquer les protéines des organismes vivants. On y trouve aussi cinq des nucléobases que la vie sur Terre utilise sur conserver et transmettre les molécules de l’ARN et de l’ADN multicellulaires.

Si tout le système solaire comporte les molécules nécessaires à la vie pourquoi n’y voyons nous pas de vie? Peut-être est ce parce que nous ne voulons pas la voir?

————————————————————–

Suite non traduite et non résumé,

Scientists also described exceptionally high abundances of ammonia in the Bennu samples. Ammonia is important to biology because it can react with formaldehyde, which also was detected in the samples, to form complex molecules, such as amino acids – given the right conditions. When amino acids link up into long chains, they make proteins, which go on to power nearly every biological function.

These building blocks for life detected in the Bennu samples have been found before in extraterrestrial rocks. However, identifying them in a pristine sample collected in space supports the idea that objects that formed far from the Sun could have been an important source of the raw precursor ingredients for life throughout the solar system.

“The clues we’re looking for are so minuscule and so easily destroyed or altered from exposure to Earth’s environment,” said Danny Glavin, a senior sample scientist at NASA’s Goddard Space Flight Center in Greenbelt, Maryland, and co-lead author of the Nature Astronomy paper. “That’s why some of these new discoveries would not be possible without a sample-return mission, meticulous contamination-control measures, and careful curation and storage of this precious material from Bennu.”

While Glavin’s team analyzed the Bennu samples for hints of life-related compounds, their colleagues, led by Tim McCoy, curator of meteorites at the Smithsonian’s National Museum of Natural History in Washington, and Sara Russell, cosmic mineralogist at the Natural History Museum in London, looked for clues to the environment these molecules would have formed. Reporting in the journal Nature, scientists further describe evidence of an ancient environment well-suited to kickstart the chemistry of life.

Ranging from calcite to halite and sylvite, scientists identified traces of 11 minerals in the Bennu sample that form as water containing dissolved salts evaporates over long periods of time, leaving behind the salts as solid crystals.

Similar brines have been detected or suggested across the solar system, including at the dwarf planet Ceres and Saturn’s moon Enceladus.

Although scientists have previously detected several evaporites in meteorites that fall to Earth’s surface, they have never seen a complete set that preserves an evaporation process that could have lasted thousands of years or more. Some minerals found in Bennu, such as trona, were discovered for the first time in extraterrestrial samples.

“These papers really go hand in hand in trying to explain how life’s ingredients actually came together to make what we see on this aqueously altered asteroid,” said McCoy.

For all the answers the Bennu sample has provided, several questions remain. Many amino acids can be created in two mirror-image versions, like a pair of left and right hands. Life on Earth almost exclusively produces the left-handed variety, but the Bennu samples contain an equal mixture of both. This means that on early Earth, amino acids may have started out in an equal mixture, as well. The reason life “turned left” instead of right remains a mystery.

“OSIRIS-REx has been a highly successful mission,” said Jason Dworkin, OSIRIS-REx project scientist at NASA Goddard and co-lead author on the Nature Astronomy paper. “Data from OSIRIS-REx adds major brushstrokes to a picture of a solar system teeming with the potential for life. Why we, so far, only see life on Earth and not elsewhere, that’s the truly tantalizing question

Référence

https://www.nature.com/articles/s41550-024-02472-9

https://www.asc-csa.gc.ca/fra/satellites/osiris-rex/

Abundant ammonia and nitrogen-rich soluble organic matter in samples from asteroid (101955) Bennu

Nature Astronomy volume 9, pages 199–210 (2025)

Abstract

Organic matter in meteorites reveals clues about early Solar System chemistry and the origin of molecules important to life, but terrestrial exposure complicates interpretation. Samples returned from the B-type asteroid Bennu by the Origins, Spectral Interpretation, Resource Identification, and Security–Regolith Explorer mission enabled us to study pristine carbonaceous astromaterial without uncontrolled exposure to Earth’s biosphere. Here we show that Bennu samples are volatile rich, with more carbon, nitrogen and ammonia than samples from asteroid Ryugu and most meteorites. Nitrogen-15 isotopic enrichments indicate that ammonia and other N-containing soluble molecules formed in a cold molecular cloud or the outer protoplanetary disk. We detected amino acids (including 14 of the 20 used in terrestrial biology), amines, formaldehyde, carboxylic acids, polycyclic aromatic hydrocarbons and N-heterocycles (including all five nucleobases found in DNA and RNA), along with ~10,000 N-bearing chemical species. All chiral non-protein amino acids were racemic or nearly so, implying that terrestrial life’s left-handed chirality may not be due to bias in prebiotic molecules delivered by impacts. The relative abundances of amino acids and other soluble organics suggest formation and alteration by low-temperature reactions, possibly in NH3-rich fluids. Bennu’s parent asteroid developed in or accreted ices from a reservoir in the outer Solar System where ammonia ice was stable.

16/05/2025 La mission Dragonfly de la Nasa rencontrera sur Titan des vents de 500 à 1200 Kms/heure en haute atmosphère

Cette mission prévoit de faire se poser une douzaine de fois sur Titan, un des satellites de Saturne, en 2034, un petit hélicoptère (rotorcraft) destiné à étudier son potentiel d’habitabilié. Mais il apparait que celui-ci se heurtera à des vents de surface capables de déplacer des rochers cylindriques de plus d’un demi-mètre de diamètre. Précédemment la sonde Huyghens, dans le cadre de la mission Cassini, avait atteint Titan en 2005, Elle y avait observé des champs de roches s’étendant à l’infini, ainsi que des blocs de glace balayés par un vent violent.

Pour mieux évaluer les enjeux de la mission Dragonfly, la Nasa a fait réaliser un document public dont on trouvera ci-dessous les principales dispositions.

Référence

Dragonfly (en français : « Libellule ») est une mission d’exploration du système solaire de l’agence spatiale américaine, la NASA, dont l’objectif est d’étudier Titan, le plus gros satellite naturel de Saturne. Les caractéristiques de cette lune — atmosphère épaisse, lacs de méthane et d’éthane liquides, substances organiques complexes, cryovolcanisme, pluie de méthane — en font un monde d’un très grand intérêt sur le plan scientifique.

La mission spatiale exploite la présence d’une atmosphère dense (1,5 fois celle de la Terre) et d’une gravité inférieure à celle de la Lune : elle met en œuvre un aérobot de type aérogire d’une masse de 875 kg, qui effectuera de multiples vols de courte durée pour étudier la basse atmosphère et la surface de Titan. Pour disposer de suffisamment d’énergie pour fonctionner et survivre dans une température moyenne de −180 °C, l’engin spatial dispose d’un générateur thermoélectrique à radioisotope.

Dragonfly est un des deux finalistes retenus en décembre 2017 pour la quatrième mission du programme New Frontiers, qui regroupe des sondes spatiales chargées d’explorer le système solaire avec un coût plafonné à un milliard de dollars. La NASA sélectionne cette mission en juin 2019. Celle-ci doit décoller en 2028 et se poser sur Titan en décembre 2034.

Contexte

La mission Cassini-Huygens, qui a étudié Titan entre 2004 et 2017, a révélé un monde d’un grand intérêt scientifique. Une chimie complexe et diversifiée reposant sur le carbone se déroule à la surface de cette lune de Saturne. On retrouve les mêmes processus que sur Terre mais le cycle du méthane remplace celui de l’eau. C’est un laboratoire naturel unique pour étudier la chimie prébiotique et pour rechercher des signatures de formes de vie basées sur les hydrocarbures.

Il se peut que les matières organiques interagissent avec de l’eau liquide à la surface ou non loin de la surface accroissent la possibilité de l’apparition d’une chimie prébiotique. Par ailleurs, des échanges pourraient avoir lieu avec un océan intérieur.

Les mesures effectuées par les instruments de la mission ont laissé beaucoup d’inconnues sur la composition des matériaux en surface. Par contre, les scientifiques ont la certitude que celle-ci est très variable selon les lieux. Il est donc essentiel de collecter des données sur différents sites pour déterminer dans quelle mesure la chimie prébiotique a pu progresser dans des environnements géologiques différents. Compte tenu de cet objectif, la mobilité d’un engin spatial est essentielle pour pouvoir effectuer les mesures sur les différents sites

Projets d’exploration précédents

Avant même l’arrivée de Cassini-Huygens dans le système saturnien, des groupes de travail préparant pour la NASA le plan décennal d’exploration du système solaire de 2003 avaient identifié à la fois l’importance scientifique de la chimie à l’œuvre à la surface de Titan et le potentiel d’une mission exploitant la mobilité d’un aéronef. Les premiers scénarios de mission reposant sur des engins plus lourds que l’air et sur des hélicoptères datent de cette époque.

Depuis la réception des premiers résultats fournis par Cassini-Huygens, plusieurs projets aux caractéristiques et aux coûts variables ont été proposés sans qu’aucun ne soit retenu :

  • Titan Prebiotic Explorer (TIPEX) est une étude interne du centre JPL de la NASA datant de 2006 comprenant un orbiteur et une montgolfière. Des échantillons de sol sont collectés à l’aide d’un dispositif de prélèvement largué puis ramené dans la gondole 
  • Titan Explorer est la première proposition répondant au cahier des charges définissant les attentes scientifiques de la NASA. Ce projet de 2007 très ambitieux, élaboré par le laboratoire Applied Physics Laboratory (constructeur de Dragonfly), comprend un orbiteur utilisant l’aérocapture, une montgolfière et un atterrisseur statique ;
  • l’Agence spatiale européenne, qui a développé l’atterrisseur Huygens propose à peu près à la même époque Titan and Enceladus Mission (TandEM) un projet combinant l’étude de Titan et d’Encelade, autre satellite de Saturne ;
  • Titan Saturn System Mission (TSSM) résulte de la fusion en 2009 des études menées jusque-là par la NASA et l’Agence spatiale européenne. La mission devait comprendre un orbiteur américain et deux engins développés par l’Europe : une montgolfière fournie par le CNES et un atterrisseur fonctionnant sur batterie et donc avec une durée de vie brève, qui devrait se poser sur l’une des mers de méthane de Titan ;
  • AVIATR est un projet d’aéronef alimenté en énergie par un générateur thermoélectrique à radioisotope et moteur Stirling (ASRG) développé en réponse à l’appel à propositions de 2010 du programme Discovery. Mais le projet s’est avéré incompatible avec les contraintes budgétaires de ce programme destiné aux missions à faible budget .
  • Titan Mare Explorer (TIME) est un des trois finalistes retenus en 2011 pour la sélection de la 12e mission du programme Discovery. Il s’agissait de faire atterrir sur un lac de méthane Ligeia Mare un engin alimenté en énergie par un ASRG. Le projet ne sera pas retenu dans la sélection finale en 2012.

Historique du projet

La réactivation du programme New Frontiers

Article détaillé : programme New Frontiers.

Après une pause d’un an imposée par des contraintes budgétaires, le programme New Frontiers de la NASA, qui rassemble des missions d’exploration du système solaire à coût intermédiaire, est réactivé début 2015. Un appel à propositions est lancé fin 2016. Il est prévu à l’époque qu’une présélection débouchant sur des études approfondies soit finalisée en novembre 2017 puis que la sélection finale soit effectuée en juillet 2019. Les propositions de mission doivent porter sur un des six thèmes énoncés dans le plan stratégique et le plan scientifique de la NASA de 2014:

  • mission de retour d’échantillons de la surface d’une comète ;
  • mission de retour d’échantillons du sol prélevés dans le Bassin Pôle Sud-Aitken près du pôle sud de la Lune ;
  • mondes océaniques ; Encelade et/ou Titan ;
  • sonde atmosphérique de Saturne ;
  • étude des astéroïdes troyens orbitant aux point de Lagrange L4 ou L5 de la planète Jupiter ;
  • étude de la composition et des caractéristiques de la surface de Vénus visant à répondre aux deux objectifs suivants : formation des planètes terrestres et modalités de l’évolution de Vénus depuis son origine sans doute similaire à celle de la Terre.

Sélection du projet Dragonfly (2017-2019)

Douze projets sont proposés. Dragonfly est le fruit des travaux d’une équipe du laboratoire Applied Physics Laboratory (APL) de l’Université Johns-Hopkins dans le Maryland dirigée par la planétologue Elizabeth Turtle.

Le laboratoire APL joue un rôle de pointe dans la réalisation des satellites scientifiques et des sondes spatiales d’exploration du système solaire lancées par la NASA avec des missions comme MESSENGER (2004), première sonde spatiale à s’être placée en orbite autour de la planète Mercure, New Horizons (2006) première sonde spatiale à avoir étudié in situ la planète naine Pluton, l’observatoire solaire Solar Probe Plus lancé en 2018, Europa Clipper (2023) (partenariat avec le Jet Propulsion Laboratory) chargée d’étudier la lune Europe de la planète géante Jupiter et DART (2020)

Dragonfly est avec CAESAR (Mission de retour d’échantillons de la comète 67P/Tchourioumov-Guérassimenko) une des deux missions retenues en décembre 2017 pour la sélection finale qui doit avoir lieu en 2019. La mission Dragonfly est finalement sélectionnée le 27 juin 2019 bien que Titan ne fasse pas partie des destinations retenues par le dernier rapport décennal sur les sciences planétaires sur lequel la NASA doit normalement baser son choix. En sélectionnant cette mission l’agence spatiale a voulu réagir rapidement aux dernières découvertes effectuées sur cette lune par la mission Cassini Huygens et le télescope Hubble sans attendre la prochaine actualisation de ce rapport.

Développement de la mission (2019-2028)

Le lancement de la mission est programmé initialement pour 2026 mais en septembre 2020 la date est repoussée en 2027 puis en 2028 pour prendre en compte des facteurs exogènes comme l’épidémie de COVID en cours.

Malgré ces reports l’arrivée à la surface de Titan reste programmée pour 2034 En novembre 2024, la NASA sélectionne le lanceur Falcon Heavy de la société SpaceX pour le lancement de sa sonde spatiale qui doit décoller depuis le complexe de lancement 39A du centre spatial Kennedy. La prestation est facturée un montant de 256,6 millions de dollars. La fenêtre de lancement s’ouvre le 5 juillet 2028 et se referme le 25 juillet.

En avril 2024 le cout du projet qui avait été estimé initialement à 2,2 atteint désormais 3,5 milliards de dollars (avril 2024) ce qui alimente les rumeurs d’annulation compte tenu des dépassements que connait à la même époque le projet Mars Sample Return. Mais la NASA confirme à cette date la poursuite des développements en annonçant par ailleurs que le projet a franchi avec succès la revue de conception critique (en anglais : Critical Design Review ou CDR) qui fige la conception du véhicule et confirme son coût de fabrication.

Le développement de l’aérobot qui doit pouvoir fonctionner dans une atmosphère très particulière à des températures extrêmement basses (−180 °C) fait face à de nombreuses difficultés. Pour vérifier le fonctionnement des composants dans cet environnement le laboratoire APL dans ses locaux met en service fin 2023 une chambre cubique de plus de 4 mètres de côté, réalisée en acier inoxydable, dans laquelle est reproduite la température et la pression que subira Dragonfly[12].

Le spectromètre de masse DraMS devait initialement analyser la composition des échantillons de sol prélevées mais également celle de l’atmosphère. Mais les ingénieurs ne parviennent pas à concevoir une ouverture du fuselage qui ne compromettrait pas la sécurité de l’engin (chute de la température interne) et ils doivent renoncer à cette fonctionnalité. La conception des lubrifiants qui subissent des températures anormalement basses constituent une autre difficulté.

Certaines caractéristiques de l’aérobot évoluent durant la phase de conception comme l’utilisation de rotors à trois pales (au lieu de deux) et la modification de l’emplacement de certains instruments[10].

Objectifs de la mission

Durant sa mission, Dragonfly doit collecter les données suivantes:

  • Prélever des échantillons des matériaux en surface et identifier à l’aide d’un spectromètre de masse ses éléments chimiques et les processus produisant des composants significatifs sur le plan biologique ;
  • Mesurer les éléments chimiques présents à la surface à l’aide d’un spectromètre à rayons gamma ;
  • Enregistrer à l’aide de capteurs météorologiques les conditions atmosphériques et de la surface en particulier les changements dus au lieu et au cycle diurne ;
  • Réaliser des photos permettant de caractériser les formations géologiques ;
  • Mesurer les mouvements sismiques pour déterminer la structure du sous-sol et son activité ;
  • En vol établir des profils atmosphériques ;
  • En vol réaliser des photos aériennes de la géologie de la surface ;
  • En vol fournir le contexte des mesures effectuées en surface et effectuer des reconnaissances des sites présentant un intérêt scientifique.

Site d’atterrissage

Le site d’atterrissage retenu est un champ de dunes situé près du cratère d’impact Selk (7° N, 199° O) de 90 kilomètres de diamètre. La région fait partie de l’immense champ de dunes de Shangri-La où s’était déjà posé l’atterrisseur européen Huygens. La sélection de ce site résulte d’un ensemble de contraintes:

  • Pour que Dragonfly se pose sans risquer de se renverser, le site retenu doit comporter un sol présentant une pente modérée (inférieure à 10-15 %) et dépourvu d’obstacles importants (diamètre des roches inférieur à un mètre). Les champs de dunes de Titan, bien qu’ils n’aient été cartographiés par la sonde spatiale Cassini entre 2004 et 2017 qu’avec une résolution spatiale très grossière (de l’ordre du kilomètre), présentent généralement ces caractéristiques.
  • La sonde spatiale va subir une forte décélération durant sa rentrée dans l’atmosphère de Titan et son bouclier thermique doit résister à des températures d’autant plus fortes que sa vitesse d’arrivée est élevée. Les ingénieurs ont choisi d’effectuer une rentrée directe (sans insertion en orbite) sous un angle de 65° (identique à celui d’Huygens) ce qui limite les zones d’atterrissage. Par ailleurs la rentrée se fera dans l’hémisphère délimitée par les longitudes 180 et 360 Ouest pour soustraire la vitesse de rotation de la lune à la vitesse d’arrivée de la sonde spatiale et de ce fait limiter l’épaisseur du bouclier thermique.
  • Lorsque la sonde spatiale arrivera sur Titan, ce sera l’hiver dans l’hémisphère nord/ Les latitudes élevées où se situent les lacs d’hydrocarbures ne seront pas éclairées et sont donc exclues des sites d’atterrissage potentiels.
  • La rentrée dans l’atmosphère, la descente vers le sol, l’atterrissage ainsi que les deux à trois premiers jours (jour terrestre) de la mission consacrés aux vérifications des systèmes doivent pouvoir être suivis en temps réel par les équipes au sol. Pour y parvenir la Terre doit être visible depuis cette région durant tout ce laps de temps. Compte tenu de la vitesse de rotation de la lune, le terminater se déplace de 22,5° par jour terrestre. Cette contrainte impose donc que le site d’atterrissage se situe à plus de 70° à l’ouest du terminateur.
  • Dans la zone de forme toroïdale satisfaisant ces différentes contraintes, le cratère d’impact Selk constitue l’objectif scientifique le plus évident. Le spectromètre imageur VIMS de la sonde spatiale Cassini y a détecté la présence de matériaux riches en eau qui ont permis des interactions avec les matériaux organiques.

Caractéristiques techniques de rentrée

Comme toutes les sondes spatiales de la NASA destinées à se poser sur un corps planétaire doté d’une atmosphère, Dragonfly est composé d’un étage de croisière qui prend en charge le transit de la Terre jusqu’au voisinage de Titan ..L’ aérobot est encapsulé dans un véhicule de rentrée qui doit le protéger de l’échauffement thermique subie par la sonde spatiale durant sa rentrée atmosphérique à grande vitesse. Une fois que la vitesse a suffisamment décrue, les deux moitiés du bouclier thermique sont éjectés et des parachutes sont déployés pour réduire la vitesse jusqu’à l’arrivée au sol.e de rentrée

Le véhicule de rentrée comprend un bouclier thermique de 4,5 mètres de diamètre qui reprend les technologies mises en œuvre par les astromobiles martiens Curiosity et Perseverance. Le bouclier comprend un ensemble de capteurs DrEAM (en anglais : Dragonfly Entry Aerosciences Measurements), développés conjointement par le centre de recherche Ames de la NASA et l’Agence spatiale allemande, qui doivent collecter des données sur les conditions rencontrées (pression, température), sur les caractéristiques de la haute atmosphère (abondance du méthane, etc.) et sur les performances du bouclier thermique.

Architecture de l’aérobot

Dragonfly est comme ce drone, un octorotor utilisant des paires de rotor. Cette formule mécaniquement simple et disposant d’une redondance satisfaisante permet d’obtenir un aéronef très manœuvrant.

Pour pouvoir explorer plusieurs sites à la surface de Titan distants de 10 à 100 km entre eux, différents scénarios ont été étudiés. Le recours à plusieurs atterrisseurs nécessite de développer plusieurs copies des instruments scientifiques et du système d’acquisition avec un impact fort en termes de masse et donc de coût. L’approche la plus favorable consiste à utiliser un seul ensemble instrumental et à le déplacer d’un site à un autre.

Plusieurs architectures d’aéronef ont été étudiées : hélicoptère, ballon gonflé à l’hélium ou à l’hydrogène, montgolfière (ballon à air chaud) et avion. La solution retenue exploite le fait que Titan a une gravité sept fois plus réduite que celle de la Terre et dispose d’une atmosphère 1,45 fois plus épaisse. Ces deux caractéristiques sont favorables à la mise en œuvre d’un engin volant plus lourd que l’air, puisque les deux combinés font qu’il est presque 11 fois moins énergivore de faire voler un drone sur Titan que sur la Terre..

Les ingénieurs ont choisi la formule de l’octorotor, aéronef équipé de huit rotors à trois pales de 1,85 mètres de diamètre (deux à chaque coin de sa structure). C’est l’équivalent d’un quadrirotor mais la présence de paires de rotors fournit une redondance essentielle dans un contexte où aucune réparation ne peut être envisagée. Les déplacements de l’aéronef sont obtenus uniquement en faisant varier la vitesse de rotation d’un ou plusieurs rotors. Cette architecture, rendue possible par les progrès de l’électronique chargée du pilotage de la vitesse des rotors, permet d’obtenir un ensemble mécanique plus simple que celle d’un hélicoptère. La facilité de sa mise en œuvre est illustrée par la multiplication récente des drones de ce type.

Cette formule permet de mieux contrôler les phases de vol et d’atterrissage. Par ailleurs un engin de ce type peut être facilement testé sur Terre. Son encombrement est compatible avec le volume disponible dans le module de descente chargé de le protéger durant la rentrée atmosphérique dans l’atmosphère de Titan

Structure

Dragonfly est un engin de 875 kg long de 3,85 mètres pour une largeur de 3,85 mètres et une hauteur de 1,75 mètres. Il avait été envisagé initialement de munir Dragonfly d’un système de flottaison pour que l’aérobot puisse se poser sur les lacs de méthane de Titan. Mais cette option a été abandonnée au profit d’un système d’atterrissage constitué par deux patins ne permettant de se poser que sur le sol ferme.

La forme et la taille de l’aéronef ont dû prendre en compte le volume disponible dans le module de descente chargé de protéger l’engin durant la rentrée atmosphérique sur Titan. En position de stockage dans le module de descente, les patins sont repliés. Le corps de l’aéronef est de forme rectangulaire avec le MMRTG (système de production d’énergie) fixé à l’arrière en position inclinée dans une configuration analogue à celle du MMRTG du rover Curiosity.

Une antenne parabolique grand gain, utilisée pour les communications avec la Terre, est fixée sur la partie supérieure de l’aérobot. Lorsqu’elle n’est pas utilisée, elle est repliée. Deux systèmes de prélèvement d’échantillons du sol de Titan (un par patin), de conception très simple, permettent d’alimenter le spectromètre de masse. Il s’agit d’une foreuse disposant d’un actuateur avec un seul degré de liberté.

La densité de l’atmosphère de Titan permet de convoyer pneumatiquement l’échantillon de sol prélevé, quelle que soit sa nature, par un système d’aspiration jusqu’à l’instrument effectuant son analyse.

Capacités

Dragonfly peut effectuer des vols de quelques heures en pilotage automatique en utilisant une batterie électrique comme source d’énergie. Celle-ci, d’une capacité de 135 Ah, est rechargée au sol à l’aide d’un générateur thermoélectrique à radioisotope embarqué. Durant la phase de vol, le drone analyse la composition de l’atmosphère et établit le profil vertical de celle-ci.

Lorsqu’il est au sol, il étudie la composition des matériaux organiques et des glaces de la surface en utilisant un spectromètre de masse et un spectromètre gamma à neutrons actifs. Le drone dispose également d’instruments pour étudier la météorologie et effectuer des études sismiques

Énergie

Un MMRTG similaire à celui situé à l’arrière du rover Curiosity sur Mars pourrait être utilisé pour fournir l’énergie de l’aérobot Dragonfly.

L’énergie constitue la principale contrainte à laquelle doit faire face un aérobot sur Titan. L’énergie solaire disponible au niveau de l’orbite de cette lune est 100 fois moins importante que sur Terre. Par ailleurs, l’atmosphère épaisse et brumeuse de Titan filtre le rayonnement du Soleil divisant encore par 10 cette faible quantité d’énergie solaire. Les besoins en énergie sont accrus par la température particulièrement basse qui nécessite de produire de la chaleur pour maintenir en fonctionnement de nombreux composants de l’aérobot.

Dans ces conditions le recours à un générateur thermoélectrique à radioisotope (MMRTG), produisant de l’énergie électrique par conversion de l’énergie thermique résultant de la désintégration radioactive de plutonium 238 constitue la seule option disponible.

Le programme New Frontiers met à disposition de la mission qui sera retenue trois MMRTG analogues à celui utilisé par le rover Curiosity sur Mars. Chaque MMRTG fournit en début de vie 2 000 watts thermiques convertis en 120 watts électriques. Compte tenu de leur masse unitaire, il ne peut pas être envisagé d’utiliser plus d’un MMRTG sur Dragonfly. La durée du transit entre la Terre et Titan (environ 9 ans) qui entraînera une diminution sensible de l’énergie produite et le retour d’expérience pour l’instant limité à 5 ans sur Curiosity, ont incité les concepteurs de Dragonfly à tabler sur la production de 70 watts électriques.

L’énergie thermique non convertie en électricité sera utilisée pour maintenir l’intérieur de l’aéronef et en particulier les batteries à des températures suffisamment élevées. D’épaisses couches d’isolant thermique envelopperont le corps de l’aéronef. Seul le capteur de l’instrument DraGNS qui, dans des conditions normales nécessite un cryoréfrigérateur, sera exposé sans aucune protection thermique.

La consommation électrique générée par la collecte et l’analyse chimique des échantillons du sol est importante mais porte sur des durées relativement brèves. Ce sont les activités de collecte continue de données (données météorologiques et sismiques) qui, bien que nécessitant une puissance électrique faible, demandent le plus d’énergie en ce qui concerne la charge utile.

Pour les télécommunications réalisées par l’intermédiaire d’une antenne parabolique à grand gain, 5 millijoules d’énergie sont nécessaires pour transmettre 1 bit d’information à la Terre. La transmission de 10 gigabits de données[Note 7] nécessite donc 140 kWh soit environ 80 jours de production du MMRTG.

Le jour sur Titan dure 384 heures (16 jours terrestres). Au niveau de Titan, la Terre se trouve pratiquement dans la même direction que le Soleil. Les communications avec la Terre se font donc uniquement de jour et la nuit est donc consacrée à la recharge des batteries. Malheureusement, du fait de sa durée (192 heures), il faudrait disposer d’une batterie de 140 kg pour stocker toute l’énergie produite ce qui dépasse largement les contraintes de masse de la mission. Les concepteurs de la mission ont donc accepté qu’une partie de l’énergie produite durant la nuit ne soit pas stockée pour son utilisation dans la journée.

Les communications avec la Terre se font via une antenne parabolique grand gain et une antenne moyen gain utilisant un Tube à ondes progressives de 100 watts en bande X[21],[18].

Performances en vol et aérodynamisme

L’atmosphère de Titan est beaucoup plus dense (4,4 fois) et plus froide que celle de la Terre. Elle est composée à 95 % d’azote ce qui abaisse sa viscosité. En conséquence, le nombre de Reynolds de Dragonfly sur Titan est plusieurs fois plus élevé que s’il volait sur Terre.

Le profil des pales des rotors est adapté pour optimiser son efficacité et il est proche de celui adopté par les pales des éoliennes terrestres ce qui présente l’avantage d’accroitre sa robustesse. Dans l’atmosphère de Titan, la vitesse du son est de 194 m/s, contre 340 m/s sur Terre, ce qui limite à la fois la vitesse de rotation des rotors et la longueur des pales. En pratique, cette contrainte a un impact réduit sur les performances de l’aéronef.

Compte tenu de ces caractéristiques, Dragonfly (masse environ 875 kg) pourra atteindre une vitesse maximale en vol de 10 m/s (36 km/h). Pour un vol sur une distance d’environ 40 km, la consommation électrique serait d’environ 2 kWh. Une batterie d’environ 30 kg, avec une densité énergétique de 100 Wh/kg, permettrait donc de franchir 60 km.

L’énergie nécessaire pour un vol ne croît pas de manière linéaire par rapport à la masse de l’aéronef mais en portant cette valeur à la puissance 1,5 ce qui constitue une des caractéristiques limitant la masse de Dragonfly. Malgré la vitesse maximale modeste envisagée, les concepteurs de l’aéronef ont soigné son aérodynamisme qui constitue un facteur de consommation électrique significatif dans l’atmosphère épaisse de Titan. Pour limiter les forces de trainée, la face avant de l’aéronef présente une forme aérodynamique, un carénage enveloppe les foreuses fixées sur les patins et l’antenne parabolique est repliée à plat pont en vol.

L’aéronef pourra être utilisé pour réaliser des sondages verticaux de la basse atmosphère jusqu’à une altitude d’environ 4 km. Le mode de propulsion permet une ascension verticale mais interdit une descente verticale. Le modèle de circulation atmosphérique de Titan établi à l’aide des données recueillies par la sonde spatiale Cassini prédit des vents dont la vitesse atteint au maximum de 1 à 2 m/s. Ceux-ci ne devraient donc avoir qu’un impact mineur sur la distance franchissable par Dragonfly[

15/05/2025 Comment produire de l’oxygène sur la planète Mars sans faire appel à la photosynthèse

Sur Terre, grâce à l’énergie fournie par la lumière du soleil, les plantes vertes sont capables de produire, outre des nutriments, de l’oxygène : on appelle ce processus «  photosynthèse ». La photosynthèse est la synthèse de matière organique, notamment de glucides, réalisée à partir de l’eau que les racines puisent dans le sol et à partir du dioxyde de carbone CO2 capté dans l’air par les feuilles des plantes. Grâce à l’énergie fournie par le lumière du soleil, la réaction produit de l’oxygène, qui est rejeté dans l’atmosphère. La formule de la photosynthèse est la suivante : 6 CO2 + 12 H2O + lumière → C6H12O6 + 6 O2 + 6 H2O. Autrement dit, la plante a besoin de 6 molécules de dioxyde de carbone, 12 molécules d’eau et de la lumière pour fabriquer une molécule de glucose et 6 molécules de dioxygène, et rejeter 6 molécules d’eau.

Cet oxygène est utilisé par les autres espèce vivantes dans le processus appelé respiration. La respiration est une fonction biologique qui permet aux êtres vivants d’utiliser leurs réserves énergétiques grâce à des échanges gazeux avec le milieu extérieur. De très nombreux organismes respirent, bactéries, végétaux, champignons et animaux. Ceux-ci sont dotés d’organes spécialisés à cette fin, les poumons. Dans les poumons, l’échange gazeux se produit entre les millions d’alvéoles pulmonaires et les vaisseaux capillaires qui les enveloppent. L‘oxygène inhalé passe des alvéoles au sang des capillaires, et le dioxyde de carbone du sang des capillaires à l’air dans les alvéoles.

Des calculs ont montré que l’oxygéne produit par les plantes n’est pas en quantité suffisante pour répondre aux besoins d’oxygénation des autres organismes. Il faut une autre source d’oxygène. Longtemps l’origine de cet oxygène était restée mystérieuse. Mais des chercheurs de l’Académie des sciences de Pékin, dirigés par Chaomin Sun avaient récemment découvert que des bactéries et des archées océaniques produisaient de l’oxygène en grande profondeur, mais en très faible quantité. Celui-ci avait été appelé « oxygène noir » « dark ogygen » . Elles le font au terme d’un processus qui produit des nodules métalliques de manganèse en sous-produit.

En 2013 Andrew Sweetman de la Scottish Association for Marine Sciences avait détecté de l’oxygène produit à des milliers de mètres en profondeur. Depuis lui et son équipe ont montré que deux espèces de bactéries se développent en présence d’ions nitrate. L’ion nitrate est l’ion polyatomique de formule chimique NO3 au centre duquel l’atome d’azote se trouve à son nombre d’oxydation le plus élevé : +5 (ou V). C’est un anion (ion chargé négativement) portant une seule charge électrique négative (anion monovalent). Les bactéries le réduisent en ammonium libérant de l’oxygène an cours du processus.

L’ion ammonium de formule brute NH4+ est un ion polyatomique de charge électrique positive. Ce cation polyatomique possède une structure tétraédrique, l’atome d’azote N occupant le centre et les quatre atomes d’hydrogène occupant les sommets équivalents du tétraèdre. Wikipedia.

Référence

Nitrate-driven dark oxygen production by diverse deep-sea microorganisms

Chaomin Sun and others

doi: https://doi.org/10.1101/2025.03.10.642362

  • Abstract

To date, only three biotic pathways for light-independent oxygen production (i.e., dark oxygen) have been reported: chlorate dismutation, nitric oxide dismutation, and methanobactin-dependent water lysis. Oxygen has been shown to be produced and consumed in dark and anoxic environments, as evidenced by its prevalence in deep-sea surface sediments. However, the microbial communities and pathways driving deep-sea dark oxygen production (DOP) remain poorly understood. Here we identify a novel DOP pathway driven by dissimilatory nitrate reduction to ammonium (DNRA) in two deep-sea Deferribacterota strains. The DOP activity of these Deferribacterota strains potentially promotes the formation of manganese nodules and influences the growth and metabolism of both aerobic and anaerobic microbes, underscoring the significant role of microbial DOP in shaping deep-sea geological and ecological systems. We also cultured several deep-sea DOP-capable microorganisms from the Campylobacterota, Deinococcota, and Pseudomonadota phyla, which generate dark oxygen through unidentified nitrate-driven pathways. Combined with previous geological evidence, our results suggest that nitrate-driven dark oxygen, alongside photosynthetic oxygen, jointly contributed to early Earth’s oxygenation, driving the Great Oxidation Event. Overall, our findings provide novel insights into deep-sea oxygen sources, shed light on the origins of early Earth’s oxygen, and expand perspectives on the potential for terraforming other planets.

14/05/2025 Mise en évidence du neutrino, la particule qui ne devrait pas exister

Les neutrinos sont des fermions de spin ½, plus précisément des leptons. Ils sont électriquement neutres. Il en existe trois «saveurs » électronique, muonique et tauique.

Wikipedia https://fr.wikipedia.org/wiki/Neutrino

Définir ainsi le neutrino n’encouragera le profane à approfondir le sujet. Ceci dit les astronomes s’affrontent aujourd’hui pour déterminer la nature d’une particule provenant de l’espace. Les neutrinos n’ont pas de charge électrique et ont une masse très faible dont on connaît seulement une limite supérieure. , l’électron, dont la masse vaut environ 511 000 eV/c2.

Or un neutrino d’une énergie jamais enregistrée vient d’être détecté par des scientifiques de la collaboration KM3NeT grâce au télescope du même nom installé dans les profondeurs de la mer Méditerranée et principalement financé et opéré par le CNRS et ses partenaires italiens et néerlandais. Cette découverte inattendue marque une avancée significative dans la compréhension des phénomènes énergétiques extrêmes de l’Univers et bouscule les modèles astrophysiques actuels.

Le résultat est publié dans la revue Nature en date du 12 février 2025 dont on trouvera ci. dessous les références et l’abstract.

Malgré leur abondance dans l’Univers, les neutrinos n’interagissent que très peu avec la matière ce qui rend ces « particules fantômes » difficiles à détecter. Ces messagers cosmiques d’une masse d’un million de fois plus faible que celle d’un électron, sont émis en ligne droite lors d’évènements cosmiques. L’étude des neutrinos nous apporte des informations précieuses, inaccessibles par des méthodes plus classiques, sur les phénomènes astrophysiques extrêmes dont ils sont originaires. 

Or une détection exceptionnelle vient d’être réalisée

Il s’agit de celle d’un neutrino d’une énergie inédite d’environ 220 pétaélectronvolts (PeV), soit trente fois supérieure à celle de tous les neutrinos précédemment détectés à l’échelle mondiale. A travers l’étude de sa source, ce neutrino ultra-énergétique pourrait révéler des indices uniques sur des événements cataclysmiques tels que des explosions d’étoiles ou des trous noirs. 

Fruit de plusieurs mois de simulations, de calibrations et de vérifications rigoureuses du signal, ce résultat repose sur une instrumentation à la pointe de la technologie : KM3NeT est un observatoire géant composé de milliers capteurs de lumière. Ses détecteurs sont installés sur deux sites stratégiques dans les profondeurs de la mer Méditerranée : ARCA, dédié à l’astronomie des hautes énergies au large de la Sicile (Italie), et ORCA, spécialisé dans l’étude des basses énergies près de Toulon (France).

Leur installation dans les profondeurs marines a nécessité des solutions technologiques avancées, comparables à celles utilisées dans le spatial, pour opérer dans un environnement extrême et difficile d’accès. Les scientifiques profitent ainsi d’un milieu transparent, de l’absence de lumière parasite et de bruit de fond atmosphérique que l’on ne trouve olus en dessous de 1000 mètres,

Il s’agit des conditions idéales pour observer la lumière Tcherenkov ou effet Tcherenkov , un phénomène associé à la détection des neutrinos . :Le détecteur KM3NeT/ORCA est hébergé par la plateforme nationale LSPM2 . Cette plateforme du CNRS permet un accès privilégié et continu afin d’étudier l’environnement marin.

La découverte marque le début d’un véritable jeu de pistes pour remonter à la source du neutrino détecté en analysant sa direction, son énergie et son moment d’émission. Elle remet en perspective certains modèles physiques et cartographies de l’Univers.

En parallèle, l’ajout régulier de nouvelles lignes de détection permettra au télescope de devenir d’ici 2030 un dispositif pleinement opérationnel, offrant des résultats toujours plus performants dans l’étude des neutrinos et l’exploration des mystères de l’Univers. 

référence

Nature
Article
Published: 12 February 2025

Observation of an ultra-high-energy cosmic neutrino with KM3NeT

Abstract

The detection of cosmic neutrinos with energies above a teraelectronvolt (TeV) offers a unique exploration into astrophysical phenomena. Electrically neutral and interacting only by means of the weak interaction, neutrinos are not deflected by magnetic fields and are rarely absorbed by interstellar matter: their direction indicates that their cosmic origin might be from the farthest reaches of the Universe. High-energy neutrinos can be produced when ultra-relativistic cosmic-ray protons or nuclei interact with other matter or photons, and their observation could be a signature of these processes. Here we report an exceptionally high-energy event observed by KM3NeT, the deep-sea neutrino telescope in the Mediterranean Sea, which we associate with a cosmic neutrino detection. We detect a muon with an estimated energy of petaelectronvolts (PeV). In light of its enormous energy and near-horizontal direction, the muon most probably originated from the interaction of a neutrino of even higher energy in the vicinity of the detector. The cosmic neutrino energy spectrum measured up to now falls steeply with energy. However, the energy of this event is much larger than that of any neutrino detected so far. This suggests that the neutrino may have originated in a different cosmic accelerator than the lower-energy neutrinos, or this may be the first detection of a cosmogenic neutrino8, resulting from the interactions of ultra-high-energy cosmic rays with background photons in the Universe.

V c

13/05/2025 La planète Vénus aurait conservé une certaine activité volcanique

Vénus a connu un volcanisme très actif il y a 200 à 500 millions d’années. Les images obtenues par différentes sondes vénusiennes ont permis d’observer de nombreux cratères de taille moyenne. Par contre l’on n’y avait pas vu de petits cratères

https://fr.wikipedia.org › wiki › Cratère_volcanique

Un cratère volcanique est l’évent (appelé aussi bouche) d’un volcan par lequel sort du magma sous forme liquide (lave), solide (éjectas), accompagnée de gaz.

Sur les cartes que la sonde Magellan (voir ci-dessous) a réussi à compléter, on voit:
– des milliers de cratères d’au moins 10 km de diamètre 
– 274 cratères entre 20 et 100 km de diamètre
 -156 cratères dépassent les 100 km
Il y a des cratères de plus de 100 km de diamètre dont le plus grand atteint 280 km.

La dense atmosphère de la planète consume la plupart des petits astéroïdes et comètes qui traversent sa route, et seuls les gros objets frappent le sol : il y a moins de 1000 cratères d’impact sur Vénus.  La théorie dominante chez les planétologues est celle de grandes éruptions à un moment récent de regain d’activité interne dans l’Histoire de Vénus qui auraient recouvert la majorité de la surface de la planète.

Leur bon état de préservation est trompeur : l’érosion est insignifiante sur Vénus, car il n’y a pas de pluie et l’épaisse atmosphère de gaz carbonique joue plus le rôle d’une couverture protectrice que celui d’un agent destructeur. Les sommets qui paraissent contemporains ont sans doute des dizaines, voire des centaines de millions d’années d’âge.

Grâce aux sondes Vénus, on observe également des dômes (de longues coulées de lave) de 15 à 90 km de diamètre, des plateaux, et de gigantesques monts, dont le plus haut est le mont Maxwell avec 11 000 m d’altitude (L’altitude du Mont Blanc terrestre est 40806 m), ainsi que des  » coronaes  » étranges cercles de rides et de sillons sur la croûte, dont les plus grands atteignent 2 600 km.

Toutefois, en trois ans de surveillance, la sonde Magellan n’avait pas surpris sur Vénus d’éruption contemporaine, comme si le volcanisme était en veilleuse.

Références

Vénus (planète) https://fr.wikipedia.org/wiki/V%C3%A9nus_(plan%C3%A8te)v

Sondes soviétiques Venus (ou Venera) http://www.capcomespace.net/dossiers/espace_sovietique/sondes/sondes_venus.htm

Mission Magellan https://fr.wikipedia.org/wiki/Magellan_(sonde_spatiale)

Surface changes observed on a Venusian volcano during the Magellan mission Science 15 Mar 2023 Vol 379, Issue 6638 pp. 1205-1208
DOI: 10.1126/science.abm7735 27 787



12/05/2025 La Russie serait-elle prête à se relancer dans une guerre majeure ?

https://www.msn.com/fr-xl/actualite/other/selon-des-informations-confidentielles-la-russie-serait-pr%C3%AAte-%C3%A0-se-relancer-dans-une-guerre-majeure-apr%C3%A8s-la-paix-en-ukraine/ss-AA1EAXY8

Ce bruit circule actuellement. On peut penser qu’il n’est absolument pas fondé. Il ne sert que les intérêts des industries de l’armement, tant occidentales que chinoise. Il faudrait que Vladimir Poutine ait perdu tout sens commun pour engager la Russie dans une guerre d’ampleur, resterait-elle conventionnelle.

Il ne peut pas ignorer les pertes humaines russes. Ainsi, selon la BBC, dont on ne peut mettre en doute la sincérité, le nombre des tués se situerait entre 164 223 et 237 211 personnes depuis l’invasion de l’Ukraine. .Ce chiffre ne tient pas compte des blessés dont beaucoup resteront invalides https://www.bbc.com/afrique/articles/c230j1393k9o Confrontée à ces pertes, la population russe au dernier recensement était de 143,8 millions

Durant la première guerre mondiale, en France, les historiens civils et militaires, parlent de 2 000 000 de soldats français morts aux combats (sans les coloniaux et les disparus) entre 1914 et 1918 (et sans les chiffres de la grippe espagnole). Les pertes russes en 3 mois de guerre, sont donc relativement plus nombreuses que les pertes françaises en 4 ans.

Quant aux pertes de matériel militaire , au 1er avril 2025, l’armée russe a perdu près de 3 800 chars, 5 500 véhicules de combat d’infanterie, 900 pièces d’artillerie automotrice, 136 avions… Depuis le 22 février 2022, elle a subi ses pires pertes matérielles depuis la fin de la Seconde Guerre mondiale. Le contingent qui a franchi la frontière russo-ukrainienne il y a trois ans n’existe plus, et le Kremlin s’est depuis efforcé de remettre en service les milliers d’engins soviétiques stockés dans ses dépôts Après avoir déployé des chars T-80 et des T-72, conçus dans les années 1970, la Russie a été contrainte de puiser dans ses réserves pour utiliser des T-62 entrés en service en 1961.

Comme l’on sait, elle doit faire appel à la Corée du Nord pour reconstituer ses réserves de munition.

Par ailleurs, près d’un tiers de la flotte russe de la mer Noire, soit 27 sur 80 navires, dont un unique sous-marin – auraient été coulés ou mis hors service depuis que les forces de Moscou ont envahi l’Ukraine en février 2022. Le ministère britannique de la Défense a déclaré la flotte de la mer Noire « fonctionnellement inactive » en mars 2024.

La Russie possède un unique porte-avions vieillissant face aux flottes occidentales et chinoises. Il s’agit de l’Amiral Kouznetsov, qui est en réparation prolongée depuis plusieurs incidents graves.

Il n’y a que dans le domaine de l’aviation militaire que la Russie possède une force respectable. Mais son entretien paraît insuffisant. Ceci tient en partie au trop grand nombre des types d’avions.

Enfin, depuis le début de l’invasion à grande échelle de l’Ukraine en 2022, l’armée russe a, elle aussi, largement intégré les drones dans ses opérations tactiques. Elle utilise désormais un large éventail d’appareils pour des missions de reconnaissance, de frappes en profondeur et d’opérations de brouillage.

Rappelons en comparaison que l’Armée française était classée en 2017 deuxième en Europe derrière la Russie, et cinquième au niveau mondial. Selon une étude américaine, la France restera la principale puissance militaire en Europe (hors Russie) et dans les cinq premières mondiales dans les années 2030.

11/05/2025 Des BCI à la conquête de Mars

L’exploration de la planète Mars par des humains, et afortiori des séjours de quelques jours à quelques mois , paraitront longtemps impossibles aux Terriens. Dans ce cas ceux-ci ne trouveront pas un grand intérêt à des missions de quelques heures dont le coût en termes de lanceurs et de rovers paraissent déjà prohibitifs.

Cependant, si les hommes ne voulaient pas renoncer à des missions habitées sur Mars et ses satellites, il faudra faire œuvre d’imagination.  

Une solution actuellement à l’ étude consisterait à débarquer sur Mars des robots humanoïdes dotés de brain-computer interfaces ou BCIs greffées le temps nécessaire et de façon durable dans le cerveau des explorateurs humains.

Ceux-ci ne perdraient pas leur caractère humain mais ils accéderaient le temps de la mission à toutes les ressources de l’exploration spatiale robotisée. A priori dans le cadre de leur retour sur la Terre, les humains pourraient conserver ces greffes le temps nécessaire sans que le fonctionnent de la partie terrestre de leurs cerveaux en soit affectée.

L’idée de base d’un BCI est de superposer les messages provenant d’un cerveau humain et ceux d’un robot explorateur tant dans le sens de la réception des informations que dans celui de l’élaboration des commandes et de la transmission des ordres. Des interfaces prenant la forme d’électrodes implantées dans le cortex permettraient une grande variété d’actions.

D’ores et déjà, sur Terre, des paraplégiques peuvent envoyer des ordres à un de leur membre paralysé provenant directement de leur cerveau, grâce à des électrodes implantées dans celui-ci . Les applications se multiplieront dans un proche avenir, avec des « rescue robots » qui interviendront par exemple dans des immeubles en feu.

10/05/2025 Qu’est que l’AGI ?

Qui s’intéresse au concept d’ Intelligence artificielle IA rencontre inévitablement celui de l ‘IA générale ou AGI. C’est elle qui a fait le succès des « large language models (LLM) », une forme d’IA qui donne leur puissance à des chatbots tels que ChatGPT.

L’AGI est devenue l’outil principal de sociétés telles que OpenAI qui assure travailler pour le bien de toute l’humanité. OpenAI, https://openai.com/, est une entreprise américaine d’intelligence artificielle fondée en 2015 à San Francisco. Sa mission selon ses dirigeants est de développer et de promouvoir une intelligence artificielle générale « sûre et bénéfique pour tous les humains». C’est OpenAI qui a créé ChatGPT, https://openai.com/index/chatgpt/. Les média spécialisés assurent avoir détecté des élémentd d’AGI dans les LLM.

En fait il n’est toujours clair de définir le bien que fera l’AGI à l’humanité. Pour Melanie Mitchell du Santa Fe Institute à New Mexico il ne s’ait pas d’un concept scientifique. Cet avis est partagé par beaucoup, y compris par Ben Goertzel et Shane Legg, cofondateur de Google Deep Mind https://fr.wikipedia.org/wiki/Google_DeepMind

Pour d’autres au contaire le terme désigne un champ d’applications capables de réaliser progressivement tout ce dont l’esprit humain est capable, sinon d’avantage. Les fondateurs de DeepMind viennent de proposer un cadre de travail à 6 niveaux six-level framework, dans lequel le niveau supérieur détaille tout ce que l’on peut attendre de l’esprit humain, actuel ou futur

Artificial human-like intelligence et superintelligent AI ont été des concepts de science fiction pendant des siècles. Mais le terme a décollé il y a 20 ans quand les ingénieurs en informatique Ben Goertzel et Shane Legg, cofondateur de la firme DeepMind. l’ont employé pour désigner des systèmes capables de réaliser, au delà d’applications limitées, tout ce que l’esprit humain peut concevoir.

Depuis DeepMind en particulier cherche à redéfinir l’AGI comme faisant partie des seules « sciences cognititives. L’année dernière, Legg conjointement avec le fondateur de DeepMind, ont défini ce que pourrait etre l’AGI. Ils ont proposé un cadre de travail à 6 niveaux (six-level framework dans lequel le niveau supérieur dépasse tout ce que 100/100 des humains pourraient faire

The problem with AGI

“The levels idea is really pointing out that there’s this continuum,” says team member Meredith Morris at DeepMind, now part of Google. “There’s this progression as technology evolves.” Morris hopes their work will draw more attention to the idea, and ultimately to some form of consensus on what AGI actually is: “We would love to have folks from those other fields that study intelligence and learning working together with our researchers on developing these benchmarks.”

But Mitchell points out that intelligence is itself a multidimensional concept, with a lot of crossovers with other equally murky concepts, such as sentience and understanding. As such, it isn’t readily measurable with a test in the same way as other, more concrete tasks, like the ability to translate language.

Applying more scrutiny to when an AI could be considered an AGI might yield progress, but Mitchell is still sceptical that the sort of machine that AGI proponents envisage will be achieved, because it is unclear whether the faculties of human intelligence can ever be abstracted into standalone concepts – never mind replicated in AI. “There’s a kind of faith that the field has had for a long time, that we can develop human-level intelligence in these disembodied substrates,” she says. “Whether that’s possible or not, I think it’s a big open question.”

Following claims that an AI has shown « sparks of artificial general intelligence », what are we to make of the hype surrounding this technology? AI expert Melanie Mitchell is your guide

For Thomas Dietterich at Oregon State University, the problem with AGI is a more practical one – namely that it is a mistake to define artificial intelligence with respect to humans. “We have this focus on replicating our capabilities, and this leads to the rampant anthropomorphisation of our systems, giving them names like Siri and Alexa.”

Instead, he says, we should think of AI as “an intelligence prosthetic that can do certain things for us” – which sounds a lot like what the AI community had in mind before the concept of AGI came along.