A l’approche de Pâques 2024, des annonces parues sur l’Internet allemand et provenant de différentes sources peu connues mais apparemment honorables avaient signalé qu’en vue de détourner les enfants de l’abus des écrans et autres smartphones, tout en évitant la charge que représente l’acquisition d’un animal de compagnie, un ingénieur allemand avait mis au point un lapin en peluche autonome.
Celui-ci, selon les vidéos diffusées, sautait comme un chat, bougeait son nez et ses oreilles, réagissait au toucher et même, se déplaceait seul dans la maison, grâce à des capteurs intelligents et des micro-moteurs ultra précis.
Plusieurs études pédagogiques indépendantes avaient validé la qualité et les bienfaits éducatifs de ce jouet. Des psychologues de l’enfance, des experts du développement moteur et des pédagogues ont souligné ses effets positifs sur la motricité, les compétences sociales et la capacité à créer des liens émotionnels.
Ce lapin interactif réaliste nouvelle génération avait d’ailleurs reçu le label de qualité officiel de l Institut allemand de la sécurité des jouets, ainsi que plusieurs prix récompensant sa valeur éducative et sa sécurité.
Si certains éléments restaient confidentiels pour des raisons de brevet, cinq innovations clés rendaient le jouet-lapin vraiment unique :
Servomoteurs micro-précis . À l’intérieur du lapin, de minuscules servomoteurs haute précision et ultra-silencieux reproduisent de manière réaliste des mouvements délicats comme le saut, le frémissement du nez et le mouvement des oreilles, avec une discrétion exceptionnelle. Les enfants n’entendent rien, mais voient un lapin presque vivant.
Capteurs tactiles ultrasensibles : Une simple caresse suffit : grâce à des capteurs tactiles nouvelle génération, le lapin réagit immédiatement. Chaque interaction crée un lien affectif et renforce l’attachement de l’enfant.
Fourrure synthétique haut de gamme : Le lapin est fabriqué avec une fourrure synthétique haut de gamme, hypoallergénique, qui ressemble de manière étonnante à la fourrure d’un vrai lapin, tant visuellement qu’au toucher.
Unité de contrôle microélectronique intelligente : Un microprocesseur breveté orchestre les mouvements et réactions du lapin. Résultat : un comportement autonome et fluide qui donne l’illusion d’un compagnon bien réel.
Rembourrage insonorisant exclusif : Un rembourrage spécial insonorisant absorbe les bruits des moteurs, si bien que le lapin paraît vivant aussi bien dans l’apparence que dans le comportement. Selon son inventeur, le lapin-jouet convient aux enfants de tous âges, des tout-petits aux enfants d’âge scolaire. Sa conception incroyablement réaliste mais parfaitement sûre, garantissaitt une utilisation sans danger ..Il n »y avait aucun risque de blessures ni de pièce dangereuse. Tous les matériaux étaient hypoallergéniques, certifiés et exempts de substances nuisibles – pour une tranquillité d’esprit totale des parents.
Quant à savoir si le lapin était suffisamment robuste pour résister aux jeux parfois énergiques des enfants, la réponse était oui : sa confection haut de gamme permettait au lapin de supporter sans souci groscâlins, déplacements et manipulations répétées. En cas de gestes trop brusques, le lapin émettait des petits sons réalistes qui rappellent doucement à l’enfant qu’un animal, même en version jouet, mérite d’être traité avec attention.
En conclusion, une centaine de commandes avec versement d’avances avait déjà été enregistrée lorsque pour des raisons mystérieuses le constructeur disparut.
Avec 11,4 % des financements captés, la France demeure le 2ème pays bénéficiaire des crédits alloués par la Commission européenne dans le cadre du programme de soutien à la recherche et à l’innovation Horizon Europe (2021 2027). Elle distance les autres pays européens dans le domaine de l’espace.
Part de la France dans les publications scientifiques mondiales
L’Observatoire des sciences et techniques vient de révéler dans une étude que la France est tombée de la 6e à la 13e place dans les publications scientifiques mondiales depuis 2010.
En 2010, la France occupait la 6e place des pays les plus prolixes en termes de recherche scientifique, derrière le Japon. Douze ans plus tard, elle occope la 13e place, derrière le Brésil. Si ce décrochage a commencé en réalité dès le début des années 2000, il a eu tendance à accélérer ces dernières années.
Nouvelle preuve du potentiel invasif du cancer : il se lie profondément au système nerveux, qui favorise alors la croissance des tumeurs dans tout le corps. Mais c’est peut-être aussi son talon d’Achille…
Dans les années 1990, les cancérologues ont observé un phénomène étrange : les hommes blessés à la
moelle épinière étaient moins souvent atteints de cancer de la prostate que ceux dont la moelle était intacte. Un fait resté longtemps inexpliqué, car on pensait que les nerfs n’étaient que des spectateurs passifs de l’apparition du cancer. Pourtant, on connaissait déjà leurs liens intimes avec le développement des tissus : les biologistes avaient ainsi montré que ceux des embryons ne croissent que si leurs terminaisons nerveuses poussent en parallèle, et on savait depuis deux siècles que les membres sectionnés des amphibiens ne se régénèrent qu’à la condition d’être innervés.
Comme souvent, une partie de la réponse est venue de l’expérimentation animale. En 2013, une équipe dirigée par Claire Magnon, de la faculté de médecine Albert-Einstein, à New York, a interrompu les communications entre la prostate et le système nerveux chez des souris en sectionnant les nerfs ou en les détruisant avec un poison. Résultat : le cancer a progressé plus lentement. Des résultats similaires ont été obtenus avec d’autres types de tumeurs, si bien qu’une théorie s’impose de plus en plus depuis une dizaine d’années : le système nerveux jouerait un rôle majeur dans les maladies cancéreuses.
Les neurosciences du cancer
Une nouvelle discipline, les neurosciences du cancer, a même vu le jour. « De plus en plus d’éléments indiquent que le système nerveux exerce une influence décisive sur l’apparition et la progression des tumeurs, tant à l’intérieur qu’à l’extérieur du cerveau, ainsi que sur la résistance au traitement », explique Varun Venkataramani, de l’hôpital universitaire d’Heidelberg et du Centre allemand de recherche sur le cancer (DKFZ).
L’explication résiderait dans ce qu’on appelle le « microenvironnement tumoral », c’est-à-dire tout ce qui entoure directement la tumeur. Les neurones et les fibres nerveuses sont des éléments essentiels de cet environnement : ils alimentent la tumeur en substances messagères et en facteurs de croissance, ils jouent un rôle dans la multiplication des vaisseaux sanguins, ils aident à neutraliser le système immunitaire… Les processus en jeu dépendent du type de tissu malade, mais c’est le même principe qui est à l’œuvre : le cancer pirate les mécanismes de multiplication et de développement des cellules.
Prenez par exemple les glioblastomes. Ces tumeurs cérébrales agressives se développent à partir de précurseurs des cellules gliales, terme qui désigne divers types de cellules non neuronales dans le cerveau. Au cours du développement normal, les neurones envoient des signaux à ces cellules pour qu’elles se multiplient et forment une couche isolante autour des fibres nerveuses, améliorant la propagation des signaux nerveux. Le principal messager est un neurotransmetteur appelé « glutamate », qui déclenche une série de modifications physiologiques dans les cellules gliales lorsqu’il se fixe à leur surface. Or, en 2019, Varun Venkataramani et ses collègues ont montré que les neurones communiquaient de manière similaire avec les cellules de glioblastome, par le biais de contacts électrochimiques directs, et favorisaient également leur division. « Nous avons découvert des connexions spécialisées – autrement dit, des synapses – entre les cellules tumorales et les neurones, rapporte le neurologue. Nous savons aussi que le neurotransmetteur glutamate y est sécrété. » Dans des expériences sur des souris, c’est ainsi l’envoi de signaux nerveux aux tumeurs cérébrales qui a entraîné leur développement.
Nous avons découvert des connexions spécialisées – autrement dit, des synapses – entre les cellules tumorales et les cellules nerveuses.
À l’heure actuelle, les glioblastomes restent incurables. On l’explique en partie par le fait qu’ils se propagent dans tout le cerveau, ce qui empêche de les retirer complètement par une opération chirurgicale, mais les neurones pourraient également être en cause, comme le révèle une analyse fine du processus d’invasion. Si de nombreuses cellules tumorales s’associent entre elles et avec certaines cellules gliales, nommées « astrocytes », pour former un réseau, d’autres restent solitaires. Ces cellules isolées ressemblent aux neurones immatures, qui migrent à travers le cerveau pour coloniser différentes zones, à deux égards : d’abord, elles expriment des ARN messagers similaires, et, surtout, elles se déplacent de manière comparable dans le tissu cérébral. Elles se comportent alors en pionnières, explorant la périphérie de la tumeur. Dès qu’elles ont trouvé un endroit favorable, elles s’associent à d’autres cellules tumorales pour former un réseau. Et c’est là que le système nerveux joue à nouveau un rôle décisif : si les cellules cancéreuses reçoivent certains signaux des neurones, elles accélèrent l’invasion du tissu cérébral et forment davantage d’excroissances membranaires qui leur permettent de se connecter entre elles, comme Varun Venkataramani et son équipe l’ont découvert en 2022 chez la souris .
Ce lien malsain entre système nerveux et cancer concerne également les métastases cérébrales. Ainsi, dans le cancer du sein, les cellules tumorales qui se propagent jusqu’au cerveau se mettent à produire davantage de récepteurs au glutamate. Mais ce n’est pas tout : elles forment aussi des « contacts périsynaptiques » qui englobent les contacts préexistants entre les neurones. C’est ce qu’ont montré en 2019 Qiqun Zeng et d’autres experts, de l’Institut suisse de recherche expérimentale sur le cancer, à Lausanne, à l’aide de cultures de cellules humaines et animales. « Contrairement à ce qui se passe avec la cellule de glioblastome, qui établit un contact avec une cellule nerveuse, il existe ici déjà une synapse entre deux neurones, explique Varun Venkataramani. La périsynapse se forme alors et vient « écouter » cette synapse initiale, interceptant les signaux entre les neurones. » Avec pour résultat un accroissement du potentiel de multiplication des métastases mortelles.
Les cellules tumorales présentes dans le cerveau sont donc en mesure d’établir des contacts directs et indirects avec les neurones, et d’utiliser le neurotransmetteur glutamate pour elles-mêmes. Est-ce aussi le cas des tumeurs métastasiques de la tumeur primaire situées ailleurs dans le corps ? C’est ce que Varun Venkataramani souhaite maintenant explorer : « Nous nous demandons s’il existe également des connexions synaptiques en dehors du cerveau. Ce n’est pas encore totalement clair. » Même s’il ne fait aucun doute qu’outre l’encéphale, le reste du système nerveux joue un rôle dans le développement des tumeurs, affirme le biologiste Moran Amit, du centre de cancérologie MD Anderson, à Houston. Pour preuve : les expériences où l’interruption des communications nerveuses avec la prostate chez des souris a ralenti le développement du cancer touchant cet organe.
Mais la complexité du système nerveux rend les fils difficiles à démêler : notre corps est traversé par d’innombrables nerfs qui descendent du cerveau ou y remontent, et qui véhiculent divers types d’informations – sensorielles, motrices, autonomes (c’est-à-dire relatives aux fonctions vitales comme la respiration, la circulation sanguine ou la digestion)… « Nous devons clarifier le rôle de ces différents sous-types de nerfs dans le cancer et découvrir comment les utiliser pour combattre la maladie », explique Moran Amit. Pour ne rien simplifier, certaines fibres nerveuses agissent différemment sur les tumeurs selon la nature de ces dernières. Par exemple, le système parasympathique (le « frein » du système nerveux autonome, qui apaise l’organisme) favorise la propagation des cancers de la prostate et de l’estomac, mais inhibe la formation de métastases dans le cas des cancers du sein et du pancréas.
Le taux de survie impacté
Actuellement, de nombreuses recherches sont menées sur les cancers de la prostate, du pancréas et ceux dits « de la tête et du cou » – qui touchent les lèvres, la langue, le larynx… En 2013, Claire Magnon a constaté chez des patients atteints d’un cancer de la prostate que plus la densité de nerfs sympathiques et parasympathiques était élevée au sein de la tumeur maligne, plus les chances de survie étaient faibles. « Les tumeurs sont fortement innervées, et plusieurs études menées ces dernières années montrent que les neurotransmetteurs acétylcholine et noradrénaline jouent un rôle important », détaille Moran Amit. L’acétylcholine est libérée au niveau des synapses du système parasympathique, la noradrénaline sert à la transmission des signaux dans le système sympathique. Si l’on bloque l’action de ces neurotransmetteurs, les tumeurs se développent plus lentement, les métastases sont moins nombreuses et les thérapies plus efficaces. « Mais nous ne connaissons pas encore tous les détails », nuance le biologiste.
Le rôle de la noradrénaline a également été mis en évidence dans le cas des cancers de la peau : les mélanomes très avancés ont ainsi davantage de récepteurs pour ce neurotransmetteur que les tumeurs à un stade précoce, et si on bloque ces récepteurs, on freine la propagation du cancer. Dans une étude menée en 2014 chez des patients humains, Maura Calvani et ses collègues, de l’université de Florence, ont en outre montré que des quantités plus importantes de noradrénaline dans les tumeurs sont associées à un stade plus avancé, à des métastases dans les ganglions lymphatiques et à un taux de survie plus faible.
Les neurones et les fibres nerveuses alimentent la tumeur en substances messagères et en facteurs de croissance, favorisent la multiplication des vaisseaux sanguins et aident à neutraliser le système immunitaire !
La noradrénaline est par ailleurs le précurseur de l’adrénaline, également libérée par le système sympathique. Or cette hormone favorise l’angiogenèse – la formation de nouveaux vaisseaux sanguins –, en stimulant les cellules qui tapissent ces vaisseaux. Une aubaine pour les cellules cancéreuses, qui ont besoin d’oxygène et de nutriments. C’est peut-être pour cela que les bêtabloquants, qui inhibent l’adrénaline, influencent la survie des patients cancéreux. Des analyses a posteriori menées chez des hommes souffrant d’un cancer de la prostate et chez des femmes atteintes d’un cancer du sein ou des ovaires ont ainsi révélé que ceux qui en avaient pris avaient vécu plus longtemps. Des études cliniques sont en cours pour déterminer si ces médicaments gagneraient à être intégrés dans le traitement du cancer.
Le stress, un moteur du cancer ?
L’adrénaline étant une hormone du stress, ce dernier joue-t-il un rôle dans le cancer ? Des études chez l’animal indiquent qu’il favorise effectivement la croissance des tumeurs, sans doute par l’action stimulante de l’adrénaline sur l’angiogenèse, qui augmente l’approvisionnement des tissus cancéreux en nutriments et en oxygène. Contrairement à certaines idées qui circulent, il n’existe toutefois aucune preuve convaincante d’une influence de la dépression, de la pensée positive ou de la personnalité sur le cancer.
Les liens entre nerfs et tumeurs sont en tout cas à double sens : on sait désormais que les cellules tumorales de certains cancers, comme ceux de la tête et du cou, modifient à leur tour le système nerveux. Les facteurs de croissance que la tumeur sécrète incitent notamment les cellules nerveuses du système sympathique à émettre de nouveaux prolongements et à se développer en elle. Il s’ensuit un cercle vicieux où les nerfs tout juste formés libèrent de la noradrénaline, ce qui favorise la progression du cancer.
Les interactions des cellules cancéreuses et du système nerveux entraînent-elles des symptômes neurologiques ? Dans le cas des tumeurs cérébrales, la réponse est oui, affirme Varun Venkataramani. Jusqu’à 70 % des patients atteints de glioblastome – et 10 à 15 % de ceux touchés par d’autres types de cancer ayant produit des métastases cérébrales – souffrent d’épilepsie. On ne connaît pas précisément les mécanismes à l’œuvre, mais « il y a de plus en plus d’indices d’un cercle vicieux entre l’épilepsie et la croissance de la tumeur. Cette dernière favorise l’hyperexcitabilité des cellules nerveuses, qui stimule à son tour la croissance et l’invasion de la tumeur ». Des douleurs chroniques peuvent en outre apparaître lors de ce qu’on appelle l’« invasion périneurale » du système nerveux périphérique : les cellules malignes se déplacent le long des nerfs et propagent la maladie.
Brouiller les communications
Aujourd’hui, les thérapies anticancéreuses reposent principalement sur des poisons cellulaires et des interventions chirurgicales ciblant les tissus atteints. Les oncologues tentent aussi de jouer sur l’angiogenèse et sur la réponse immunitaire. Mais la plupart des cancers ne sont toujours pas guérissables, ou seulement au prix de traitements lourds. La découverte des liens entre système nerveux et cancer ouvre alors de nouvelles voies. « En théorie, de nombreuses approches permettent de développer une thérapie à partir de ces interactions », explique Varun Venkataramani.
Dans le cas du glioblastome, par exemple, des projets au stade d’essais cliniques tentent d’empêcher l’établissement de synapses entre les cellules tumorales et les cellules nerveuses. Pour ce faire, les chercheurs se concentrent sur les molécules nécessaires à la formation de ces synapses, comme la neuroligine3, qui est sécrétée par les neurones et stimule par ailleurs la multiplication des cellules cancéreuses. En 2017, Humsa Venkatesh et ses collègues, de la faculté de médecine de Stanford, en Californie, ont désactivé le gène codant cette molécule chez des souris et ont ainsi empêché la croissance de différentes tumeurs cérébrales. D’autres équipes testent le perampanel, un antiépileptique qui bloque un récepteur au glutamate, pour traiter les gliomes agressifs.
Il serait en revanche pour le moins compliqué de couper toute connexion nerveuse avec les organes malades chez des patients humains, à l’instar de ce qui a été réalisé chez des rongeurs pour les cancers de la prostate et de l’estomac. Les organes ont un besoin vital d’être innervés et une telle opération aurait probablement de nombreux effets secondaires. Une alternative consiste à injecter des neurotoxines de manière ciblée, sur quelques fibres seulement, ce qui devrait limiter ces effets indésirables. Les chercheurs tentent actuellement l’opération avec du Botox, surtout connu pour son emploi en chirurgie esthétique, mais qui a plus généralement de puissants effets inhibiteurs sur les communications nerveuses, pour traiter les cancers de l’estomac et de la prostate. En 2018, le biologiste moléculaire Christian Coarfa et ses collègues, du Baylor College of Medicine, à Houston, ont ainsi réussi à freiner considérablement le cancer de la prostate chez des souris et des patients humains.
Mais il serait sans doute moins agressif pour l’organisme d’empêcher d’emblée la croissance de nouvelles terminaisons nerveuses. Différents laboratoires testent chez les patients cancéreux des anticorps qui neutralisent certains facteurs de croissance, comme le NGF (nerve growth factor, « facteur de croissance nerveuse », en français) – anticorps habituellement utilisé pour le traitement de la douleur. Cela permettrait de faire d’une pierre deux coups : on ne combattrait pas seulement le cancer, mais aussi les douleurs qu’il provoque. Malheureusement, on manque encore d’études cliniques fiables pour ces thérapies.
Plusieurs raisons expliquent probablement les difficultés à mener ces études, comme la variabilité considérable des effets pharmacologiques obtenus en fonction du stade de la maladie et des voies biologiques impliquées. Un même médicament est ainsi efficace chez certains patients cancéreux, mais pas chez d’autres. Il est alors essentiel de trouver des biomarqueurs qui renseignent sur les spécificités de chacun dans les interactions entre tumeurs et système nerveux, afin de développer des thérapies ciblées. Il reste donc beaucoup à faire, mais l’espoir est grand que les toutes jeunes « neurosciences du cancer » apportent enfin la percée médicale tant attendue dans le domaine.
L’essentiel
Les recherches récentes ont mis en évidence de puissants liens entre le cancer et le système nerveux : ce dernier favorise le développement des tumeurs, à l’intérieur comme à l’extérieur du cerveau.Les cellules cancéreuses utilisent à leur profit des substances libérées par les neurones, et détournent l’activité nerveuse pour stimuler la formation de vaisseaux sanguins qui viendront les nourrir…Les chercheurs tentent d’exploiter ces découvertes pour développer de nouvelles thérapies, fondées sur la perturbation des communications entre le système nerveux et les tumeurs.
L’essentiel du développement du cerveau humain intervient après la naissance. La venue à maturité du réseau neuronal nécessaire pour les fonctions complexes de la motricité et de la cognition n’apparait que chez l’enfant et le jeune adulte. Au cœur de la mise en place des circuits neuronaux nécessaires se trouve la génération de nouvelles cellules gliales
Les cellules gliales sont des cellules spécialisées dont la fonction est d’entourer, de soutenir et d’isoler les neurones du système nerveux central (SNC), y compris dans le cerveau et la moelle épinière. Les principaux types de cellules gliales sont les oligodendrocytes, les astrocytes, les cellules microgliales et les épendymocytes.
Essentielle dans la mise en place de nouvelles cellules gliales est la formation des synapses et la myélinisation. Ce terme désigne e processus de la formation de la myéline. La myéline est une membrane spécialisée des cellules gliales myélinisantes du système nerveux (les cellules de Schwann pour le système nerveux périphérique dont les membranes s’enroulent autour des axones. Dans certaines régions du cerveau telles que l’hyppocampe la production de nouveaux neurones n’intervient qu’après la naissance. Elle sert aux fontions liées à la mémoire de plus en plus consciente.
Ces processus étaient connus depuis longtemps. Mais leur redécouverte tient à un évenement récent Des cancérologues de la Harvard Univerity, rejoint par un nombre croissant de neuroscientifiques, avaient observé qu’une tumeur cancéreuse du pancréas se développait de la même façon que des cellules gliales dans un organisme sain. Elle s’organisaient de la même façon que des neurones le font pour se développer chez un jeune organisme afin de le rendre conscient . Le cancer trouvera un appui et des nutriments dans l’organisme envahi. En échange l’organisme aidera le cancer à se développer afin que les deux forment un couple de plus en plus solide. Une nouvelle discipline est en cours de formation, dite « cancer neuroscience »
Le cancer est redoutable en ce sens qu’il implique et tourne à son profit un grand nombre des mécanismes liés au développement d’un organeme adultes en bonne santé. Il en résulte que pour lutter contre ses effets, les cancérologues sont tentés de paralyser des mécanismes sains.
L’on commence à comprendre que les tumeurs ont besoin de gènes pour survivre, comme elles ont besoin de sang et d’oxygène.
Il existe deux principaux procédés pour enrichir de l’uranium en isotope 235 afin en vue de produire du combustible nucléaire : la diffusion gazeuse et l’ultracentrifugation. Cette dernière technologie met en œuvre un ensemble de centrifugeuses.
Une centrifugeuse est principalement constituée d’un rotor (un cylindre de 1 à 2 m de haut et de 15 à 20 cm de diamètre) qui tourne à très grande vitesse (50 000 à 70 000 tours par minute) et permet la séparation dans un gaz d’hexafluorure d’uranium (UF6) qui y est introduit des différents isotopes grâce à leur différence de masse.
Les molécules plus lourdes (hexafluorure d’uranium 238) sont projetées vers la périphérie sous l’effet de la force centrifuge tandis que les molécules plus légères (hexafluorure d’uranium 235) restent confinées au centre. Le gaz enrichi en isotope 235 plus léger monte alors en haut du cylindre où il est récupéré, la fraction plus lourde enrichie en isotope 238 étant également extraite de la centrifugeuse.
Compte tenu de la très légère différence de masse entre ces molécules (de l’ordre de 1%), il est nécessaire de reproduire cette opération à de très nombreuses reprises. Les centrifugeuses sont donc installées en « cascades » et le gaz passe dans chacune d’entre elles (soit dans des milliers de centrifugeuses) en augmentant au fur et à mesure sa teneur en uranium 235 (jusqu’à un niveau de 3% à 5% pour un usage civil).
L’ultracentrifugation s’impose progressivement depuis que des progrès ont été effectués en matière de résistance des matériaux des centrifugeuses à la fin des années 1980. Aujourd’hui, ce procédé est notamment employé par Orano dans son usine Georges Besse II (site du Tricastin dans la Drôme).
Il était très probable que l’Iran ayant repris un programme de centrifugeuses cherchait à se doter des quelques kilos d’uranium enrichi à plus de 90 % nécessaires à la production de bombes nucléaires.
La première mission de DESI est d’étudier la nature de l’énergie sombre : comment la densité d’énergie sombre évolue-t-elle avec le temps et comment affecte-t-elle la formation des structures de matière ? Pour répondre à ces questions, DESI utilisera ses cartes de galaxies pour mesurer deux effets cosmologiques : les oscillations acoustiques de baryons et la distorsion dans l’espace des redshifts. En plus de nous permettre d’étudier la cosmologie, ces mêmes cartes nous donneront aussi l’opportunité d’étudier la physique des galaxies, des quasars et du gaz intergalactique.
Les oscillations acoustiques de baryons
Le projet DESI a été optimisé pour mesurer une empreinte subtile dans les cartes de galaxies qui provient d’un processus physique important dans l’univers primordial : les Oscillations Acoustiques de Baryons (Baryon Acoustic Oscillations : BAO). Pour expliquer cet effet, nous devons remonter au rayonnement fossile de l’univers ou fond diffus cosmologique—première émission de photons libres après le Big-Bang—qui emplit l’univers. Aujourd’hui, ce rayonnement thermique correspond à une température de seulement 2,7 degrés au-dessus du zéro absolu; mais au début de l’univers, il devait être bien plus chaud. Avant 380 000 après le Big-Bang, quand l’univers était encore un milliard de fois plus dense qu’aujourd’hui, et suffisamment chaud, les photons avaient assez d’énergie pour ioniser les premiers atomes d’hydrogène et d’hélium, séparer les électrons des noyaux atomiques, entraînant la formation d’un plasma dans l’univers. On dit alors que la matière et le rayonnement sont couplés. Les électrons diffusent leur énergie en interagissant avec les photons et ces photons créent une pression de radiation suffisante pour résister à la compression au sein du gaz. Des écarts de densité de matière sont apparus au cours des premiers instants de l’univers et se sont propagés comme des ondes acoustiques, ou plutôt des oscillations acoustiques de baryons (c’est-à-dire de matière) au sein du plasma. Les ondes de pression ont voyagé pendant 380 000 ans, jusqu’à ce que l’expansion permettent à l’univers de refroidir suffisamment pour que les électrons et les noyaux se re-combinent en atomes neutres. A ce moment appelé la recombinaison, les forces gravitationnelles prennent le dessus dans les zones où subsistent les écarts de densité et cela constitue les prémices des structures que nous observons aujourd’hui dans l’univers. Les ondes de pression se sont alors figées, leurs effets rémanents sont encore observables. Autour de chaque région de surdensité, il y a une faible empreinte sphérique de ces ondes autour de cette région. Cela a créé une probabilité légèrement plus grande de trouver des paires de galaxies séparées d’une distance caractéristique. Celle-ci correspond à la distance parcourue par les ondes de pression jusqu’à la recombinaison, et qui aujourd’hui avec l’expansion de l’univers, vaut environ 500 millions d’années-lumière. Cette légère empreinte a été observée avec plusieurs relevés de données et plus particulièrement à partir du Sloan Digital Sky Survey (SDSS) et de son relevé BOSS (Baryon Oscillation Spectroscopic Survey).
Mesurer ce subtil excès de corrélation représente un enjeu majeur dans l’étude de la nature de l’énergie sombre. Lorsque nous étudions un échantillon de galaxies à redshift élevé et détectons cette l’empreinte BAO dans leur distribution, nous savons que l’échelle est de 500 millions d’années-lumière. Sachant cela, nous pouvons en déduire la distance entre les galaxies. C’est comme si l’empreinte BAO correspondait à un étalon de distance pour mesurer l’expansion de l’univers, il y a le mètre pour les petites échelles de distances, le kilomètre pour les distances entre les villes et nous avons l’échelle BAO pour les distances entre les galaxies dans l’univers.
DESI utilisera le BAO pour mesurer la relation entre distance et redshifts dans une large gamme de redshifts avec une précision inférieure au pourcent. Il s’agit d’un tournant dans la compréhension de l’histoire de l’expansion de l’univers et de l’évolution de l’énergie sombre.
Les distorsions dans l’espace des redshift
Lorsque nous mesurons le redshift d’une galaxie, nous obtenons en réalité deux contributions : la composante dominante qui vient de l’expansion de l’univers et une composante plus faible qui résulte du mouvement propre de la galaxie attirée par les densités de matière environnante sous l’effet de la gravité. Ainsi, la mesure du redshift d’une galaxie à partir des cartes de DESI est sensible à la composante le long de la ligne de visée de la vitesse propre de cette galaxie. La prise en compte des vitesses propres introduit donc des déformations de la distribution des galaxies dans la direction parallèle à la ligne de visée par rapport à la direction perpendiculaire. Nous appelons ces déformations des distorsions dans l’espace des redshifts (Redshift Space Distortions, RSD). Elles sont directement liées à un effet d’effondrement cohérent de galaxies qui s’attirent sous l’effet de l’interaction gravitationnelle.
Or, dans le modèle de la cosmologie, l’interaction gravitationnelle est décrite par la théorie de la relativité générale d’Albert Einstein. En mesurant l’effet de RSD, nous pouvons déterminer la quantité de matière présente dans les structures à grande échelle. Si cette quantité de matière est connue par d’autres méthodes, nous pouvons tester si l’attraction gravitationnelle sur une échelle de plusieurs centaines de millions d’années-lumière suit les prédictions de la théorie de la relativité générale. En particulier, nous pouvons mesurer la vitesse à laquelle la matière se structure et forme des galaxies. Ce paramètre cosmologique correspond au taux de croissance des structures, nous pouvons mesurer sa valeur dans les données et la comparer avec la prédiction du modèle. Le test de la relativité générale à ces gigantesques distances est important car cela pourrait valider ou rejeter des alternatives comme les théories de gravité modifiée qui cherchent à expliquer l’accélération de l’expansion de l’univers. Aux très grandes échelles, nous avons montré que le taux d’expansion évolue de manière très différente à ce qui est prédit par l’attraction gravitationnelle de matière connue d’après les lois de la physique qui demeurent très fiables aux échelles du système solaire. Il est possible que ces différences possèdent d’autres signatures dans la distribution des structures à grande échelle de notre univers.
En plus de mesurer précisément l’évolution des distances pour contraindre les propriétés de l’énergie sombre, une analyse minutieuse des cartes de la distribution des galaxies avec DESI va permettre de détecter les effets de RSD afin de tester la validité de la théorie de la gravitation aux échelles cosmiques.
DESI dans le paysage des projets futurs de cosmologie
Le mystère de l’énergie sombre et le désir de retracer le plus précisément notre histoire cosmique continuent de motiver un grand nombre d’expériences dans le domaine de la cosmologie. DESI est l’un des programmes d’observation du ciel les plus ambitieux, qui est actuellement en cours de développement et qui, une fois opérationnel, deviendra rapidement le plus grand relevé portant de données spectroscopiques de galaxies. L’incroyable cartographie tridimensionnelle que DESI va obtenir présentera un grand intérêt scientifique en elle-même, et elles deviendront encore plus intéressantes lorsqu’elles seront combinées à d’autres données provenant de relevés d’imagerie optique/infrarouge, micro-ondes ou dans le domaine des rayons X. L’une des forces de la cosmologie moderne est la possibilité de mesurer des propriétés cosmologiques de plusieurs manières, en effet la comparaison de résultats indépendants permet de renforcer notre confiance dans les réponses scientifiques que nous concluons à partir des analyses et de laisser entrevoir de nouvelles études. Nous avons hâte que le remarquable travail de groupe de DESI puisse jouer un rôle important dans le paysage des expériences de cosmologie de la décennie à venir, en particulier autour de l’étude de l’énergie sombre.
Au-delà de l’énergie sombre
Les cartes de DESI seront utilisées pour de nombreuses autres applications en plus des oscillations acoustiques de baryons et des distorsions dans l’espace des redshifts. Nous prévoyons d’utiliser nos mesures de la distribution des galaxies dans une gamme en redshift intermédiaire pour mesurer la somme des masses des neutrinos. Nos mesures permettront également de tester si les fluctuations primordiales de densité dans l’univers suivent le modèle simple adopté actuellement, ou bien si elles mettent en évidence des déviations a ce modèle simple, synonymes de comportements nouveaux à très hautes énergies comme ce fût le cas au cours de la première seconde de l’univers. Des mesures précises de la distribution des corrélations spatiales des galaxies permettront aussi de tester une grand nombre d’extensions possibles au modèle standard de la cosmologie. Au-delà de la cosmologie, DESI va mesurer précisément les distances de plus de 30 millions de galaxies et de quasars dont les propriétés statistiques pourront être mieux connues. DESI va produire les cartes les plus détaillées jamais réalisées de notre univers proche, ce qui constitue la colonne vertébrale de bons nombres de groupes d’études sur les galaxies et les amas de galaxies ou sur les phénomènes extrêmes au sein de ces galaxies. De plus, DESI va également réaliser un relevé spectroscopique d’étoiles afin d’étudier dans le détail la dynamique de la Voie Lactée, notre propre galaxie.
Science et avenir L’énergie noire ébranle la cosmologie N 939 Mai 2025 p 49
Vu la facilité avec laquelle les Terriens sont en train de développer des techniques leur permettant de s’autodétruire en quelques années, depuis les guerres nucléaires ou biologiques jusqu’à des conflits sociaux de grande ampleur entrainant la paralysie des appareils productifs, beaucoup d’experts se demandent combien de temps survivront les sociétés humaines dites avancées.
Pour tenter de répondre à cette question, on peut être tenté d’analyser l’univers proche, dit « univers observable » .
Jusqu’à présent les sondes spatiales envoyées jusqu’au delà du système solaire sont restées muettes. Aucune forme de vie complexe n’y apparaît.. Certes en utilisant le télescope James Webb, une équipe britannique assure avoir trouvé une potentielle « biosignature » dans une atmosphère. Les spécialistes restent circonspects.
C’est la preuve la plus tangible qu’il y a peut-être de la vie là-bas », a affirmé à la BBC l’astronome britannique Nikku Madhusudhan. Par « là-bas », il faut comprendre : sur la planète K2-18b, découverte en 2015 et située à 124 années-lumière du Système solaire.
Son rayon est 2,6 fois plus grand que celui de la Terre. Grâce au télescope spatial James Webb de la Nasa, le scientifique de Cambridge et son équipe affirment avoir détecté des traces d’un gaz bien particulier, du sulfure de diméthyle (DMS), ce qui constituerait, selon lui, une signature incontestable de la présence de vie sur cette planète.
Sur Terre, le sulfure de diméthyle n’est en effet produit que par des processus biologiques, principalement par du phytoplancton vivant dans les océans. Pour le Pr Madhusudhan, la présence de ce gaz soufré en quantité assez grande pour être détecté d’aussi loin est la preuve que les océans de la planète K2-18b sont pleins d’une forme de vie comparable au plancton terrestre.
« Le scénario peut paraître séduisant, mais la majorité de la communauté scientifique est très sceptique », met en garde Chloe Fisher, spécialiste de l’analyse de l’atmosphère des exoplanètes à l’université d’Oxford. « L’équipe de Nikku Madhusudhan a déjà prétendu avoir découvert du DMS autour de cette même planète avec le télescope Webb en 2023, mais des réanalyses ultérieures menées par des équipes indépendantes sur les mêmes données, dont celles auxquelles j’ai participé, montrent que ces preuves étaient inexistantes. »
Dans l’ensemble, les critiques des astronomes portent principalement sur deux points. Le premier est que les mesures présentées sont trop imprécises pour prouver la présence de DMS autour de la planète K2-18b. « Les signaux sont vraiment faibles et il est tôt pour crier victoire », remarque Pierre-Olivier Lagage, astrophysicien au CEA, coresponsable de l’instrument Miri du JWST qui a été utilisé par l’équipe de Cambridge. D’autre part, même si ce gaz soufré était bien présent, il ne serait en aucun cas la signature incontestable de la vie, puisqu’il existe des processus chimiques capables de le produire sans faire intervenir la biologie.
Depuis la prétendue découverte de sulfure de diméthyle par Madhusudhan en 2023, d’autres astronomes en ont trouvé sur des comètes et dans l’espace interstellaire, des milieux où personne ne soupçonne la présence de vie.
Ce qui change par rapport à 2023, c’est que le chercheur de Cambridge se fonde sur des analyses réalisées dans de nouvelles longueurs d’onde un peu plus grandes, et potentiellement intéressantes pour détecter du sulfure de diméthyle.
Pour essayer de découvrir des molécules dans des atmosphères de planètes extrasolaires, les astrophysiciens se basent en effet sur la forme de leur spectre lumineux, qui donne la quantité de photons émis pour chaque « couleur » (définie par la longueur d’onde). Cela forme une courbe dont les pics et les creux peuvent être la signature de certaines molécules chimiques (parce qu’elles absorbent préférentiellement certains types de lumière).
Mais même avec la sensibilité extraordinaire du télescope james Webb, les courbes obtenues en observant l’atmosphère de planètes situées à des dizaines d’années-lumière sont très « bruitées », ce qui implique des incertitudes importantes sur les valeurs obtenues. « On repousse clairement les limites du JWST avec ce type d’observations », remarque Chloe Fisher.
Après un premier traitement des données, qui consiste à enlever les perturbations apportées par le télescope et les détecteurs eux-mêmes, il faut encore bien des analyses pour arriver à un résultat. « Pour cette phase d’analyse, on fait de nombreuses hypothèses sur la composition de l’atmosphère de la planète, on regarde quels spectres cela donnerait et on cherche quelles hypothèses et quelle composition correspondent le mieux à la courbe qu’on a enregistrée », explique Jérémy Leconte, chercheur CNRS spécialiste des atmosphères planétaires au Laboratoire d’astrophysique de Bordeaux
« Mais quand on a beaucoup d’incertitudes sur le signal, il est facile de regarder beaucoup de molécules et d’en trouver une qui semble expliquer un spectre donné. Personnellement, je ne serai convaincu que si des analyses indépendantes reprennent les mêmes données et arrivent aux mêmes conclusions. »
Franck Selsis, spécialiste des exoplanètes et directeur de recherche au laboratoire d’astrophysique de Bordeaux, est plus critique encore. « Tout le scénario monté par Nikku Madhusudhan et son équipe repose sur l’idée que K2-18b est une planète océan, recouverte d’une épaisse atmosphère d’hydrogène. Or des travaux que nous avons faits avec Jérémy Leconte montrent que la planète est en fait trop chaude pour qu’il puisse y avoir de l’eau liquide, en raison de l’effet de serre puissant généré par l’atmosphère riche en hydrogène.
Ce qui change par rapport à 2023, c’est que le chercheur de Cambridge se fonde sur des analyses réalisées dans de nouvelles longueurs d’onde un peu plus grandes, et potentiellement intéressantes pour détecter du sulfure de diméthyle. Pour essayer de découvrir des molécules dans des atmosphères de planètes extrasolaires, les astrophysiciens se basent en effet sur la forme de leur spectre lumineux, qui donne la quantité de photons émis pour chaque « couleur » (définie par la longueur d’onde).
Cela forme une courbe dont les pics et les creux peuvent être la signature de certaines molécules chimiques (parce qu’elles absorbent préférentiellement certains types de lumière). Mais même avec la sensibilité extraordinaire du télescope Webb, les courbes obtenues en observant l’atmosphère de planètes situées à des dizaines d’années-lumière sont très « bruitées », ce qui implique des incertitudes importantes sur les valeurs obtenues. « On repousse clairement les limites du JWST avec ce type d’observations », remarque Chloe Fisher.
Question : Que pourrait être la réponse iranienne au bombardement américain de ses sites nucléaires?
Le régime iranien, confronté à une escalade militaire sans précédent avec Israël depuis le 13 juin 2025, a promis une réponse dévastatrice aux attaques israéliennes, qui ont ciblé des sites militaires, nucléaires et des hauts responsables, dont le chef des Gardiens de la Révolution, Hossein Salami.
Les déclarations officielles, comme celles du colonel Reza Sayyad ou du président Masoud Pezeshkian, indiquent une volonté de riposter militairement, probablement par des **attaques de missiles et de drones** visant des bases israéliennes, voire des infrastructures civiles, comme observé lors des frappes récentes.
Téhéran a déjà lancé plusieurs salves, dont une annoncée « sans interruption jusqu’à l’aube » le 17 juin 2025. Cependant, plusieurs facteurs limitent l’ampleur de cette riposte :
1. Affaiblissement militaire :
Les frappes israéliennes ont détruit une part significative des capacités balistiques iraniennes (plus de la moitié des lanceurs de missiles selon certains rapports) et des sites nucléaires, réduisant la capacité de Téhéran à mener une offensive prolongée. Les analystes, comme Armin Arefi, soulignent un « déséquilibre flagrant » des forces, avec une pénétration israélienne efficace et une défense iranienne défaillante.[
Malgré la rhétorique belliqueuse, l’Iran montre des signes de volonté de négocier, notamment avec les États-Unis, sous médiation omanaise. Des sources rapportent que Téhéran, en position de faiblesse, pourrait être contraint de revenir à la table des négociations pour éviter un effondrement total. https://www.lemonde.fr/iran/) https://x.com/IranItl/status/1935194442383626525)
Existe-t-il une possibilité positive pour les Iraniens et le monde ? Laquelle ?
Malgré la gravité de la situation, plusieurs scénarios pourraient offrir des perspectives positives, bien que fragiles, pour les Iraniens et la communauté internationale
Zone dénucléarisée au Moyen-Orient : Possibilité: Des initiatives, comme l’appel de 21 pays arabes et musulmans pour une zone exempte d’armes nucléaires, pourraient gagner du terrain si l’Iran renonce à son programme militaire.https://www.lemonde.fr/iran/) –
Impact positif pour les Iraniens : Cela renforcerait la sécurité nationale sans nécessiter une course ax armements coûteuse, tout en favorisant la coopération régionale
C’est plus spécifiquement les trois sites nucléaires iraniens dans lesquels les mollahs avaient annoncé qu’ils mettaient la dernière main à la préparation d’armes atomiques destinées à Israel et à ses alliés.
Donald Trump annoncé au matin du 21 juin « Nous avons mené à bien notre attaque contre les trois sites nucléaires iraniens, à savoir Fordo, Natanz et Ispahan. Tous les avions sont maintenant en dehors de l’espace aérien iranien. Une charge complète de bombes a été larguée sur le site principal, Fordo.
Le renseignement occidental avait prévenu que sans ce bombardement l’Iran aurait très probablement largué des bombes atomiques sur un certain nombre de sites militaires voire économiques occidentaux. L’opinion mal informée s’était rassurée. Il faudraii au moins quinze jours aux mollahs pour mettre au point de telles bombes. Cela aurait laissé le temps à l’Occident de réagir.
Mais les experts avaient averti les gouvernements occidentaux, en premier lieu le Pentagone : Mettre au point une bombe A comme celle d’Hiroshima n’aurait demande que quelques heures aux mollahs. Fallait-il donc se donner quinze jours pour négocier ?
La Mission Tianwen2 préparée par la China National Space Administration CNSA vient de décoller. Elle vise à mieux connaire les petits astres rocheux qui gravitent en permanance dans le système solaire, soit en ces un astéroïde et une comète.
La Mission prélèvera environ 100 grammes de l ‘astéroïde (dit aussi quasi-satellite) Kamo’Somalewa puis les rapportera sur la Terre où elle les larguera pour étude. Elle repartira ensuite vers la comète 311P/ParisSTARRS qu’elle observera à distance. Elle utilisera la force de gravité de la Terre comme propulseur pour cette seconde partie de la mission.
La CNSA soupçonne l’astéride d’être un morceau arrachée de la Lune il y a des millions d’années lors d’un impact avec un autre astéroïde. Elle le considère comme un « fosssile vivant »
Quant à la comète, ce ne serait pas une véritable comète. Sa queue serait constituée de fragments de roche et de poussières arrachés à la Lune lors d’un impact avec un précédent astéroïde.
Il en résulte que les orbites des cibles sont loin d’être circulaires. Ces irrégularité accroissent les difficultés de la mission.
La mission suivante sera encore plus extrême : Tianwen-3 décollera en 2028 pour rapporter des échantillons martiens sur Terre d’ici 2031.