Des molécules d’origine biologique ont-elles été identifiées sur une planète distante de 124 années lumière de la Terre

Une super-terre distante de 124 années lumière de la nôtre possèderait une atmosphère comportant des molécules pouvant être d’origine biologique. Celles-ci, du diméthyl sulphide (DMS) et du dimethil disulphide (DMDS) ne peuvent être produites sur la Terre que par des organismes vivants.

Le 16 avril 2025 une équipe dirigé par Nikku Madhusudhan professeur indo-britannique d’astrophysique et de sciences exoplanétaires à l’Institut d’astronomie de l’Université de Cambridge, avait annoncé en avoir détecté sur la planète K2-18b . Ils avaient utilisé les données du télescope spatial James Webb (JWST) pour détecter un gaz appelé sulfure de diméthyle dans l’atmosphère d’une exoplanète baptisée K2-18b, qui orbite dans la zone habitable de son étoile.

Sur terre, le DMS est essentiellement produit par le phytoplancton microscopique. Sur d’autres planètes, les traces de ce gaz pourraient constituer ce que les scientifiques appellent une biosignature, un signe de vie.

La nouvelle a rapidement été présentée comme le « plus grand signe d’activité biologique en dehors du système solaire » par l’université de Cambridge, où travaillent plusieurs chercheurs impliqués dans cettea détection. Certains médias n’ont pas hésité à proclamer le DMS comme probable signe de vie. Cependant, les scientifiques qui n’ont pas pris part à la découverte appelent à la prudence

« Je suis plutôt sceptique et j’aurais aimé que la couverture médiatique reflète un peu mieux le scepticisme de la communauté astronomique et astrobiologique », commente par e-mail l’astrobiologiste Joshua Krissansen-Totton de l’université de Washington.

Pour Clara Sousa-Silva, astrochimiste au Bard College impliquée dans la détection malheureuse de la biosignature vénusienne en 2020, la situation n’est que trop familière. « Nous n’avons pas retenu la leçon de la phosphine sur Vénus », déplore-t-elle.

National Geographic a contacté dix experts indépendants pour savoir que penser de cette nouvelle annonce. Pour la plupart, il s’agit peut-être d’une étape majeure sur le chemin qui mènera un jour à la détection d’une forme de vie extraterrestre.

————————————–

Voici l’état actuel des connaissances sur K2-18b et ses éventuelles traces de DMS..

En 2023, la même équipe de recherche dirigée par l’astrophysicien Nikku Madhusudhan de l’université de Cambridge avait publié des observations du télescope spatial James Webb suggérant la présence de DMS sur K2-18b.

En s’appuyant sur les mêmes données, les chercheurs avait également conclu que K2-18b était un type de planète habitable appelé planète « hycéan ». Madhusudhan et ses collègues avaient tinventé le terme en 2021 pour décrire un groupe hypothétique de planètes plus grandes que la Terre, plus petites que Neptune, principalement composées d’eau et enveloppées dans un épais voile d’hydrogène et d’hélium. Dans les conditions adéquates, ces planètes pourraient avoir en surface un océan tempéré pouvant accueillir la vie.

La détection de 2023 avait manqué de peu les exigences statistiques de rigueur en astronomie. La nouvelle étude, publiée dans la revue Astrophysical Journal Letters, dresse un suivi à l’aide d’un instrument de JWST sensible à des longueurs d’onde différentes de celles exploitées dans la première étude.

Si la précédente détection de DMS peinait à convaincre, la dernière apparaît bien plus solide. D’après Madhusudhan et ses collègues, la signification statistique de la nouvelle détection de DMS (ou d’une molécule similaire appelée diméthyldisulfure, DMDS) serait de « trois sigmas ». En d’autres termes, la probabilité que la détection de DMS soit uniquement le fruit du hasard est inférieure à 0,3 %, ce qui est nettement plus convaincant que la détection antérieure, mais reste tout de même en deçà du seuil de cinq sigmas habituellement fixé pour la signification statistique.

« En tenant compte de nos connaissances sur cette planète, l’hypothèse du monde hycéan doté d’un océan abritant la vie est le scénario qui correspond le mieux aux données dont nous disposons », a déclaré Madhusudhan dans le communiqué de presse de Cambridge.

D’autres scientifiques se montrent moins optimistes. Certains vont même jusqu’à remettre en question la présence de DMS, ou de DMDS.

« C’est très intéressant, une belle démonstration des capacités du JWST », déclare Laura Kreidberg, astronome au Max Planck Institute for Astronomy, en Allemagne, dans un mémo vocal. « Par contre, je n’irai pas jusqu’à parier ma carrière sur cette conclusion. »

Les scientifiques peuvent utiliser le télescope spatial James Webb pour identifier des gaz dans l’atmosphère des exoplanètes via la détection de leur signature chimique dans la lumière qui a traversé ladite atmosphère. Ces signatures chimiques apparaissent sous la forme de pics dans les courbes représentant l’intensité de la lumière en fonction de la longueur d’onde.

Dans la nouvelle étude, les chercheurs ont comparé leurs observations aux signatures de vingt molécules. C’est « plus que ce que font habituellement les astronomes, mais ils arrivent rarement aux mêmes conclusions », déclare Sousa-Silva. Par ailleurs, la plupart de ces molécules ne présentent aucune similarité structurelle avec le DMS et le DMDS, ajoute-t-elle, ce n’était donc pas exactement un panel ciblé de potentiels faux positifs. 

Un autre chercheur, l’astronome Ryan MacDonald de l’université du Michigan, est même allé plus loin en qualifiant l’annonce des trois sigmas de « piratage statistique » sur la plateforme Bluesky.

Même si K2-18b orbite dans la zone habitable de son étoile, ce n’est pas une seconde Terre. À 2,6 fois le rayon et 8,6 fois la masse de notre planète, il s’agit là d’un monde extraterrestre mystérieux, un monde qui pourrait même ne pas être habitable.

Récemment, une équipe indépendante a réanalysé les observations de K2-18b exploitées en 2023 par l’équipe de Cambridge et elle n’a identifié aucune trace de DMS ou de dioxyde de carbone. Il s’agit d’un coup dur pour l’hypothèse de la planète hycéan, qui suggère une abondance de dioxyde de carbone. D’après une étude antérieure, K2-18b serait très probablement une boule de gaz inhospitalière sans surface d’aucune sorte. Une autre équipe envisage même une alternative encore plus hostile : la présence d’un océan, oui, mais de magma.

Madhusudhan précise que l’analyse indiquant une absence de dioxyde de carbone sur K2-18b n’a pas encore fait l’objet d’une évaluation par les pairs. « Il y a des questions en suspens, mais l’habitabilité n’est pas exclue, » déclare-t-il. « Les preuves de la présence de CO2 sont bel et bien là. »

Même si K2-18b est une planète hycéan, cela ne signifie pas qu’elle soit habitable. En l’absence de couche nuageuse réfléchissante, l’océan de la planète serait en ébullition sous cette couverture d’hydrogène. Voilà le destin probable de tout océan qui existerait à la surface de K2-18b, du moins selon une étude publiée la semaine dernière.

« L’explication la plus simple pour cette planète est une atmosphère de géante gazeuse très épaisse, sans surface habitable », indique Nick Wogan, planétologue de l’Ames Research Center de la NASA. « L’hypothèse d’une K2-18b habitable (ou habitée) présente trop d’obstacles. »

En admettant que les scientifiques confirment l’identification du DMS, et que K2-18b soit bien une planète hycéan habitable, il faudra tout de même attendre encore un peu avant de parler de vie extraterrestre complexe.

Tant que les scientifiques n’ont pas exclu l’éventualité d’une origine abiotique, qui n’implique pas d’êtres vivants, le DMS ou le DMDS ne pourront pas être considérés comme de véritables biosignatures

Comme le soulignaient l’astrobiologiste Harrison Smith, de l’Earth-Life Science Institute au Japon, et son collègue Cole Mahis, de l’université d’État d’Arizona, dans un essai publié en 2023, la chasse aux faux positifs est très difficile pour les exoplanètes.

« Au moins, Vénus était une planète que nous connaissons. Nous savons à quoi elle ressemble », reprend Sousa-Silva. Sans connaissance sur la géochimie ou l’atmosphère de K2-18b, les scientifiques ne peuvent pas exclure la possibilité que la source du DMS soit une chimie extraterrestre, et non une vie extraterrestre.

Nous savons déjà que la nature peut produire du DMS sans la vie. L’année dernière, la chimiste Nora Hänni de l’université de Bern et ses collègues ont découvert du DMS sur la comète 67P, ce qui n’est pas exactement un monde habitable. D’autres chercheurs ont trouvé la molécule dans l’espace interstellaire. L’année dernière, la chimiste Eleanor Browne de l’université d’État du Colorado, à Boulder, et ses collègues ont démontré que le DMS pouvait être produit dans des réactions chimiques alimentées par la lumière lors d’expériences menées en laboratoires sur des atmosphères synthétiques.

À quoi ressemblerait la vie sur Proxima B ?

Les auteurs de l’étude reconnaissent certaines de ces lacunes. Madhusudhan indique que ni les comètes ni la matière interstellaire ne sont des sources plausibles pour les fortes concentrations de DMS et de DMDS détectées par son équipe. Cependant, si la découverte de DMS est inattendue, les environnements morts nous montrent que nous avons encore beaucoup à apprendre sur sa formation.

D’autres incertitudes sont à prendre en compteent la détection. Nous ne savons pas comment la vie a vu le jour sur Terre, nous ne pouvons donc pas savoir si les conditions sur K2-18b auraient pu donner naissance à la vie en général, en admettant que ces conditions soient favorables pour les terriens. Si la vie s’était effectivement développée, qui peut dire qu’elle produirait du DMS ? Et si elle produit du DMS, pourquoi les scientifiques n’ont-ils pas détecté d’autres biosignatures de gaz sur d’autres plabètes? 

Quoi qu’il en soit, la plupart des chercheurs avec lesquels nous nous sommes entretenus reconnaissent qu’il y a motif à célébrer cette nouvelle étude de K2-18b. « C’est vraiment un exploit. Il y a trente ans, nous n’avions même pas conscience de l’existence des exoplanètes. »

Philosophe des sciences à l’université de Durham, en Angleterre, où il étudie les annonces de détection de la vie, Peter Vickers était plutôt sceptique au départ. « Ensuite, plus je m’y intéressais, plus je me disais que c’était une découverte majeure et qu’il ne fallait en aucun cas la sous-estimer », témoigne-t-il.

De son côté, Madhusudhan est convaincu que la prudence et l’enthousiasme ne sont pas mutuellement exclusifs. Même le plus infime des signes de vie extraterrestre est un « exploit transformationnel », assure-t-il. Néanmoins, entre ce point et une véritable déclaration de détection de vie extraterrestre, il y a encore du chemin. « Il faut accepter les deux : la prouesse et la prudence. »

Si tant est que nous y parvenions un jour, la découverte de la vie en dehors de notre système solaire ne se produira pas d’un seul coup. Nous glisserons doucement vers la certitude, entraînés par des découvertes comme celle-ci qui sont autant d’invitations à pousser plus loin les recherches pour multiplier les chances. Il s’agit là sans aucun doute d’une invitation à examiner K2-18b d’un peu plus près. Si nous trouvons la vie sur cette planète, l’une des premières potentiellement habitables que nous avons inspectées, nous devrons supposer que la vie est commune dans l’univers ; car si elle était rare, la probabilité de simplement tomber sur la planète adéquate serait astronomiquement faible.

« Nous en sommes encore à poser des questions, mais ce sont des questions qu’il est formidable de poser », conclut l’astrobiologiste Michael Wong de la Carnegie Institution de Washington. « Quelle chance de vivre cette époque ! »

Cet article était initialement paru sur le site national geo. Nous l’avons un peu simplifié

16/06/2025 Une sonde spatiale chinoise va tenter de faire coup double

La Mission Tianwen2 préparée par la China National Space Administration CNSA vient de décoller. Elle vise à mieux connaitre les petits astres rocheux qui gravitent en permanence dans le système solaire, soit en l’espèce un astéroïde et une comète.

La Mission prélèvera environ 100 grammes de l ‘astéroïde (dit aussi quasi-satellite) Kamo’Somalewa puis les rapportera sur la Terre où elle les larguera pour étude. Elle repartira ensuite vers la comète 311P/ParisSTARRS qu’elle observera à distance. Elle utilisera la force de gravité de la Terre comme propulseur pour cette seconde partie de la mission.

La CNSA soupçonne l’astéride d’être un morceau arrachée à la Lune il y a des millions d’années lors d’un impact avec un autre astéroïde. Elle le considère comme un « fossile vivant »

Quant à la comète, ce ne serait pas une véritable comète. Sa queue serait constituée de fragments de roche et de poussières arrachés à la Lune lors d’un impact avec un précédent astéroïde.

Il en résulte que les orbites des cibles sont loin d’être circulaires. Ces irrégularités accroissent les difficultés de la mission.

La mission suivante sera encore plus extrême : Tianwen-3 décollera en 2028 pour rapporter des échantillons martiens sur Terre d’ici 2031.

Pour en savoir plus voir

https://www.futura-sciences.com/sciences/actualites/astronautique-decollage-tianwen-2-chine-lance-mission-plus-ambitieuse-rapporter-fragments-asteroide-122392/

16/06/2025 L’homme responsable probable de l’extinction des paresseux géants

Les paresseux sont des mammifères arboricoles d’Amérique du Sud et d’Amérique centrale qui constituent le sous-ordre des Folivora[1]. Ce sont des animaux de taille moyenne au mode de vie original : ils sont presque toujours suspendus à l’envers dans les arbres et se déplacent avec lenteur. Ils possèdent de longues griffes. Les paresseux du genre Bradypus sont aussi appelés « aïs », chacun de leurs membres se terminant par trois doigts griffus, ce qui les distingue des paresseux du genre Choloepus, de la famille des Megalonychidae, qui ne présentent que deux griffes à chaque main.

Outre les six espèces vivant actuellement, on connaît quatre espèces éteintes de paresseux géants qui vivaient en Amérique. Les fossiles de trois d’entre elles ont été trouvés dans l’asphalte des puits de goudron de Rancho La Brea[2] qui abrite des fossiles récents de la dernière ère glaciaire (−40 000 à −10 000 ans).

Il ne faut pas les confondre avec le « paresseux australien », un autre nom donné au koala, mammifère marsupial.

Les paresseux actuels sont pour certains les descendants de paresseux dits géants. Pendant 35 millons d’années ceux-ci étaients présents en Amérique du sud. Alberto Toscanini de l’université de Buenos Aires a rasssemblé une documentation les concernant, aspect physique, ADN et protéines, modes de vie et modalités d’extinction pour ceux disparus sans laisser de descendants.

Il apparaît que la disparition des paresseux géants a coïncidé avec l’implantation de l’homme dans leur habitat. Les derniers à survivre le durent à leur petite taille qui leur a permis de se réfugier dans les arbres

https://www.science.org/doi/10.1126/science.adz1373



15/06/2025 Collosal Bioscience reconnaît qu’il n’a pas fait renaitre le loup sinistre Canis dirus

Canis dirus (le « Loup sinistre »), parfois aussi placé dans le genre Aenocyon) était une espèce de canidés qui a vécu en Amérique du Nord et en Sibérie au Pléistocène et s’est éteinte il y a environ 10 000 ans.

Il était plus gros que le Loup gris en taille et en allure. Il mesurait environ 1,50 m de long et pesait en moyenne 68 kg pour la sous-espèce la plus grosse, le Canis dirus dirus.

En avril 2025, l’entreprise Colossal Biosciences annonçait avoir « ressuscité » cette espèce disparue en restaurant les caractères phénotypiques les plus marquants du loup sinistre chez un loup gris ; il s’agit toutefois bien de loups légèrement modifiés génétiquement, et aucunement de Canis dirus.

Canis dirus était plus gros que le Loup gris en taille et en allure, il mesurait environ 1,50 m de long et pesait en moyenne 68 kg pour la sous-espèce la plus grosse, le Canis dirus dirus.

Il est probable que ces loups vivaient en meutes, unies par des liens de famille, et qu’ils chassaient en groupes. La principale différence entre Canis lupus et Canis dirus se trouve dans la structure du squelette, plus massif et plus lourd chez Canis dirus. Ses pattes étaient proportionnellement plus courtes, sa tête plus grande et plus lourde (une tête retrouvée en Yakoutie en 2018 est longue de 41,5 cm, correspondant ainsi à la moitié du corps d’un loup contemporain), mais la capacité crânienne était moindre. Ses dents, plus grandes et plus fortes que celles du Loup gris, étaient capables de broyer des os.

De telles caractéristiques suggèrent que c’était un moins bon coureur que les loups actuels et qu’il se nourrissait d’animaux peu rapides et de grande taille, ou de proies affaiblies et de charognes, un peu comme les hyènes actuelles, mais aussi comme d’autres prédateurs qui vivaient à son époque, les félins à dents de sabre comme le Smilodon, qui eux aussi présentaient des adaptations évolutives pour la chasse d’animaux de grande taille.

Aujourd’hui dans une interview la directrice de recherh de Colossal, Beth Shapiro, reconnaît qu’il n’est actuellement pas possible de ressusciter des espèces disparue. Elle admet ne pas avoir fait reparaitre un loup sninistre, mais un loup gris aux gênes un peu modifié.

Ceci dit, selon nous, il s’agit déjà d’un exploit, qui n’est pas vraiment rassurant. Que sera un homo sapiens aux gènes un peu modifié, du type de ceux que les spécialistes de l’espace estiment indispensable pour s’établir durablement sur la planète Mars ?

14/06/2025 La fin du multivers ?

Les fentes de Young (ou interférences de Young) désignent en physique une expérience qui consiste à faire interférer deux faisceaux de lumière issus d’une même source, en les faisant passer par deux petits trous percés dans un plan opaque. Cette expérience fut réalisée pour la première fois par Thomas Young en 1801 et permit de comprendre le comportement et la nature de la lumière. Sur un écran disposé en face des fentes de Young, on observe un motif de diffraction qui est une zone où s’alternent des franges sombres et illuminées.

Cette expérience a mis en évidence la nature ondulatoire de la lumière. Elle a été également réalisée avec de la matière, comme les électrons, neutrons, atomes, molécules, avec lesquels on observe aussi des interférences. Cela illustre la dualité onde-particule : les interférences montrent que la matière présente un comportement ondulatoire, mais la façon dont elles sont détectées (impact sur un écran) montre leur comportement particulaire. Wikipedia

Cependant de nouvelles versions de cette expérience, conduisirent à penser que les interférences n’étaient pas dues à des superpositions d’un photon unique, mais à des interférences se produisant entre photons différents utilisant des chemins très proches les uns des autres  et ne permettant pas de les distinguer

Référence

https://www.earth.com/news/single-photon-detected-in-multiple-locations-simultaneously/

Recent work suggests that a single photon might be detected in more than one spot simultaneously. Some see this as a reason to reconsider the idea of alternate universes interacting behind the scenes.

A research team led by Holger Hofmann at Hiroshima University in Japan has conducted an advanced measurement that provides direct evidence of light appearing in two separate paths.

14/05/2025 Conséquences climatiques de la disparition des grands herbivores.

Depuis des millions d’années, les grands herbivores façonnent nos paysages. Ils favorisent la biodiversité et maintiennent des processus écologiques vitaux. Est-ce à dire qu’ils ne risquent rien aujourd’hui dans le contexte de crise de la biodiversité qui affecte la Terre.

La réponse à cette question est éminemment importante. Car perdre les grands herbivores reviendrait à perdre des « ingénieurs écosystémiques » essentiels. Ce serait dramatique. Depuis des millions d’années, les grands herbivores façonnent nos paysages. Ils favorisent la biodiversité et maintiennent des processus écologiques vitaux. Est-ce à dire qu’ils ne risquent rien aujourd’hui dans le contexte de crise de la biodiversité qui affecte la Terre.

C’est pourquoi les chercheurs se sont mobilisés pour analyser les fossiles de plus de 3 000 grands herbivores sur 60 millions d’années. Dans la revue Nature, ils rapportent comment à deux reprises sur cette période, « la pression environnementale a été si forte que l’ensemble du système a subi une réorganisation mondiale ».

La première fois, c’était il y a environ 21 millions d’années, lorsque le mouvement des plaques tectoniques a formé un pont entre l’Afrique et d’Eurasie. Les éléphants qui avaient vu le jour en Afrique se sont aventurés sur les terres d’Asie. Des cerfs, des rhinocéros et d’autres grands herbivores ont investi de nouveaux territoires. Le tout en modifiant l’équilibre écologique établi, plus précisément en démultipliant la variété des rôles écologiques.

Puis, il y a quelque 10 millions d’années, le climat de la Terre s’est refroidi. Il s’est aussi asséché. Beaucoup d’herbivores forestiers ont alors disparu. Çeci a été le début d’un long déclin de la variété de leurs rôles écologiques.

Mais sur les 4,5 derniers millions d’années, les chercheurs assurent que la structure écologique globale des communautés de grands herbivores est restée étonnamment stable. À l’image d’une équipe de foot qui peut continuer à gagner même après avoir changé un, deux, trois, quatre ou même cinq de ses onze joueurs. Toutefois, quelque chose a fondamentalement changé récemment – à l’échelle de l’histoire de la vie sur Terre. Une nouvelle variable est apparue dans l’équation : l’humanité. Et avec elle, la destruction des habitats, le réchauffement climatique et la surexploitation.

« Nos résultats montrent que les écosystèmes ont une capacité d’adaptation exceptionnelle. Mais le rythme du changement est bien plus rapide cette fois-ci. Il y a une limite. Si nous continuons à perdre des espèces et des rôles écologiques, nous pourrions bientôt atteindre un troisième point de basculement mondial », assure Juan L. Cantalapiedra, chercheur au Musée national des sciences naturelles d’Espagne et auteur principal de l’étude, dans un communiqué de l’université de Göteborg.

Référence

nature

  • Published: 05 June 2025
Two major ecological shifts shaped 60 million years of ungulate faunal evolution
Abstract

The fossil record provides direct evidence for the behavior of biological systems over millions of years, offering a vital source for studying how ecosystems evolved and responded to major environmental changes. Using network analysis on a dataset of over 3000 fossil species spanning the past 60 Myr, we find that ungulate continental assemblages exhibit prolonged ecological stability interrupted by irreversible reorganizations associated with abiotic events. During the early Cenozoic, continental assemblages are dominated by mid-sized browsers with low-crowned teeth, which show increasing functional diversity. Around 21 Ma, the formation of a land bridge between Eurasia and Africa triggers the first major global transition towards a new functional system featuring a prevalence of large browsers with mid- to high-crowned molars. Functional diversity continues to increase, peaking around 10 Ma. Shortly after, aridification and the spread of C4-dominated vegetation lead to a second tipping point towards a fauna characterized by grazers and browsers with high and low crowned teeth. A global decline in ungulate functional diversity begins 10 Ma ago and accelerates around 2.5 Ma, yet the functional structure of these faunas remains stable in the latest Cenozoic. Large mammal evolutionary history reflects two key transitions, aligning with major tectonic and climatic events.

14/06/2025 Le bit classique et le bit quantique ou qubit

Un bit quantique ou qubit à l’interet de pouvoir représenter une infinité de valeurs entre zéro et un. Ce n’est pas le cas de son homoloque le bit classique qui dans un calcul ne peu représenter que l’une de ces deux valeurs à l’exclusion de l’autre.
Wikipedia

Un qubit possède deux états de base (vecteurs propres), nommés par convention, et par analogie avec le bit classique, | 0 ⟩ et | 1 ⟩ (prononcés : ket 0 et ket 1). Alors qu’un bit classique est numérique et a toujours pour valeur soit 0 soit 1, l’état d’un qubit est une superposition quantique linéaire de ses deux états de base, et s’écrit comme la combinaison : α ⋅ | 0 ⟩ + β ⋅ | 1 ⟩ , où α et β sont des coefficients complexes pouvant prendre toutes les valeurs possibles à condition de respecter la relation de normalisation (qui assure que le qubit est entièrement présent) : | α | 2 + | β | 2 = 1 [2]. Dans le formalisme quantique, α et β représentent des amplitudes de probabilité et englobent un facteur de phase relative à l’origine de phénomènes d’interférences.

Si ces coefficients étaient des nombres réels ordinaires, l’état serait descriptible par une position sur un cercle de rayon 1, et de coordonnées cartésiennes (cos θ {\displaystyle \theta }, sin θ {\displaystyle \theta }), pour vérifier la relation | α | 2 + | β | 2 = 1 {\displaystyle |\alpha |^{2}+|\beta |^{2}=1}. α {\displaystyle \alpha } et β {\displaystyle \beta } sont deux nombres complexes, mais on peut choisir la phase (arbitraire) de la fonction d’onde de telle façon que α {\displaystyle \alpha } soit un nombre réel positif, et l’état du qubit se traduit donc par une position non sur un cercle, mais sur la sphère de Bloch (voir figure) de rayon 1, autrement dit par un vecteur dans un espace de Hilbert de dimension 2[2].

En théorie, on peut alors transmettre une infinité d’informations avec un qubit en mettant l’information dans l’angle de polarisation d’un qubit, cet angle étant réel. Cependant on ne peut pas récupérer cette information lors de la lecture.

Plusieurs qubits indépendants seraient à peine plus intéressants qu’un nombre identique de bits classiques. En revanche, en vertu du principe de superposition, lorsque des qubits se superposent et interfèrent, ils le font simultanément suivant toutes les combinaisons linéaires possibles de leurs états. En conséquence, l’espace de Hilbert associé à un système de n qubits correspond au produit tensoriel des espaces de Hilbert de chacun des n qubits ; il est donc au minimum de dimension 2 n {\displaystyle 2^{n}}.

Une mémoire à qubits diffère significativement d’une mémoire classique[3].

13/06/2025 La réduction du paquet d’ondes

Le concept de réduction du paquet d’onde implique de nombreuses difficultés sur le plan logique et épistémologique. Existe-t-il une réalité objective, autrement dit définie en dehors de toute observation? La question est soulevée parce que la théorie suggère que ce que nous considérons comme la « réalité » possède une infinité théorique d’états quand elle n’est pas « observée », plus exactement perturbée par une mesure.

Par contre la mesure provoque une réduction de l’équation de Schrödinger, qualifiée de décohérence quantique. Elle permet alors de la situer dans le temps et dans l’espace. La question philosophique de la réalité est soulevée du fait que la théorie suggère que ce que nous considérons comme la « réalité » possède une infinité théorique d’états quand elle n’est pas « observée » (plus exactement perturbée par une mesure, provoquant une décohérence quantique).

Différentes interprétations

Dès les débuts de la mécanique quantique, différentes interprétations ont été proposées pour tenir compte de ce paradoxe. L’une a été introduite par Schrödinger, remettant en question le concept d’objectivité de la mesure avec son paradoxe dit du chat de Schrödinger, à la fois mort et vivant.

D’autres physiciens, dont Albert Einstein, ont proposé l’existence de variables cachées. Des expériences avaient été proposées, notamment par John Bell pour montrer comment on pourrait vérifier la possibilité ou l’impossibilité d’existence de telles variables; À la fin du XXe siècle, Alain Aspect réalisa ces expériences, ce qui aboutit à infirmer l’existence de ces variables cachées (locales).

L’interprétation la plus répandue est celle dite de l’École de Copenhague. Pour ses partisans, les postulats de la physique, en l’espèce ceux de la mécanique quantique, n’ont aucun sens métaphysique : ils ne décrivent pas l’univers. Ils sont purement formels et opératoires. Ils se limitent à proposer des opérations lesquelles, que la réponse soit positive ou ne le soit pas, ne permettront pas d’en déduire une réalité sous-jacente. Il s’agit d’une impossibilité radicale, liée à l’absence de lien physique entre les postulats et la réalité, et non d’une « simple » ignorance qui pourrait être comblée à l’intérieur du cadre de la mécanique quantique actuelle. La mécanique quantique est parfaitement valide dès maintenant, dans la mesure où elle est appliquée aux nombreux cas pratiques dans lesquels elle sert d’outil indispensable, mais il ne faut par chercher à savoir si elle se réfère à un monde objectif sous-jacent;. « Calcule et tais-toi » comme il a été dit.

Il reste que, dans cette interprétation, le concept d’observateur suppose non seulement un instrument d’observation mais le cerveau d’un observateur, capable de construire avec l’entité observé ce que Mioara Mugur-Schaechter a nommé une « conceptualisation relativisée. On ne voit pas ce qui joue le rôle du cerveau et de cet observateur en l’absence d’êtres vivants.

D’autres interprétations ont été proposées pour tenir compte de l’apparent indéterminisme de la mécanique quantique. L’une est la théorie d’Everett, appelée aussi théorie des états relatifs, ou encore théorie des mondes multiples. Pour celle-ci, dans le cas du paradoxe du chat de Schrödinger , chaque évènement est une bifurcation. Le chat est à la fois mort et vivant, avant même l’ouverture de la boite, mais le chat mort et le chat vivant existent dans des bifurcations différentes de l’univers, qui sont tout aussi réelles l’une que l’autre. Il n’a jamais été possible, comme on le devine, de vérifier expérimentalement cette interprétation, mais dans l’hypothèse cosmologique dite des multivers, elle est toujours prise en considération.

Le collapse objectif

La théorie de « l’objective collapse » ou collapse objectif propose d’expliquer différemment les paradoxes de l’indéterminisme. Dite aussi quantum mechanical spontaneous localization models (QMSL) elle est réaliste, indéterministe et rejette l’hypothèse des variables cachées. Elle diffère cependant de l’interprétation de Copenhague, en ce sens qu’elle considère que la fonction d’onde est réelle, qu’elle possède une dimension « ontologique ». Elle correspondrait à une fonction mathématique bien définie. Mais celle-ci ne s’effondrerait qu’au hasard ((« spontaneous localization »), ou pour des raisons purement physiques, sans que l’observateur ait le moindre rôle à y jouer. Les exemples les plus connus de cette de cette interprétation sont la théorie dite de Ghirardi–Rimini–Weber (GRW) et l’interprétation dite de Penrose (voir références ci-dessous).

Le concept de réduction du paquet d’onde implique de nombreuses difficultés sur le plan logique et épistémologique. Existe-t-il une réalité objective, autrement dit définie en dehors de toute observation? La question est soulevée parce que la théorie suggère que ce que nous considérons comme la « réalité » possède une infinité théorique d’états quand elle n’est pas « observée », plus exactement perturbée par une mesure.

Par contre la mesure provoque une réduction de l’équation de Schrödinger, qualifiée de décohérence quantique. Elle permet alors de la situer dans le temps et dans l’espace. La question philosophique de la réalité est soulevée du fait que la théorie suggère que ce que nous considérons comme la « réalité » possède une infinité théorique d’états quand elle n’est pas « observée » (plus exactement perturbée par une mesure, provoquant une décohérence quantique).

Différentes interprétations

Dès les débuts de la mécanique quantique, différentes interprétations ont été proposées pour tenir compte de ce paradoxe. L’une a été introduite par Schrödinger, remettant en question le concept d’objectivité de la mesure avec son paradoxe dit du chat de Schrödinger, à la fois mort et vivant.

D’autres physiciens, dont Albert Einstein, ont proposé l’existence de variables cachées. Des expériences avaient été proposées, notamment par John Bell pour montrer comment on pourrait vérifier la possibilité ou l’impossibilité d’existence de telles variables; À la fin du XXe siècle, Alain Aspect réalisa ces expériences, ce qui aboutit à infirmer l’existence de ces variables cachées (locales).

L’interprétation la plus répandue est celle dite de l’École de Copenhague. Pour ses partisans, les postulats de la physique, en l’espèce ceux de la mécanique quantique, n’ont aucun sens métaphysique : ils ne décrivent pas l’univers. Ils sont purement formels et opératoires. Ils se limitent à proposer des opérations lesquelles, que la réponse soit positive ou ne le soit pas, ne permettront pas d’en déduire une réalité sous-jacente. Il s’agit d’une impossibilité radicale, liée à l’absence de lien physique entre les postulats et la réalité, et non d’une « simple » ignorance qui pourrait être comblée à l’intérieur du cadre de la mécanique quantique actuelle. La mécanique quantique est parfaitement valide dès maintenant, dans la mesure où elle est appliquée aux nombreux cas pratiques dans lesquels elle sert d’outil indispensable, mais il ne faut par chercher à savoir si elle se réfère à un monde objectif sous-jacent;. « Calcule et tais-toi » comme il a été dit.

Il reste que, dans cette interprétation, le concept d’observateur suppose non seulement un instrument d’observation mais le cerveau d’un observateur, capable de construire avec l’entité observé ce que Mioara Mugur-Schaechter a nommé une « conceptualisation relativisée. On ne voit pas ce qui joue le rôle du cerveau et de cet observateur en l’absence d’êtres vivants.

D’autres interprétations ont été proposées pour tenir compte de l’apparent indéterminisme de la mécanique quantique. L’une est la théorie d’Everett, appelée aussi théorie des états relatifs, ou encore théorie des mondes multiples. Pour celle-ci, dans le cas du paradoxe du chat de Schrödinger , chaque évènement est une bifurcation. Le chat est à la fois mort et vivant, avant même l’ouverture de la boite, mais le chat mort et le chat vivant existent dans des bifurcations différentes de l’univers, qui sont tout aussi réelles l’une que l’autre. Il n’a jamais été possible, comme on le devine, de vérifier expérimentalement cette interprétation, mais dans l’hypothèse cosmologique dite des multivers, elle est toujours prise en considération.

Le collapse objectif

La théorie de « l’objective collapse » ou collapse objectif propose d’expliquer différemment les paradoxes de l’indéterminisme. Dite aussi quantum mechanical spontaneous localization models (QMSL) elle est réaliste, indéterministe et rejette l’hypothèse des variables cachées. Elle diffère cependant de l’interprétation de Copenhague, en ce sens qu’elle considère que la fonction d’onde est réelle, qu’elle possède une dimension « ontologique ». Elle correspondrait à une fonction mathématique bien définie. Mais celle-ci ne s’effondrerait qu’au hasard ((« spontaneous localization »), ou pour des raisons purement physiques, sans que l’obervateur ait le moindre rôle à y jouer. Les exemples les plus connus de cette de cette interprétation sont la théorie dite de Ghirardi–Rimini–Weber (GRW) et l’interprétation dite de Penrose (voir références ci-dessous).

L’expérience des Fentes de Young, ou écran à double fente, n’a jamais été remise en cause. Elle illustre la dualité onde-particule : les interférences observées sur l’écran (c’est-à-dire sur un système d’observation conçu par un observateur, Young à l’origine), montrent que la lumière présente un comportement ondulatoire, mais la façon dont les photons sont détectés (impact sur un écran) montre aussi leur comportement particulaire. Avec non plus des photons, mais des particules en ensembles de particules de matière, électrons, neutrons, atomes, molécules, on observe également des interférences. Ce qui démontre les concernant la dualité onde-particule. La matière présente un comportement ondulatoire, mais dans le même temps leur observation (impact sur un écran) prouve leur comportement particulaire.

Peut-on échapper à cette alternative? La nouvelle modalité de la théorie quantique standard, proposée dans les années soixante, dite du « collapse objectif » semblait le confirmer. Elle permettrait selon les théoriciens non seulement d’évacuer le problème insoluble de l’observateur, mais de mieux préciser des questions encore mystérieuses en cosmologie, comme celles des trous noirs et l’énergie noire, supposée responsable de l’expansion actuelle de l’univers.

La théorie fait l’hypothèse que la fonction d’onde, entité mathématique proposée par Erwin Schrödinger, comme indiqué ci-dessus, pour décrire la particule en termes probabiliste, c’est-à-dire inapplicable pour définir une particule isolée, soit au contraire une réalité existant dans la nature, et pas seulement dans les modèles mathématiques. L’état de la particule ne dépendrait donc pas de l’observation. Autrement dit, le chat de Schrödinger serait simultanément mort ou vivant, qu’il soit observé ou non. L’équation de Schrödinger serait donc applicable à une particule isolée (ou à ce qui dans le monde qantique correspond à ce que l’on nomme une particule isolée)

Récemment, sur ces sujets le physicien théoricien Daniel Sudarsky de l’Université de Mexico (voir référence) a depuis quelques années proposé des approches très intéressantes. Il a voulu selon ses propres termes décrire l’univers tel qu’il était il y a 13 milliards d’années, à une époque où n’existait nulle conscience pour observer les particules dont il était fait.
L’expérience des Fentes de Young, ou écran à double fente, n’a jamais été remise en cause. Elle illustre la dualité onde-particule : les interférences observées sur l’écran (c’est-à-dire sur un système d’observation conçu par un observateur, Young à l’origine), montrent que la lumière présente un comportement ondulatoire, mais la façon dont les photons sont détectés (impact sur un écran) montre aussi leur comportement particulaire. Avec non plus des photons, mais des particules en ensembles de particules de matière, électrons, neutrons, atomes, molécules, on observe également des interférences. Ce qui démontre les concernant la dualité onde-particule. La matière présente un comportement ondulatoire, mais dans le même temps leur observation (impact sur un écran) prouve leur comportement particulaire.

Peut-on échapper à cette alternative? La nouvelle modalité de la théorie quantique standard, proposée dans les années soixante, dite du « collapse objectif » semblait le confirmer. Elle permettrait selon les théoriciens non seulement d’évacuer le problème insoluble de l’observateur, mais de mieux préciser des questions encore mystérieuses en cosmologie, comme celles des trous noirs et l’énergie noire, supposée responsable de l’expansion actuelle de l’univers.

La théorie fait l’hypothèse que la fonction d’onde, entité mathématique proposée par Erwin Schrödinger, comme indiqué ci-dessus, pour décrire la particule en termes probabiliste, c’est-à-dire inapplicable pour définir une particule isolée, soit au contraire une réalité existant dans la nature, et pas seulement dans les modèles mathématiques. L’état de la particule ne dépendrait donc pas de l’observation. Autrement dit, le chat de Schrödinger serait simultanément mort ou vivant, qu’il soit observé ou non. L’équation de Schrödinger serait donc applicable à une particule isolée (ou à ce qui dans le monde qantique correspond à ce que l’on nomme une particule isolée)

Récemment, sur ces sujets le physicien théoricien Daniel Sudarsky de l’Université de Mexico (voir référence) a depuis quelques années proposé des approches très intéressantes. Il a voulu selon ses propres termes décrire l’univers tel qu’il était il y a 13 milliards d’années, à une époque où n’existait nulle conscience pour observer les particules dont il était fait.

12/06/2025 La signification du vide quantiquecantiquebit

Un bit quantique ou qubit à l’intérêt de pouvoir représenter une infinité de valeurs entre zéro et un. Ce n’est pas le cas de son homologue le bit classique. qui ne peut dans un calcul représenter que le zéro ou le 1, l’une de ces deux valeurs à l’exclusion de l’autre.

Mais comment dans un calcul impliquant un bit quantique savoir à quelle réalité se réfère ce qubit. S’agirait-il d’une réalité infinie? Dans ce cas, comment l’utiliser dans un calcul qui pour nous devra nécessairement donner un résultat fini, c’est-à-dire bien déterminé?

En fait les calculs quantiques ne renvoient pas à des réalités finies, c’est-à-dire vérifiables par l’expérimentation dans notre vie quotidienne ou en laboratoire. Comme l’avait observé un physicien  » de nouvelles interprétations de la réalité quantique apparaissent tous les jours, aucune ne disparait. »

Cependant depuis 10 ans environ, la théorie quantique a commencé à produire des descriptions de la réalité qui étaient vérifiables. Par ailleurs les physiciens ont découvert de nouvelles méthodes pour tester la validité de leurs observations

Une nouvelle étude sur la théorie quantique a montré qu’elle était la seule à pouvoir expliquer des prévisions de l’observation expérimentale et non de simples probabilités Par ailleurs la Dr Magdala Sych de l’université de Stockholm étudie avec d’autres chercheurs les relations de la physique quantique avec la Relativité Générale, en mettant l’accent sur les relations de température et de thermalisation qui sont à la source des deux théories .

La thermalisation est un processus observé en physique. D’une façon générale, la notion de température est liée à celle d’équilibre thermodynamique, sachant que les systèmes que l’on considère dans tous les domaines sont plus ou moins en déséquilibre.

(à suivre)

10/06/2025. Le programme PROOCIMA (présentation)

Au regard des enjeux de croissance économique et de souveraineté, et à l’instar des principales grandes puissances mondiales, le président de la République avait lancé, en janvier 2021, une stratégie nationale ambitieuse en France sur les technologies quantiques pour un engagement global public-privé de 1,8 Md€, sur quatre ans, dont 1Md€ financé par l’Etat.

Le 6 mars 2024, lors d’une journée réunissant à la Bibliothèque nationale de France, Sébastien Lecornu, ministre des Armées, représenté par le Délégué général pour l’armement, Sylvie Retailleau, ministre de l’Enseignement supérieur et de la Recherche, Franck Riester, ministre chargé du Commerce extérieur, de l’Attractivité, de la Francophonie et des Français de l’étranger, et Marina Ferrari, Secrétaire d’État chargée du numérique avec Bruno Bonnell, secrétaire général pour l’investissement, ont été présentés les résultats concrets de la stratégie nationale quantique

A cette occasion, le lancement du programme PROQCIMA a été annoncé. PROQCIMA vise à disposer de deux prototypes d’ordinateurs quantiques universels de conception française à horizon 2032.

Cette politique s’articule autour de 5 objectifs stratégiques :

  • Développer les technologies et usages du calcul quantique
  • Maitriser les technologies de capteurs quantiques
  • Développer et diffuser la cryptographie post quantique
  • Développer les technologies de communications quantiques
  • Maitriser les technologies habilitantes du quantique

La deuxième révolution quantique en cours depuis la fin du XXe siècle permettra de décupler nos capacités de calcul en rendant accessibles des calculs aujourd’hui impossibles, de percevoir notre environnement avec une précision jamais égalée et d’explorer de nouvelles manières de transmettre l’information. Ces technologies permettront, en outre, de naviguer avec précision dans des endroits où le réseau GPS n’est pas accessible, ou encore de rendre les IRM (Imagerie par Résonnance Magnétique Nucléaire) embarquables. Elle va également accélérer la recherche médicale et la découverte de nouveaux matériaux aux propriétés exceptionnelles.

Faire de la France un leader en technologies quantiques

La France a vocation à devenir le centre de gravité de l’industrie quantique mondiale. Cela passe par le renforcement de l’attractivité de la filière quantique française (formation et enrichissement du secteur de 5000 nouveaux spécialistes) ainsi que par l’impératif d’accompagner à l’export tous les produits et services de cette filière innovante.

D’après les estimations du gouvernement, les startups quantiques ont levé plus de 350 millions d’euros, ce qui fait de la France le premier pays européen en termes de levées de fonds et le troisième au niveau mondial derrière les Etats-Unis et le Canada.

Les startups et PME françaises de la filière quantique sont également en deuxième position à l’international en termes d’attractivité des talents. Ceci est notamment le fruit de la « Stratégie talent », lancée en 2021 par le gouvernement, qui a facilité, pour les experts du quantique, les procédures administratives, l’obtention de visas, et leur intégration au sein de notre écosystème de startups.

Elles représentent 20% des parts de marché mondial, faisant de la France l’un des premiers fabricants et exportateurs dans le domaine. En lien avec le programme French Tech 2030, l’Etat veillera à consolider cette présence à l’international, par un accompagnement sur mesure de toutes les pépites françaises du quantique.

La stratégie quantique en chiffres :

  • + 1,065 milliard d’euros d’investissements publics, dont France 2030
  • +80 projets soutenus
  • 350 qubits utiles déjà atteint, 2000 qubits utiles d’ici 2 ans
  • 100-200 qubits logiques d’ici la fin de la décennie
  • Premier système d’interconnexion full-stack d’ici la fin de la décennie

Commentaire

Le Gouvernement lance le programme PROQCIMA, inspiré du programme ULTRA (lancé par les Britanniques pendant le Seconde guerre mondiale) à l’ère de l’informatique quantique. L’objectif de ce programme est de disposer en 2032 d’au moins deux prototypes d’ordinateurs quantiques universels avec 128 qubits logiques étendus à 2048 qubits logiques en 2035.

La France est l’un des rares pays à l’échelle mondiale à disposer d’un socle de compétences en recherche amont et technologique, ainsi que de l’outil industriel adéquat permettant d’explorer sérieusement la faisabilité d’un ordinateur quantique FTQC (« Fault Tolerant Quantum Computer »).

La mise en place en France d’un programme de développement d’un ordinateur quantique universel passant à l’échelle fait face, malgré la présence de laboratoires de recherche et d’entreprises à la pointe sur le sujet, à des difficultés majeures en raison des incertitudes scientifiques, technologiques et industrielles qui restent élevées : d’une part il est prématuré de faire un choix technologique irréversible entre les différentes options envisagées et d’autre part il est nécessaire d’investir massivement dans la R&D pour espérer lever les différents verrous..

Pour faire face à ces difficultés et maximiser les chances de parvenir au succès, le programme PROQCIMA a été structuré sous la forme d’un partenariat d’innovation qui organise une compétition entre les différentes entreprises avec une sélection progressive des compétiteurs les plus performants.

Le programme se divise en phases : une phase « examen » pour mesurer les progrès réalisés, suivie d’une phase « concours » pour ne garder que les solutions les plus prometteuses.

Le programme commence avec cinq compétiteurs et dès la fin de la première étape, ce nombre sera réduit à trois, c’est-à-dire que seuls les trois acteurs les plus performants continueront le programme au-delà de quatre ans.

A huit ans, la compétition se limitera aux deux technologies les plus performantes qui poursuivront le programme jusqu’à son terme. La Direction générale de l’armement sera, avec le Secrétariat général pour l’investissement, en charge du pilotage du programme.