L’Univers est-il un ordinateur quantique ? Plongée à l’échelle de Planck

Publié par Varenza Ghaisandra, le 18 janvier 2026   9.8k

Et si l’Univers n’était pas un simple contenant physique, mais un gigantesque processeur d’information ? En explorant les hypothèses audacieuses de la gravité quantique, nous découvrons une réalité où l’espace-temps se compose de qubits et où les lois de la physique ne sont peut-être que des fonctions booléennes en cours d’exécution.


L’espace-temps à l’échelle de Planck : une trame de pixels

Au cœur de la physique théorique moderne, une idée fascinante émerge : à l’échelle infiniment petite de Planck (10^-35 mètres), l’espace-temps perd sa fluidité apparente pour devenir discret et granulaire. Selon les travaux de la physicienne Paola Zizzi, cette « pré-géométrie » pourrait être envisagée comme un réseau de pixels élémentaires.

Dans ce modèle, chaque « pixel » d’espace-temps n’est pas une unité inerte, mais un qubit (bit quantique) qui encode de l’information. Nous ne parlons plus ici de géométrie classique, mais d’une structure où l’information est la substance même de la réalité.

C’est ici que naît le concept vertigineux d’un Univers comme registre quantique massif, capable de stocker et de traiter les données fondamentales de la réalité.

La dynamique de l’Univers : un algorithme unitaire

Si l’espace-temps est un registre d’information, son évolution dans le temps peut être vue comme un calcul. En utilisant le formalisme de l’informatique quantique, les lois fondamentales de la physique deviennent un réseau de portes logiques unitaires.

L’évolution de l’Univers serait alors un processus réversible où l’espace-temps se trouve dans un état d’intrication quantique généralisée. Cette non-localité à l’échelle de Planck fait disparaître l’identité individuelle des pixels pour former un tout cohérent, évoquant l’interprétation des « mondes multiples » (Many-Worlds). Grâce au parallélisme quantique, l’Univers « calcule » simultanément une infinité de configurations possibles.

Réseaux de spins et principe holographique

Pour représenter cette structure abstraite, la Gravité Quantique à Boucles (LQG) propose un outil puissant : les réseaux de spins. Ce sont des graphes dont les arêtes portent des valeurs de spin définissant la géométrie quantique de l’espace.

En associant ces réseaux à des qubits (où un spin 1/2 représente les états logiques de base), on retrouve notre modèle computationnel. Le principe holographique renforce cette vision : il postule que l’information contenue dans un volume peut être décrite par sa surface limite. Ainsi, l’horizon cosmologique pourrait être vu comme une surface de 10^120 pixels de Planck, chacun encodant un qubit.

L’Univers macroscopique que nous percevons ne serait que la « sortie » (output) à grande échelle d’un calcul d’une complexité inimaginable, exécuté dans le monde discret de l’infiniment petit.

La physique comme langage booléen

Dans ce paradigme, les lois de la physique ne sont plus des équations figées, mais des fonctions booléennes quantiques émergentes. Le hasard apparent de la mécanique quantique — le résultat d’une mesure, découlerait de la nature probabiliste de la sortie de cet algorithme universel.

Plus fascinant encore, cette approche suggère que nous sommes « ancrés dans le code » : des sous-programmes conscients de l’exécution globale, mais incapables d’en percevoir la totalité. L’interaction entre les multiples histoires possibles de l’Univers devient alors un « Grand Jeu Quantique » dont nous serions les joueurs involontaires.

les pionniers de l’ordinateur quantique

L’ordinateur quantique n’est pas né d’un claquement de doigts ou d’un caprice de la Silicon Valley. Il s’inscrit dans la continuité d’un demi-siècle de recherches menées par des esprits audacieux, prêts à bousculer la frontière entre le possible et l’impossible. Dès les années 1980, des physiciens comme Richard Feynman et David Deutsch ont imaginé des machines capables de résoudre des énigmes mathématiques et physiques qui échappaient aux ordinateurs classiques, en puisant dans la richesse de la mécanique quantique.

Sommaire

Les origines de l’informatique quantiqueLes pionniers et leurs contributionsLes chercheurs français en pointeLes institutions et leurs chercheursLes contributions internationalesLes avancées technologiques majeuresLes initiatives européennesLes défis et perspectives futuresLes obstacles majeursLes opportunités économiquesLes collaborations internationales

Depuis, le monde scientifique a vu affluer de multiples équipes de recherche, chacune apportant sa pierre à cet édifice vertigineux. Des entreprises telles qu’IBM, Google ou D-Wave n’ont pas tardé à proposer les premiers prototypes opérationnels, faisant passer l’ordinateur quantique du mythe à la réalité tangible. Cette nouvelle forme de calcul promet des avancées inédites dans des secteurs comme la cryptographie, la chimie ou l’intelligence artificielle, ouvrant sur des perspectives aussi vertigineuses qu’imprévisibles.

Vous pourriez aimer : Ce que vous pouvez faire sur un ordinateur portable et que vous ne saviez probablement pas

Les origines de l’informatique quantique

L’informatique quantique s’enracine dans les intuitions de plusieurs scientifiques hors-normes. Prenons Paul Benioff : en 1981, il pose les bases théoriques de l’ordinateur quantique, ouvrant un nouveau chapitre où la physique rejoint l’informatique. Peu après, Richard Feynman, figure majeure du XXe siècle, imagine les simulateurs quantiques capables de modéliser des systèmes tellement complexes qu’aucun ordinateur classique ne pourrait les appréhender. Ce concept deviendra le socle de l’informatique quantique moderne.

En 1985, David Deutsch va plus loin : il démontre la faisabilité de l’ordinateur quantique universel, capable de résoudre n’importe quel problème calculable, là où les machines classiques atteignent leurs limites. Bien avant eux, Alan Turing et Alonzo Church, avec la machine de Turing et le lambda calcul, ont façonné l’ossature même de l’informatique. Pour clarifier le rôle de chacun, voici les contributions clés qui ont jalonné cette histoire :

À découvrir également : Mécanique quantique : Decouvrez ses incroyables mystères !

  • Paul Benioff : a montré la possibilité théorique de l’ordinateur quantique (1981).
  • Richard Feynman : a posé le concept des simulateurs quantiques (1982).
  • David Deutsch : a validé le principe de l’ordinateur quantique universel (1985).
  • Alan Turing : a proposé la machine de Turing (1936).
  • Alonzo Church : a introduit le lambda calcul.

Chacun de ces jalons n’a pas seulement ouvert la voie sur le plan théorique : ils ont inspiré des générations de chercheurs, renforçant l’idée que la mécanique quantique pouvait transformer notre rapport à l’information. L’évolution de ces idées témoigne d’une aventure scientifique où audace et collaboration s’entremêlent.

Les pionniers et leurs contributions

Impossible d’évoquer l’informatique quantique sans mentionner ceux qui, par leurs travaux, ont fait avancer le domaine à pas de géant. Peter Shor, notamment, a conçu un algorithme révolutionnaire capable de factoriser des nombres entiers avec une rapidité déconcertante, bouleversant la sécurité des systèmes cryptographiques traditionnels.

Les chercheurs français en pointe

La France tient sa place dans cette course. Parmi les figures qui marquent le paysage, Théau Peronnin et Raphaël Lescanne, cofondateurs de la jeune pousse Alice & Bob, visent un objectif précis : bâtir un ordinateur quantique réellement exploitable. Leur singularité ? Travailler sur des qubits corrigés d’erreurs, une approche qui pourrait accélérer la mise sur le marché de machines fiables et robustes.

Les institutions et leurs chercheurs

Dans les laboratoires, quelques noms retiennent l’attention. Tristan Meunier, à l’Institut Néel de Grenoble, se concentre sur les qubits supraconducteurs. À Londres, Peter Knight mène d’importantes recherches sur les systèmes quantiques à l’Imperial College. Ces acteurs donnent le tempo de la recherche européenne.

Les contributions internationales

Outre-Atlantique, John Preskill du Caltech s’impose comme l’un des piliers de l’étude de la décohérence et de la correction des erreurs quantiques. Il est aussi l’auteur de l’expression « suprématie quantique », ce jalon symbolique où l’ordinateur quantique dépasse son homologue classique. À cela s’ajoutent des initiatives françaises : Adeline Roux-Langlois du CNRS et Pierre Loidreau de la DGA incarnent le lien entre recherche fondamentale et applications stratégiques. Florence Parly, ministre des Armées, rappelle quant à elle l’importance des enjeux nationaux et gouvernementaux autour de ces technologies.

Les avancées technologiques majeures

L’évolution des ordinateurs quantiques se mesure aussi à l’aune de percées matérielles impressionnantes. IBM, en 1998, dévoile un tout premier prototype à 2 qubits, marquant le coup d’envoi d’une nouvelle ère. Depuis, plusieurs entreprises se sont illustrées par leurs avancées. Voici quelques jalons majeurs à retenir :

  • D-Wave Systems : Présentation d’« Orion », premier ordinateur quantique adiabatique à 16 qubits en 2007.
  • Google : Dévoilement de « Bristlecone », un processeur de 72 qubits, en 2018.
  • Intel : Confirmation la même année du développement de « Tangle Lake », une puce de test supraconductrice de 49 qubits.
  • Alice & Bob : Levée de 100 millions d’euros en 2021 pour accélérer la construction d’un ordinateur quantique utilisable à grande échelle.

Les initiatives européennes

En Europe, l’innovation se poursuit. La société Pasqal se distingue dans la fabrication d’ordinateurs quantiques tandis que Multiverse Computing, spécialisée dans les algorithmes inspirés du quantique, ouvre de nouvelles perspectives pour le secteur financier.

La compétition mondiale pour la suprématie quantique s’intensifie à mesure que des géants comme IBM, Google et Intel multiplient les annonces. En France, des start-ups telles qu’Alice & Bob et Pasqal, portées par des financements ambitieux, injectent un dynamisme salutaire dans cet écosystème hautement technologique.

Chaque acteur développe ses propres approches, tentant de résoudre les défis inhérents au calcul quantique. Si la route vers l’ordinateur quantique universel reste longue, chaque progrès réalisé rapproche ce rêve d’une application concrète.

ordinateur quantique

Les défis et perspectives futures

Malgré l’enthousiasme, le calcul quantique doit affronter des obstacles scientifiques de taille. Plusieurs grands groupes industriels s’investissent dans la recherche appliquée, cherchant à tirer parti des promesses de la technologie :

  • Airbus mène des expérimentations sur l’informatique quantique depuis huit ans.
  • TotalEnergies et EDF ont chacun instauré des programmes de recherche dédiés depuis cinq ans.
  • Crédit Agricole et CACIB ont lancé des initiatives similaires pour explorer ces nouveaux horizons.

Les obstacles majeurs

La gestion de l’intrication quantique et la correction des erreurs restent le talon d’Achille de cette technologie. Les qubits, encore instables, sont très sensibles à leur environnement. La création de codes correcteurs d’erreurs efficaces devient donc une priorité pour garantir des calculs fiables et reproductibles.

Les opportunités économiques

Les applications potentielles du calcul quantique dessinent des perspectives enthousiasmantes. Les domaines de l’énergie, de la finance ou des transports entrevoient des gains d’efficacité qui pourraient bouleverser la donne. Quant au machine learning quantique et à l’intelligence artificielle, ils ouvrent la porte à des usages encore insoupçonnés.

Les collaborations internationales

Pour avancer, le secteur mise sur l’échange et la coopération. Les alliances entre entreprises et centres de recherche accélèrent la progression, tout comme les partenariats public-privé déjà en place. Le partage des ressources et des savoirs devient un accélérateur puissant, orientant l’innovation collective vers la concrétisation de la suprématie quantique.

À mesure que la frontière entre science et industrie s’estompe, l’ordinateur quantique s’impose comme le terrain de jeu des esprits les plus audacieux. Demain, il ne s’agira plus seulement d’en parler : il faudra compter avec lui.

Du neanderal a l’homo

Du Neanderthal à l’homo

La longueur des segments d’ADN d’ascendance néandertalienne qui sont présents dans le génome des hommes modernes a fourni des indices sur le moment et la durée du flux génique, c’est-à-dire du passage de gènes des Néandertaliens aux hommes modernes. Compte tenu du fait que ces segments raccourcissent un peu à chaque génération en raison des recombinaisons du matériel génétique lors de la fécondation, les chercheurs ont déterminé que le flux génique aurait perduré pendant près de 7000 ans et serait survenu il y a entre 50 000 et 43 500 ans. Ce qui concorde avec les preuves archéologiques recueillies de la cohabitation d’Homo sapiens et d’Homo neanderthalensis en Europe.

Et si l’univers etait simple 14/3/2006

Et si l’Univers était simple ? Une nouvelle théorie quantique que le physicien Brian Cox trouve « exaltante »

Auteur: Mathieu Gagnon

2025-11-26 08:59:49

Le grand casse-tête de la physique moderne

credit : lanature.ca (image IA)

On a deux théories incroyables qui décrivent le monde. D’un côté, la mécanique quantique, qui explique le monde de l’infiniment petit, celui des particules. De l’autre, la relativité générale d’Einstein, qui nous parle de la gravité et de l’infiniment grand, comme les planètes et les galaxies. Chacune a été prouvée maintes et maintes fois. Le problème ? Elles ne s’entendent pas du tout. C’est un peu comme avoir deux manuels d’instructions géniaux, mais qui se contredisent.

Ce désaccord devient un vrai problème quand on regarde des objets extrêmes, comme les trous noirs ou le Big Bang. Là, les deux théories devraient fonctionner ensemble, mais c’est la pagaille. C’est pour ça que les physiciens du monde entier cherchent désespérément une « théorie du tout » qui pourrait enfin les réconcilier.

La quête du Graal : les grandes théories en lice

credit : lanature.ca (image IA)

Dans cette recherche, il y a quelques grandes pistes. Vous avez peut-être entendu parler de la théorie des cordes. L’idée, c’est que les particules les plus fondamentales ne sont pas des points, mais plutôt de minuscules cordes qui vibrent. La façon dont elles vibrent donnerait à chaque particule ses propriétés. C’est une image assez poétique, je trouve.

Une autre concurrente s’appelle la gravité quantique à boucles. Elle, elle imagine que l’espace n’est pas lisse et continu, mais qu’il est fait de tout petits morceaux indivisibles, des sortes d’atomes d’espace, qui s’assemblent pour former des boucles. Il y a plein d’autres idées, parfois très originales, comme celle où la gravité viendrait de l’entropie, c’est-à-dire du désordre. Bref, ça bouillonne d’idées, toutes basées sur des maths incroyablement complexes.

Une nouvelle idée qui bouscule tout

credit : lanature.ca (image IA)

Et c’est là qu’arrive ce nouvel article, qui n’a pas encore été validé par d’autres scientifiques mais qui fait déjà beaucoup de bruit. Écrit par une équipe du prestigieux MIT, il s’attaque à un concept mathématique appelé « l’espace de Hilbert ». Pour faire simple, c’est une façon de prolonger notre géométrie en 3D à un nombre infini de dimensions. Oui, ça donne le vertige.

Les chercheurs ont appliqué cet outil à un univers « fermé », c’est-à-dire un univers qui pourrait un jour finir par s’effondrer sur lui-même dans un « Big Crunch ». Et là, ils ont découvert quelque chose de totalement inattendu.

L’univers en une seule dimension ?

credit : lanature.ca (image IA)

Leur calcul montre que cet espace de Hilbert, avec toutes ses dimensions infinies, se réduit à… une seule dimension quand on parle de gravité quantique dans un univers fermé. C’est fou, non ? Une seule dimension. Pensez à une simple ligne droite.

La conséquence est énorme et assez philosophique : un tel univers ne peut pas avoir d’observateur extérieur. Personne ne peut le regarder « de dehors ». S’il est si simple, c’est peut-être nous, les observateurs à l’intérieur, qui créons l’illusion de la complexité. En fait, l’univers serait simple, et c’est nous qui serions compliqués.


Le célèbre physicien et présentateur britannique Brian Cox a qualifié l’article d’« exaltant », même s’il est très technique. Mais ce qui l’a vraiment amusé, c’est une petite note de bas de page. Juste après avoir expliqué qu’un tel univers ne pouvait avoir d’observateur externe, les auteurs ont écrit : « Nous laissons les implications théologiques de cette affirmation en exercice au lecteur ».

C’est une pirouette pleine d’humour. Bien sûr, l’article ne cherche ni à prouver ni à réfuter l’existence de Dieu. C’est un clin d’œil. D’ailleurs, dans un univers aussi simple, nous-mêmes n’existerions pas tels que nous sommes. Les auteurs explorent ensuite des pistes pour essayer de comprendre comment un observateur comme nous pourrait quand même y trouver sa place, en utilisant des principes comme l’holographie (l’idée qu’une surface plate peut contenir toute l’information d’un volume en 3D).

Un pas de plus, mais la route est encore longue

Soyons clairs, ce papier n’a pas résolu le grand mystère de l’unification de la physique. C’est une proposition, une nouvelle façon de voir les choses qui doit encore être débattue et vérifiée. Mais elle pourrait avoir des applications intéressantes, notamment pour mieux comprendre les trous noirs.

Ce qui est certain, c’est que cette approche est originale et donne à réfléchir. Et même si la théorie ne mène nulle part, sa fameuse note de bas de page, elle, est probablement déjà entrée dans les annales de la physique pour son esprit et son humour. La science, c’est aussi ça : des idées audacieuses et, parfois, un bon mot.

Voir aussi Our univers’s quantum secrta New scinteit 7 feb 2006

————–

Du Neanderthal à l’homo

La longueur des segments d’ADN d’ascendance néandertalienne qui sont présents dans le génome des hommes modernes a fourni des indices sur le moment et la durée du flux génique, c’est-à-dire du passage de gènes des Néandertaliens aux hommes modernes. Compte tenu du fait que ces segments raccourcissent un peu à chaque génération en raison des recombinaisons du matériel génétique lors de la fécondation, les chercheurs ont déterminé que le flux génique aurait perduré pendant près de 7000 ans et serait survenu il y a entre 50 000 et 43 500 ans. Ce qui concorde avec les preuves archéologiques recueillies de la cohabitation d’Homo sapiens et d’Homo neanderthalensis en Europe.

Fevrier 2025 Une nouvelle carte de la matière noire dans l’univers

Depuis plus d’un siècle, les astronomes n’ont cessé d’étudier les galaxies, découvrant peu à peu la diversité de leurs formes et de leurs propriétés. Grâce aux progrès de nos instruments d’observation, nous avons pu cartographier la position de millions de galaxies dans l’Univers proche. De vastes régions de l’Univers se révèlent très vides, traversées par d’immenses filaments qui relient des régions où les galaxies se regroupent. Sous l’effet de la gravité, les galaxies sont entraînées inexorablement les unes vers les autres pour façonner ces immenses structures, qui grandissent au fil des milliards d’années de temps cosmique qui s’écoule.

L’étude d’une de ces structures, l’amas de Coma, par Fritz Zwicky en 1933 a mis au jour un des aspects les plus mystérieux de notre compréhension de l’Univers : la majeure partie de la masse de Coma ne peut pas être expliquée par la présence de matière ordinaire.

Les études cosmologiques les plus modernes confirment que le gaz et les étoiles ne représentent qu’environ un sixième de la masse totale de l’Univers. Le reste ? Une matière invisible, baptisée matière noire par les physiciens. L’une des plus grandes énigmes de la physique moderne reste entière : de quoi cette matière noire est-elle faite ? Comme interagit-elle avec la matière ordinaire ? Comment sa présence impacte-t-elle la formation et l’évolution des galaxies ?

Note explicative

Dans notre étude publiée dans Nature Astronomy, et dirigée par Diana Scognamiglio du Jet Propulsion Laboratory de la Nasa, nous présentons une carte détaillée de la distribution de la matière noire. Bien que notre étude ne puisse pas répondre directement à la question fondamentale sur la nature de la matière noire, elle apporte un outil puissant pour relier la matière ordinaire et la matière noire, sur un intervalle de temps cosmique couvrant les deux tiers de l’âge de l’Univers.

Notre nouvelle carte montre en particulier que la matière noire et la matière visible évoluent conjointement.

Comment cette découverte a-t-elle pu être réalisée ?

Dans cette étude, nous avons employé l’une des méthodes les plus puissantes pour révéler la présence de matière noire : le lentillage gravitationnel faible. La présence d’une grande structure de matière noire va entraîner une déformation de l’espace-temps. La lumière d’une galaxie qui se trouve en arrière-plan va être légèrement déviée en traversant la structure. La forme de cette galaxie d’arrière-plan va donc se trouver artificiellement étirée quand sa lumière atteindra nos télescopes

.En analysant de nombreuses images du télescope spatial James-Webb, on décèle l’effet de lentille gravitationnelle : l’image des galaxies en arrière-plan est déformée très faiblement par les objets massifs qui se trouvent entre nous et la galaxie.

La clé de notre méthode réside dans l’accumulation de données : en observant un grand nombre de galaxies dans une petite région du ciel, nous pouvons détecter une distorsion cohérente de la forme des galaxies d’arrière-plan et en déduire la masse de la structure en avant-plan.

Pour bâtir une carte de ces déformations de l’espace-temps, il est donc essentiel de mesurer la forme d’un grand nombre de galaxies.

Près de 255 heures d’observation sur le télescope spatial James-Webb ont permis de couvrir une zone beaucoup plus vaste que celles observées précédemment (environ la surface de trois pleines lunes), avec des détails sans précédent sur la forme des galaxies.

Le miroir de 6,5 mètres du télescope spatiale James-Webb lors d’un test en 2020, avant son lancement. Il est tellement grand qu’il a dû être plié pour entrer dans la fusée, puis déployé dans l’espace. © NASA/Chris Gunn

En analysant en détail 250 000 galaxies lointaines (distance, morphologie, masse), nous avons mesuré la densité de matière noire d’avant-plan et créé ainsi une carte de la matière noire dans cette région du ciel.

En effet, notre carte de lentille gravitationnelle faible retrace la distribution projetée de la matière totale, sombre et lumineuse, à travers les amas de galaxies, les filaments et les régions sous-denses. Les pics proéminents correspondent à des amas massifs.

En quoi cette recherche est-elle importante ?

Notre équipe étudie cette région du ciel, baptisée « COSMOS », depuis plus de vingt ans. En comparant cette nouvelle carte de matière noire avec les données accumulées sur les galaxies et le gaz chaud, nous voyons que la matière noire, le gaz chaud et les galaxies retracent souvent les mêmes structures.

En d’autres termes, cette carte nous montre que la matière noire et la matière visible évoluent conjointement.

De plus, COSMOS est aujourd’hui le champ de référence pour les études sur l’évolution des galaxies. Il fournit désormais un repère haute résolution à partir duquel les futures cartes de l’univers sombre pourront être calibrées et comparées.

Le champ de vue COSMOS dans la constellation du Sextant. © ESO, IAU et Sky & Telescope, CC BY

Quelles sont les suites de ces recherches ?

La prochaine étape consiste à étendre cette cartographie à des volumes beaucoup plus importants de l’Univers à l’aide de missions telles queEuclid de l’Agence spatiale européenne (ESA) et le télescope spatial Nancy-Grace-Roman de la Nasa qui couvriront jusqu’à un tiers du ciel. Tous ces télescopes utilisent COSMOS comme point d’étalonnage.

Référence


Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.


Le projet instruire l’émergence des galaxies massives et leur évolution — iMAGE est soutenu par l’Agence nationale de la recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

Olivier Ilbert, Astronome au Laboratoire d’Astrophysique de Marseille / Aix-Marseille Université, spécialiste de la formation et de l’évolution des galaxies, Aix-Marseille Université (AMU)




Une nouvelle carte de la matière noire dans l’univers


Une nouvelle carte de la matière noire dans l’univers

Nouveau sondage

À un peu plus d’un an de l’échéance électorale, un nouveau sondage sur la présidentielle 2027 vient bousculer l’ensemble du paysage politique français.

L’étude réalisée par l’Ifop et Fiducial pour Sud Radio et Le Figaro révèle une tendance très nette : le Rassemblement national domine largement les intentions de vote, quelle que soit la configuration testée.

ans ce sondage, les deux figures majeures du parti, Jordan Bardella et Marine Le Pen, apparaissent en position de force face à leurs adversaires. Qu’il s’agisse de la droite traditionnelle, du bloc central ou de la gauche, aucun camp ne semble pour l’instant capable de rivaliser avec la dynamique du RN au premier tour.

Cette photographie de l’opinion publique, réalisée fin février auprès de près de 1400 électeurs inscrits sur les listes électorales, confirme une tendance déjà observée lors d’autres enquêtes : la progression constante du parti fondé par Jean-Marie Le Pen et désormais dirigé par Marine Le Pen et Jordan Bardella.

L’un des enseignements majeurs de ce sondage présidentielle 2027 concerne la performance de Jordan Bardella. Le président du Rassemblement national recueillerait 36 % des intentions de vote au premier tour.

Un score particulièrement élevé qui le placerait très largement en tête du scrutin dans la configuration testée. Il devancerait de loin ses principaux concurrents politiques, qu’ils soient issus du bloc central, de la droite ou de la gauche

Ce chiffre est d’autant plus notable que Jordan Bardella n’a jamais été candidat à l’élection présidentielle. À seulement une trentaine d’années, l’actuel président du RN incarne une nouvelle génération politique et bénéficie d’une forte visibilité médiatique depuis son arrivée à la tête du parti.

Pour les analystes politiques, ce résultat traduit plusieurs phénomènes : la normalisation progressive du Rassemblement national, la popularité personnelle de son président, mais aussi le manque de leadership clair dans les autres formations politiques.

Marine Le Pen reste elle aussi très haut dans les intentions de vote

Si Marine Le Pen était à nouveau candidate à la présidentielle 2027, les résultats seraient quasiment similaires. Selon les différentes configurations testées, la triple candidate à l’Élysée obtiendrait entre 34 % et 35 % des intentions de vote. Autrement dit, le RN conserverait une avance très importante au premier tour, quel que soit le nom de son candidat.

Cette situation montre que la dynamique électorale du parti dépasse désormais la seule figure de Marine Le Pen. Depuis plusieurs années, la stratégie de dédiabolisation et d’implantation locale menée par le RN semble porter ses fruits. En parallèle, la popularité de Jordan Bardella permet d’envisager une transition générationnelle qui ne fragiliserait pas le parti, bien au contraire.

Pour de nombreux observateurs, ce sondage confirme que le RN pourrait aborder l’élection présidentielle dans une position bien plus favorable qu’en 2017 ou en 2022.

Le bloc central très loin derrière dans les intentions de vote

Face à cette domination du Rassemblement national, les candidats potentiels du bloc central apparaissent nettement distancés. Dans l’hypothèse où Édouard Philippe serait le candidat unique du centre, l’ancien Premier ministre recueillerait 16 % des intentions de vote. Un score honorable mais très éloigné de celui attribué à Jordan Bardella ou Marine Le Pen.

Si c’était Gabriel Attal qui portait les couleurs de Renaissance, il obtiendrait entre 10 % et 11 % des intentions de vote. D’autres figures gouvernementales ont également été testées dans cette enquête. Gérald Darmanin et Sébastien Lecornu, régulièrement cités parmi les potentiels candidats, resteraient quant à eux sous la barre des 10 %.

Ces chiffres illustrent une difficulté persistante pour le bloc central : trouver un candidat capable de fédérer un électorat large dans la perspective de la présidentielle 2027.

La droite traditionnelle peine à se positionner

Du côté des Républicains, le sondage met en lumière une situation contrastée. Le ministre et figure montante de la droite, Bruno Retailleau, obtiendrait entre 10 % et 12 % des intentions de vote selon les scénarios testés. Dans une configuration où il serait le candidat unique d’une alliance entre la droite et le bloc central, son score pourrait toutefois grimper jusqu’à 17 %.

Dans cette hypothèse, Édouard Philippe atteindrait même 23 %, ce qui redistribuerait partiellement les cartes. Mais même dans ce scénario favorable, le Rassemblement national resterait largement en tête des intentions de vote présidentielle 2027.

Une gauche très fragmentée et en difficulté

Le sondage souligne également les difficultés rencontrées par les partis de gauche. Dans la configuration testée, Jean-Luc Mélenchon recueillerait entre 10 % et 11 % des intentions de vote. Un score qui reste inférieur à ses résultats obtenus lors des précédentes élections présidentielles. De son côté, Raphaël Glucksmann, représentant la famille sociale-démocrate, obtiendrait entre 10 % et 12 %.

Les autres forces politiques de gauche apparaissent encore plus fragilisées. Marine Tondelier, pour les écologistes, resterait sous la barre des 5 %, tandis que Fabien Roussel pour le Parti communiste se situerait sous les 3 %. Cette dispersion électorale rend particulièrement difficile l’émergence d’un candidat unique capable de rivaliser avec les autres blocs politiques.

François Hollande ou Olivier Faure : des scores limités pour le Parti socialiste

L’étude Ifop-Fiducial s’est également intéressée à d’autres personnalités susceptibles d’incarner la gauche. Si François Hollande était choisi comme candidat socialiste, il resterait sous la barre des 8 % des intentions de vote.

Quant à Olivier Faure, premier secrétaire du Parti socialiste, il ne dépasserait pas les 5 %. Ces résultats témoignent d’une difficulté persistante pour le Parti socialiste à retrouver l’influence qu’il exerçait encore il y a une dizaine d’années sur la scène politique française.

Un sondage qui confirme la recomposition du paysage politique

Au-delà des chiffres bruts, ce sondage présidentielle 2027 illustre une transformation profonde du paysage politique français. Depuis plusieurs années, la vie politique semble structurée autour de trois grands blocs : le Rassemblement national, le bloc central, et un ensemble fragmenté de forces de gauche.

Dans cette configuration, le RN apparaît aujourd’hui comme la formation la plus solide électoralement, capable de rassembler un électorat large et fidèle.

Toutefois, comme le rappellent régulièrement les spécialistes de la vie politique, les sondages réalisés plusieurs mois avant une élection doivent être interprétés avec prudence. Les campagnes électorales, les alliances et les événements politiques peuvent encore profondément modifier les rapports de force d’ici la présidentielle 2027.



12/03/2026

Une gigantesque masse de matière noire serait en train de déformer la Voie lactée !

Publié le 04 Oct 2023 à 18H00 / modifié le 04 Oct 2023

Selon un article publié dans Nature Astronomy, un immense halo invisible de matière noire incliné pourrait expliquer les déformations des bords de la Voie lactée. Grâce à une modélisation informatique, l’équipe d’astronomes pense qu’une gigantesque collision de notre galaxie avec une autre aurait fait basculer ce halo, déformant ainsi la Galaxie.

Une déformation de la Voie lactée

La matière noire est une matière qui ne rayonne pas dansl’univers, qui ne réfléchit pas la lumière et qui n’en émet pas.Cette matière serait apparue en même temps que la matière ordinaireil y a 13,7 milliards d’années.

Notre univers se compose de matière ordinaire. Il s’agit de lamatière que nous pouvons observer et qui constitue tout ce quiexiste. Cette matière ordinaire nous constitue, tout comme elleentre dans la composition des planètes et des étoiles de l’univers.Les atomes composent cette matière ordinaire, eux-mêmes constituésd’électrons, de neutrons et de protons.

La matière noire

JWST : une cartographie inédite

Le télescope spatial James Webb, avec ses instruments sensibles dans l’infrarouge proche, a permis aux astronomes de mesurer avec une précision jamais atteinte la distribution de la matière dans l’amas de la Balle. En observant des milliers de galaxies ainsi que des étoiles isolées, les chercheurs ont pu tracer une carte détaillée de la matière noire.

La méthode repose sur la déformation de la lumière causée par la gravité : plus la matière est dense, plus elle courbe l’espace-temps et dévie la lumière, comme une lentille naturelle. En analysant ces déformations, il devient possible de « voir » où se trouve la matière noire.

matière noire james webb
L’image complète du Bullet Cluster par JWST et Chandra. Crédit image : NASA, ESA, CSA, STScI, CXC, James Jee (Université Yonsei, UC Davis), Sangjun Cha (Université Yonsei), Kyle Finner (Caltech/IPAC)

about:blank

Une complexité cosmique révélée

Les nouvelles données suggèrent que les collisions dans l’amas de la Balle sont plus complexes qu’on ne le pensait. Le grand amas aurait subi plusieurs collisions mineures avant et après sa rencontre principale. Cette dynamique compliquée apporte des indices précieux sur le comportement de la matière noire dans des environnements extrêmes.

De plus, les chercheurs ont confirmé que la lumière intra-amas — provenant d’étoiles flottant entre les galaxies — est un excellent indicateur pour suivre la matière noire, même dans ces conditions turbulentes.

Pourquoi cette preuve est essentielle

Ces résultats, rapportés dans The Astrophysical Journal Letters, renforcent fortement l’hypothèse que la matière noire est une substance réelle, distincte et différente des théories alternatives qui cherchent à modifier la gravité pour expliquer les observations astronomiques. L’amas de la Balle devient ainsi un laboratoire naturel où les théories peuvent être confrontées à la réalité.

Les avancées du JWST illustrent aussi comment la technologie spatiale ouvre des perspectives inédites pour comprendre la structure de l’univers.JWST : une cartographie inédite

Le télescope spatial James Webb, avec ses instruments sensibles dans l’infrarouge proche, a permis aux astronomes de mesurer avec une précision jamais atteinte la distribution de la matière dans l’amas de la Balle. En observant des milliers de galaxies ainsi que des étoiles isolées, les chercheurs ont pu tracer une carte détaillée de la matière noire.

La méthode repose sur la déformation de la lumière causée par la gravité : plus la matière est dense, plus elle courbe l’espace-temps et dévie la lumière, comme une lentille naturelle. En analysant ces déformations, il devient possible de « voir » où se trouve la matière noire.

about:blank

Une complexité cosmique révélée

Les nouvelles données suggèrent que les collisions dans l’amas de la Balle sont plus complexes qu’on ne le pensait. Le grand amas aurait subi plusieurs collisions mineures avant et après sa rencontre principale. Cette dynamique compliquée apporte des indices précieux sur le comportement de la matière noire dans des environnements extrêmes.

De plus, les chercheurs ont confirmé que la lumière intra-amas — provenant d’étoiles flottant entre les galaxies — est un excellent indicateur pour suivre la matière noire, même dans ces conditions turbulentes.

Pourquoi cette preuve est essentielle

Ces résultats, rapportés dans The Astrophysical Journal Letters, renforcent fortement l’hypothèse que la matière noire est une substance réelle, distincte et différente des théories alternatives qui cherchent à modifier la gravité pour expliquer les observations astronomiques. L’amas de la Balle devient ainsi un laboratoire naturel où les théories peuvent être confrontées à la réalité.

Les avancées du JWST illustrent aussi comment la technologie spatiale ouvre des perspectives inédites pour comprendre la structure de l’univers.

Les planétoïdes

12/03/2026 Makémaké, Eris, Quaoar, Sedna, Hauméa, Máni, mais aussi Gonggong, Orcus, Varuna, Salacia, Ixion, Alicanto, Achlys… Ces noms tirés de diverses mythologies semblent évoquer des exoplanètes de science-fiction ; ils désignent en réalité officiellement des mondes de notre Système solaire.

Des petites planètes de plusieurs centaines de kilomètres de diamètre, bien réelles, mais passées longtemps inaperçues en raison de leur orbite très lointaine, au-delà de la géante Neptune, au niveau de la ceinture de Kuiper. “Même avec les plus puissants télescopes actuels, elles n’apparaissent que sous la forme d’un pixel”, signale Jean-Marc Petit, qui les traque depuis un observatoire installé sur un sommet d’Hawaï. À ce jour, environ 5 000 objets transneptuniens de tailles variées ont été détectés. “L’ouverture de l’observatoire Vera Rubin au Chili devrait permettre d’en détecter 30 000 de plus, pour l’essentiel dès cette année”, s’enthousiasme Mike Alexandersen, du Centre des planètes mineures ; on peut même s’attendre à la découverte imminente de 5 000 planétoïdes de plus de 100 km de diamètre. Même si les plus grands et les plus sphériques d’entre eux n’auront droit qu’au titre assez peu reluisant de “planètes naines” – le terme “planète” étant réservé aux objets qui ont fait le vide sur leur orbite –, ces perspectives incitent à porter un nouveau regard sur la banlieue de notre Système.

Wikipedia

Un planétoïde est un petit corps céleste possédant certaines caractéristiques d’une planète.

Le terme a été introduit au XIXe siècle comme alternative au terme astéroïde. Il ne possède plus aujourd’hui d’usage scientifique formalisé mais reste parfois utilisé, soit dans son sens historique, soit dans des sens approchants.

On peut distinguer trois usages principaux :

  • dans son sens historique, planétoïde est un synonyme de planète mineure, terme d’usage plus courant dans le cadre scientifique mais rarement utilisé dans les textes de vulgarisation. Suivant le contexte, il peut notamment s’agir d’un astéroïde (ceinture principale ou géocroiseur) ou d’un objet transneptunien. Voir section Terminologie de l’article Planète mineure pour plus de détails ;
  • dans un sens plus restreint, le terme planétoïde est souvent utilisé pour parler de manière qualitative des « grosses » planètes mineures. Cet usage est concurrencé par le concept de planète naine introduit par l’Union astronomique internationale en 2006, mais permet un usage plus informel englobant les nombreuses « grosses » planètes mineures n’ayant pas acquis le statut de planète naine ;
  • on rencontre aussi le terme planétoïde utilisé comme synonyme de planétésimal ou de protoplanète, termes d’usages plus courant dans le cadre scientifique.