Le mega-bug de l’an 2038

Le 19 janvier 2038 à 3 h 14 min et 7 s UTC, un bug pire que celui de l’an 2000 menace de faire planter des milliards d’équipements dans le monde – trains, IRM, implants, télécoms, distributeurs… Les informaticiens sonnent l’alarme. Mais pour l’instant, les industriels sont dans le déni.

On connaît la date de la fin des temps : le 19 janvier 2038, à 3 h 14 min et 7 s UTC. D’un coup, les horloges de milliards de machines vont revenir à zéro, sans manipulation ni piratage. Ou plutôt, elles vont remonter le temps… jusqu’au 13 décembre 1901, 20 h 45 min et 52 s. Cela paraît fou, un scénario de SF. Nous venons pourtant d’en avoir un aperçu indirect, en décembre dernier, avec la condamnation du fabricant de trains Alstom révélée par le journal L’Informé : la RATP lui reprochait justement d’avoir caché ce problème d’horloge, qui risque d’immobiliser un tiers du réseau parisien. L’affaire est en cours – Alstom, qui a fait appel, et la RATP n’ont pas souhaité nous parler. Ailleurs, les langues se délient, révélant l’ampleur d’un problème mondial, jusqu’ici largement passé sous les radars.

Urgence

Oui, le passage de 2038 risque de provoquer de graves pannes dans de nombreux secteurs si l’évaluation et les mesures d’atténuation sont trop tardives”, lâche John Lange, informaticien dans le Colorado – fondateur du site Y2038.com, cet expert est l’un des premiers à avoir lancé l’alerte. “Bien que le problème soit connu des spécialistes, de nombreuses organisations, voire la plupart, ne le traitent pas avec l’urgence que cela mériterait. Un très grand nombre de structures sont exposées et seule une partie étonnamment faible en assure le suivi avec un financement dédié », analyse de son côté Trey Darley, un informaticien belge, fondateur de Proper Tools, un cabinet de conseil spécialisé dans les risques systémiques liés aux infrastructures. “Il faut qu’il y ait une prise de conscience, cela doit sortir de la sphère technique avec urgence”, s’inquiète un ingénieur français en informatique d’une entreprise spécialisée dans les systèmes embarqués, qui a préféré garder l’anonymat.

Pire que l’an 2000

Il suffit de creuser un peu pour s’apercevoir que ce “bug 2038” est connu depuis plus de vingt ans dans le monde des codeurs. Son origine est simple : un grand nombre de nos systèmes informatiques fonctionnent avec une date paramétrée qui permet de repérer des actions dans le temps (prêt bancaire, maintenance…). Et pour que tout soit harmonisé, une norme dite “heure Unix” ou “heure Posix” impose que cette date soit calculée en égrenant les secondes à partir du 1er janvier 1970 (juste après l’invention du système d’exploitation Unix, en 1969). Par exemple, le 25 février 2026, date de sortie de ce numéro d’Epsiloon, il se sera écoulé 1 772 020 678 secondes. Sauf que cette date, exprimée en bits (0 ou 1), est souvent codée sur un nombre de bits limité, en l’occurrence 32 : 31 pour égrener les secondes qui s’écoulent et le 32e pour préciser si on est avant ou après 1970. Le problème, avec ce système, c’est que le nombre le plus élevé s’écrit 01111111 11111111 11111111 11111111. Ce qui correspond au 19 janvier 2038, 3 h 14 min et 7 s donc. Et que la seconde suivante, le codage va afficher 10000000 00000000 00000000 00000000 : le 13 décembre 1901, la date la plus reculée possible dans le passé… “Nos systèmes informatiques comparent les chiffre, et une date future qui se retrouve d’un seul coup plus ancienne que la précédente induit des erreurs”, conclut Thierry Roger, directeur de recherche chez Alten, à Rennes.

On estime que le parc informatique concerné est 500 à 600 fois plus important que pour le bug de l’an 2000

Trey Darley, informaticien belge, fondateur de Proper Tools

Cette histoire rappelle bien sûr le bug de l’an 2000. Mais à l’époque, il s’agissait des années, codées en utilisant deux chiffres (99 pour 1999) – d’où le risque d’interpréter le 00 de 2000 comme un retour en 1900… Un problème anticipé et corrigé au prix de 150 milliards d’euros rien que pour l’Europe, et d’équipes mobilisées pendant une dizaine d’années. Tout à coup, l’échéance de 2038 ne paraît plus si lointaine. D’autant qu’aujourd’hui, le nombre d’objets interconnectés et potentiellement impactés est sans ­ommune mesure. “On estime que le parc d’objets informatiques concernés est environ 500 à 600 fois plus­important que celui de l’an 2000, même s’il n’existe pas de liste officielle, évalue Trey Darley. Cela donne une petite idée du périmètre qu’il va falloir mettre à jour.” Et surtout, d’après les spécialistes, la mobilisation pour 2038 n’est pas du tout du même ordre. “Nombreux sont ceux qui ignorent encore le problème… probablement parce qu’il est plus complexe que celui du passage du millénaire”, lâche Kenji Kono, professeur en informatique à l’université de Keio, qui travaille sur le sujet au Japon.

Tabou

De rares acteurs ont déjà réalisé le grand saut et l’ont fait savoir. Apple, par exemple, a annoncé avoir préparé ses matériels et logiciels dès 2015. Les équipes de Linux ont dévoilé en 2020 avoir apporté un correctif. Et c’est à peu près tout. Sur la vingtaine de structures que nous avons contactées (Google, Siemens, EDF, SNCF, ESA, Bosch, Orange…), la majorité n’a pas répondu ou a minima. “Nous ne pouvons malheureusement pas donner suite à votre demande”, nous dit le service de presse de Renault. “Chez Valeo, on connaît le sujet. Le risque est maîtrisé dans le domaine de l’auto car il y a depuis longtemps des standards pour anticiper ce type de problème. Nous n’avons pas d’autres informations à communiquer sur le sujet.” Même discours chez Capgemini : “La plupart des environnements ont évolué vers des architectures 64 bits ou des formats de temps alternatifs. Pour les systèmes qui seraient impactés, la méthodologie de correction sera similaire à celle utilisée pour le passage à l’an 2000, ce qui est bien maîtrisé par l’industrie”, assure Patrice Duboé, directeur des technologies et de l’innovation.

Dans le monde des informaticiens, on est tous au courant depuis longtemps, mais cela ne provoque pas de prise de conscience

Yann Argotti, docteur en informatique, ingénieur chez Ampère, filiale électrique de Renault

Sauf que sur les forums spécialisés et du côté des développeurs informatiques, le discours est totalement différent. On entend parler de blocages, de pannes, de comportements difficilement prévisibles, d’effets en cascade, avec une inquiétude non dissimulée… “Cette histoire de 2038, on en parle entre nous car on sait que cela va se produire. D’ailleurs, il nous est arrivé pendant des tests de tomber sur la limite, ce qui prouve bien qu’un certain nombre de produits sur le marché sont vulnérables”, lâche notre ingénieur anonyme. “Tout le monde se doute bien qu’il va se passer quelque chose, mais cette connaissance du risque depuis les années 1980-1990 se limite au monde des développeurs, ce qui est un vrai problème”, confie Trey Darley. “Dans le monde des informaticiens, on est tous au courant depuis longtemps, mais cela ne provoque pas de prise de conscience. Ce sujet ne semble pas recevoir une attention spécifique pour l’instant”, déplore Yann Argotti, docteur en informatique, ingénieur chez Ampère, filiale électrique de Renault. 

Pas d’inventaire

Mais pourquoi avoir codé les dates en seulement 32 bits ? “Dans l’histoire de l’informatique, la mémoire a été systématiquement adressée sur une taille à un instant donné, en fonction des limites techniques de l’époque et du coût : on cherche toujours à gratter ce qui est possible en termes d’espace”, explique Gérard Berry, professeur émérite en informatique au Collège de France. Jusque dans les années 2000, ce codage en 32 bits s’est donc largement répandu. Et même si des systèmes à 64 bits sont désormais disponibles, il continue à être utilisé pour les équipements qui n’ont pas besoin de beaucoup de performances (capteurs, vannes…), avec l’idée que des mises à jour seront apportées en temps voulu.

Sauf que peu à peu, le suivi de la programmation de ces objets s’est perdu. Où sont-ils, ces systèmes à 32 bits ? Il y en a probablement des millions, des milliards partout dans le monde, dans les véhicules, les appareils médicaux, les capteurs de maisons, les imprimantes, les distributeurs automatiques… Leur durée de vie est longue et ce sont des systèmes embarqués, autonomes, qui souvent ne peuvent pas être mis à jour en ligne. Aucun inventaire, pas de suivi : leur existence et surtout leur mode de codage ne sont pas des informations bien répertoriées par les entreprises. En témoigne l’affaire RATP-Alstom : alors que l’entreprise avait mis en service de nouvelles rames MI09 en 2011, il lui a fallu six ans pour se rendre compte que certaines d’entre elles étaient vulnérables, et six mois encore pour cerner les 38 logiciels embarqués concernés – au passage, la RATP a découvert ­qu’Alstom avait tenté d’entrer manuellement une date supérieure à 2037… Il faut dire que l’accès à ces systèmes n’est pas forcément simple. “Prenez une grue, par exemple, illustre l’ingénieur anonyme. C’est le genre d’équipement qui a été conçu pour durer, mais qui n’a pas forcément de moyen de connexion à distance de type wifi, 4G… Si on veut la corriger, cela veut dire qu’il faut se déplacer et monter dessus !”

Savoir perdu

On est dans le cas typique où la racine du problème est très simple mais la correction pas forcément”, résume Gérard Berry. De fait, les solutions pour éviter le bug sont bien identifiées et maîtrisées : basculer le codage de la date sur 64 bits pour repousser la limite du temps ; utiliser le 32e bit pour coder au lieu de marquer le passé… Mais toutes soulèvent des difficultés pratiques. “Notamment parce qu’il n’existe pas de solution universelle et unique pour faire basculer tous les programmes avec le même procédé de mise à jour”, poursuit l’expert.

Ces programmes ont souvent été faits à la main par des ingénieurs qui ne sont plus là pour expliquer comment et où ils ont paramétré la date

Gérard Berry, professeur émérite en informatique au Collège de France

Souvent, la seule manière de convertir un programme de 32 en 64 bits est de plonger dans le code source, décrypter les milliers de lignes et comprendre comment la date a été paramétrée. “Cela peut prendre des heures et des heures, en particulier si les codes sont anciens”, pointe Anne Barros, spécialiste de la résilience des systèmes à CentraleSupélec, à Paris. “Il est parfois très difficile de comprendre ce qu’il y a derrière un vieux programme pour peu qu’il ait été écrit de manière un peu artisanale, sans commentaires autour”, confirme Claude Baron, professeur en informatique à l’Institut national des sciences appliquées, l’INSA, à Toulouse.

Ces programmes ont souvent été faits à la main, par des ingénieurs qui ne sont probablement plus là pour expliquer comment et où ils ont paramétré la date. Faire des conversions de ce type peut être plus délicat qu’il n’y paraît”, renchérit Gérard Berry. D’autant que les jeunes développeurs ne connaissent pas forcément certains vieux langages informatiques, comme le Cobol ou les instructions en assembleur. “Les langages utilisés dans les anciens systèmes embarqués n’étaient pas aussi développés et détaillés que ceux actuels du type Python, ce qui rend les mises à jour difficiles”, pointe Mathieu Acher, chercheur à l’Inria, l’institut de recherche en sciences et technologies du numérique. “Un programme informatique écrit en langage C et compilé il y a trente ans est très difficile à comprendre et à modifier. Le Web nous a apporté une grosse mémoire partagée, mais avant la connaissance restait plutôt à l’intérieur des entreprises, voire derrière les murs des codeurs”, raconte Thierry Roger.

Panne, arrêt, erreur

Un cauchemar. D’autant qu’un changement sur une simple ligne de programmation peut casser un système, voire en bloquer d’autres qui y sont connectés. “Quand on modifie un code du système d’exploitation pour stocker l’heure en 64 bits, il faut surveiller la compatibilité avec les applications qui utilisent encore l’heure en 32 bits”, alerte Arnd Bergmann, informaticien allemand chez Linaro. On imagine le risque pour les appareils critiques ou sensibles, comme les appareils médicaux, les barrages… Le pire étant qu’on ne sait pas ce qui se passera quand arrivera la date fatidique. “D’un objet à l’autre, on a du mal à prévoir : panne, arrêt, erreur… Ce n’est pas quelque chose que l’on arrive à anticiper tant les systèmes sont disparates”, prévient l’ingénieur anonyme. Au Japon, Kenji Kono a mené l’étude sur 32 921 projets programmés en langage C et publiés sur la plateforme GitHub, entre 2012 et 2018 : 7,35 % d’entre eux étaient vulnérables au bug de 2038 et, suivant les programmes, les différents effets étaient suffisamment dangereux pour entraîner des plantages de systèmes logiciels.

Des entreprises dans le déni

Face à cela, les entreprises ont tendance à être dans le déni. “Celles qui découvrent qu’elles ont un problème n’ont aucune raison de l’annoncer avant de l’avoir résolu – ou avant que cela ne devienne le problème de quelqu’un d’autre, regrette Trey Darley. La plupart des défaillances sont découvertes lors de tests, et corrigées discrètement.” Mais certains assument, comme KDDI, géant japonais des télécoms, qui a avoué avoir surfacturé par erreur des clients sur des appels passés entre le 10 janvier et le 25 février 2004, à cause du bug – le système utilisant des unités de 0,5 s au lieu de 1 s, le bug s’est manifesté plus tôt. Pedro Umbelino, chercheur chez BitSight, cite aussi le cas d’AOL, le fournisseur d’accès à Internet américain, en 2006. Nous avons retrouvé l’ingénieur qui a géré l’affaire à l’époque, Dossy Shiobara, qui a depuis quitté l’entreprise : “Tout a commencé quand un problème étrange a affecté nos serveurs, témoigne-t-il. L’un de mes experts a fini par découvrir que cela venait d’un bug lié à notre codage de date sur 32 bits, mais il nous a fallu cinq jours pour trouver la cause et la solution.” Plus récemment, en 2022, Trey Darley signale l’entreprise suisse Proton, à l’origine de la messagerie Proton Mail, dont le calendrier en ligne bloquait quand les utilisateurs voulaient paramétrer une date au-delà de 2038.

Un schisme

Un peu partout dans le monde, des codeurs et des chercheurs commencent à se fédérer pour alerter. Fin 2025, lors d’une réunion de l’Union internationale des télécommunications, à Genève, les membres d’un groupe de travail ont approuvé un document exigeant une coordination mondiale sur ce sujet. “Il s’agit de la première initiative internationalement reconnue de ce type”, salue Trey Darley, l’un des rédacteurs du document avec Pedro Umbelino. En parallèle, la loi européenne sur la cyberrésilience pourrait inciter à prendre le risque au sérieux : votée en 2024 et mise en application en 2027, elle devrait exiger que les systèmes embarqués puissent être mis à jour pour garantir une sécurité tout au long de leur cycle de vie… “Cette histoire illustre le problème récurrent du partage des connaissances entre le monde de l’informatique d’un côté, et le monde de la physique et du matériel de l’autre, regrette Gérard Berry. On peut même parler de schisme entre les ingénieurs qui conçoivent les équipements et ceux qui paramètrent les logiciels.”

Reste que le nerf de la guerre n’est pas seulement technique, il est aussi financier. Qui est responsable ? Qui doit payer ? L’intégrateur, le fournisseur, le sous-traitant ? Dans l’affaire RATP-Alstom, les juges ont tranché. Le compte à rebours est lancé : au moment où nous publions cette enquête, il ne reste plus que 4 375 jours 17 h 24 min et 55 s pour tenter de résoudre le bug de l’an 2038.

20/03/2006 Un trou noir traversant l’espace proche

0/03/2025 Un trou noir traversant l’espace

Les trous noirs sont des objets astrophysiques qui se forment à partir de la fusion de plusieurs trous noirs stellaires au cœur d’un noyau galactique actif. Lorsqu’ils fusionnent, ils peuvent produire un flash intense de rayons gamma et de rayons X, ce qui a été observé récemment. Cette fusion a été détectée par le réseau LIGO-Virgo-KAGRA et a été suivie par plusieurs observatoires spatiaux. Les trous noirs sont des laboratoires où nos théories fondamentales s’effondrent, ouvrant des questions sur l’information et l’origine des galaxies. 

Wikipedia+1

Recherche et observation des trous noirs par Virgo

Le réseau Virgo a joué un rôle clé dans la détection et l’observation des trous noirs à travers des ondes gravitationnelles. Les détecteurs LIGO et Virgo, en collaboration, ont détecté des événements d’ondes gravitationnelles provenant de la fusion de deux trous noirs, ce qui a été publié dans The Astrophysical Journal Letters. Cette observation a été réalisée à la fin de 2024 et a été publiée dans The Astrophysical Journal Letters. 

in2p3.cnrs.fr


Le réseau Virgo a également été impliqué dans l’observation et la localisation précise des sources d’ondes gravitationnelles, ce qui a été publié dans Physical Review Letters. Cette publication a été réalisée par la collaboration internationale exploitant les trois détecteurs, qui comprend des équipes du CNRS et de l’APC. 

Sciencepost


Les travaux de Virgo et LIGO continuent d’apporter des avancées significatives dans la compréhension des trous noirs et des collisions gravitationnelles dans l’espace. 

Futura

LIGO, Virgo et KAGRA observent des « trous noirs de deuxième génération »

28 octobre 2025

Résultats scientifiques Astroparticules et cosmologie

La détection de deux fusions singulières de trous noirs, à seulement un mois d’intervalle à la fin de 2024, améliore notre compréhension de la nature et de l’évolution des collisions les plus violentes de l’Univers. Certaines caractéristiques de ces fusions suggèrent la possibilité de « trous noirs de deuxième génération », qui seraient le résultat de coalescences antérieures, probablement produites dans des environnements cosmiques très denses et encombrés, comme des amas stellaires, où les trous noirs sont plus susceptibles de se rencontrer et de fusionner à répétition.

Dans un nouvel article publié ce jour dans The Astrophysical Journal Letters, la collaboration internationale LIGO-Virgo-KAGRA annonce la détection de deux événements d’ondes gravitationnelles en octobre et novembre de l’année dernière présentant des spins de trous noirs inhabituels. Une observation qui apporte une nouvelle pièce importante à notre compréhension du phénomène le plus insaisissable de l’Univers. Les ondes gravitationnelles sont des « ondulations » de l’espace-temps qui résultent d’événements cataclysmiques dans l’espace profond. Les ondes les plus fortes sont produites par les collisions de trous noirs. En utilisant des techniques algorithmiques sophistiquées et des modèles mathématiques, les chercheurs sont en mesure de reconstruire de nombreuses caractéristiques physiques des trous noirs détectés à partir de l’analyse des signaux gravitationnels, telles que leurs masses et la distance de l’événement par rapport à la Terre, ou encore la vitesse et la direction de leur rotation autour de leur axe, appelée spin.

La première des deux fusions de l’article a été détectée le 11 octobre 2024 (GW241011). Elle s’est produite à environ 700 millions d’années-lumière et a résulté de la collision de deux trous noirs pesant environ 17 et 7 fois la masse du Soleil. La rotation du plus grand des trous noirs dans GW241011 est l’une des plus rapides jamais observées.

Presque un mois plus tard, le 10 novembre 2024, la seconde fusion, nommée GW241110, a été détectée à environ 2,4 milliards d’années-lumière et a impliqué la fusion de trous noirs d’environ 16 et 8 fois la masse du Soleil. Alors que la plupart des trous noirs observés tournent dans la même direction que leur orbite, le trou noir principal de GW241110 a été observé en rotation dans une direction opposée à son orbite – une première du genre.

« Chaque nouvelle détection fournit des informations importantes sur l’Univers, nous rappelant que chaque fusion observée est à la fois une découverte astrophysique et un laboratoire inestimable pour étudier les lois fondamentales de la physique », déclare Carl-Johan Haster, co-auteur de l’article et enseignant chercheur en astrophysique à l’Université du Nevada, Las Vegas (UNLV). « Des binaires comme celles-ci avaient été prévues au regard d’observations antérieures, mais c’est la première preuve directe de leur existence. »

Ces deux événements semblent indiquer qu’il pourrait s’agir de « trous noirs de deuxième génération ». « Parmi les centaines d’événements que le réseau LIGO-Virgo-KAGRA a observés, GW241011 et GW241110 figurent parmi les plus novateurs, » déclare Stephen Fairhurst, enseignant chercheur à l’Université de Cardiff et porte-parole de la collaboration scientifique LIGO. « Le fait que les deux événements présentent un trou noir beaucoup plus massif que l’autre et en rotation rapide semble indiquer que ces trous noirs ont été formés à partir de fusions de trous noirs antérieures. »

Les scientifiques mettent en avant certaines caractéristiques particulières, notamment la différence de taille entre les trous noirs dans chaque fusion – le plus grand faisait presque le double de la taille du plus petit – et l’orientation du spin des trous noirs les plus grands dans chaque événement. Une explication naturelle de ces particularités est que les trous noirs sont le résultat de coalescences antérieures. Ce processus, appelé fusion hiérarchique, suggère que ces systèmes se sont formés dans des environnements denses, comme des amas stellaires, où les trous noirs sont plus susceptibles de se rencontrer et de fusionner à répétition.

« Ces découvertes mettent en évidence les capacités extraordinaires de nos observatoires mondiaux d’ondes gravitationnelles », déclare Gianluca Gemme, chercheur à l’INFN et porte-parole de la collaboration Virgo. « Les configurations de spin inhabituelles observées dans GW241011 et GW241110 ne remettent pas seulement en question notre compréhension de la formation des trous noirs, mais offrent également des preuves convaincantes de fusions hiérarchiques dans des environnements cosmiques denses : elles nous apprennent que certains trous noirs existent non seulement comme des partenaires isolés, mais probablement aussi comme des membres d’une foule dense et dynamique. Ces découvertes soulignent l’importance de la collaboration internationale pour dévoiler les phénomènes les plus évasifs et énergétiques de l’Univers. »

Découvrir les propriétés cachées des fusions de trous noirs

Les ondes gravitationnelles ont été prédites pour la première fois par Albert Einstein dans le cadre de sa théorie de la relativité générale en 1916, mais leur présence – bien que prouvée dans les années 1970 – n’a pas été directement observée par les scientifiques jusqu’à il y a seulement 10 ans, lorsque les collaborations scientifiques LIGO et Virgo ont annoncé la détection des ondes à la suite d’une fusion de trous noirs.

Aujourd’hui, LIGO-Virgo-KAGRA est un réseau mondial de détecteurs d’ondes gravitationnelles avancés, qui s’approche de la fin de sa quatrième campagne d’observation, O4. La campagne actuelle a commencé à la fin mai 2023 et devrait se poursuivre jusqu’à la mi-novembre de cette année. À ce jour, environ 300 fusions de trous noirs ont été observées grâce aux ondes gravitationnelles, y compris les candidats identifiés dans la campagne d’observation en cours qui attendent leur validation finale.

D’autre part, la précision avec laquelle GW241011 a été mesurée, a également permis de tester certaines prédictions de la théorie de la relativité générale d’Einstein dans des conditions extrêmes.
En fait, cet événement peut être comparé aux prédictions de la théorie d’Einstein et à la solution du mathématicien Roy Kerr pour les trous noirs en rotation. La rotation rapide du trou noir le déforme légèrement, laissant une empreinte caractéristique dans les ondes gravitationnelles qu’il émet. En analysant GW241011, l’équipe de recherche a trouvé un très bon accord avec la solution de Kerr et a vérifié à nouveau la prédiction d’Einstein, avec une précision sans précédent.

En outre, parce que les masses des trous noirs individuels diffèrent considérablement, le signal d’ondes gravitationnelles contient le « bourdonnement » d’une harmonique supérieure – similaire aux harmoniques des instruments de musique-  observée seulement pour la troisième fois avec GW241011. L’une de ces harmoniques a été observée avec une grande clarté et confirme une autre prédiction de la théorie d’Einstein.

« Cette découverte signifie également que nous sommes plus sensibles que jamais à toute nouvelle physique qui pourrait se trouver au-delà de la théorie d’Einstein », conclut Haster.

Recherche avancée de particules élémentaires

Les trous noirs en rotation rapide comme ceux observés dans cette étude ont maintenant une nouvelle utilité en physique des particules. Les scientifiques peuvent les utiliser pour tester l’existence de certaines particules élémentaires hypothétiques.

Ces particules, appelées bosons ultra-légers, sont prédites par certaines théories au-delà du Modèle Standard de la physique des particules, qui décrit et classe toutes les particules élémentaires connues. Si les bosons ultra-légers existent, ils peuvent extraire l’énergie de rotation des trous noirs. La quantité d’énergie extraite et la vitesse à laquelle la rotation des trous noirs ralentit au fil du temps dépendrait donc de la masse de ces particules. Le fait que le trou noir massif impliqué dans GW241011 continue de tourner rapidement, même des millions ou des milliards d’années après sa formation, élimine une large gamme de masses de bosons ultra-légers.

« La détection et l’inspection de ces deux événements démontrent combien il est important de faire fonctionner nos détecteurs en synergie et de s’efforcer d’améliorer leur sensibilité », déclare Francesco Pannarale, enseignant chercheur à l’Université de Rome et co-président de la division des sciences observationnelles de la collaboration LIGO-Virgo-KAGRA. « Les instruments LIGO et Virgo nous en ont appris encore davantage sur la manière dont les binaires de trous noirs peuvent se former dans notre Univers, ainsi que sur la physique fondamentale qui les régit. En améliorant nos instruments, nous serons en mesure de plonger plus profondément dans ces aspects et d’autres avec une précision accrue. »

La collaboration LIGO-Virgo-KAGRA

LIGO est financé par la National Science Foundation (Etats-Unis) et exploité par Caltech et MIT, qui a conçu et construit le projet. Le soutien financier au projet Advanced LIGO est assuré par la NSF, l’Allemagne (Société Max Planck), le Royaume-Uni (STFC) et l’Australie (Conseil de la recherche australienne) faisant des contributions importantes au projet. Plus de 1 600 scientifiques du monde entier participent à l’effort au travers de la collaboration scientifique LIGO, qui comprend la collaboration GEO. Les institutions membres supplémentaires sont répertoriées ici.

La collaboration Virgo est actuellement composée d’environ 1 000 membres issus de plus de 150 institutions dans 15 pays différents (principalement européens). L’Observatoire européen de la gravité (EGO) accueille le détecteur Virgo près de Pise, en Italie, et est financé par le CNRS en France, l’Institut national de physique nucléaire (INFN) en Italie, l’Institut national de physique subatomique (Nikhef) aux Pays-Bas, la Fondation de la recherche – Flandre (FWO) et le Fonds de la recherche scientifique (F.R.S.-FNRS) en Belgique. Plus d’informations sont disponibles sur le site Web de Virgo ici.

KAGRA est un interféromètre laser avec une longueur de bras de 3 km à Kamioka, au Japon. L’institut hôte est l’Institut de recherche sur les rayons cosmiques (ICRR), l’Université de Tokyo, et le projet est co-accueilli par l’Observatoire astronomique national du Japon (NAOJ) et l’Organisation de recherche sur les accélérateurs de particules (KEK). La collaboration KAGRA est composée de plus de 400 membres issus de 128 instituts dans 17 pays/régions. 

Virgo et les laboratoires français

CNRS Nucléaire et Particules est impliqué dans la collaboration européenne Virgo à travers dix de ses laboratoires et plateformes nationales : l’APC (Paris), le CC-IN2P3 (Lyon), le GANIL (Caen), IJCLab (Orsay), l’IPHC (Strasbourg), l’IP2I (Lyon), le L2IT (Toulouse), le LAPP (Annecy), le LMA (Lyon), le LPC Caen et Subatech (Nantes). Parmi les contributions techniques de l’institut au projet, on compte le développement des revêtements optiques des miroirs et des systèmes de métrologie optique, la conception et la réalisation du système d’acquisition des données et de contrôle, ou encore le développement du système de contrôle du vide et des chambres à vides de l’interféromètre. Par ailleurs, de nombreux scientifiques de l’institut participent à la mise en marche de l’interféromètre, à l’acquisition et à l’analyse des événements gravitationnels ainsi qu’à leur étude scientifique.

Outre les laboratoires CNRS Nucléaire & Particules, plusieurs autres instituts français participent à cette aventure européenne, dont Artemis (Nice), l’ILM (Lyon), l’INSP (Paris), le Laboratoire Navier (Paris) et le LKB (Paris), l’institut Fresnel (Marseille), le LAUM (Le Mans).

L’exploitation de l’interféromètre Virgo est assurée par le consortium EGO (CNRS, INFN, Nikhef, FWO et FNRS). EGO a pour principal objectif d’assurer le fonctionnement de Virgo, sa maintenance, son exploitation et son évolution.

Contact

Nicolas Leroy

Directeur adjoint scientifique « Astroparticules et cosmologie »

nicolas.leroy@in2p3.fr

20/03/2026 Le requin tigre

Le requin tigre est un prédateur marin redoutable, connu pour sa taille impressionnante et son régime alimentaire varié, vivant dans les eaux tropicales et subtropicales.

Caractéristiques Physiques

Habitat et Comportement

Régime Alimentaire

Interaction avec les Humains

Conservation

19/03/2026 Comment s’imaginer que les humains puissent comprendre l’univers

Du point de vue de la physique quantique, l’univers serait fondamentalement inconnaissable ? Pour elle chaque objet tel que l’électron doii obéir à une fonction mathématiqe dite fonction d’onde Celle-ci tencode tout les états quantique de cet objet, ce qui signifie que les physiciens peuvent prévoir comment cet object se comporter dans des expérience combinant ls fonction avec d’autres équations. ;

Mais si l’on accepte l’idée que l’uniers entier puisse être quantique, comme l’admettent de nombreu. scientifiques, il faut admettre les plus grandss de ces objets devraient disposer d’une fonction d’onde inclant tout l’univers. Ce pont de vue avait été défendu par de nombreux physiciens tel Stephen Hawking.

A suivre

But now Eddy Keming Chen at the University of California, San Diego and Roderich Tumulka at the University of Tübingen in Germany have shown that complete knowledge of this universal wave function may be fundamentally elusive.

“The wave function of the universe is like a cosmic secret that physics itself is trying to keep. We may know an enormous amount about how the universe behaves, but we remain essentially uncertain as to what quantum state it is in,” says Chen.

Previous studies assumed the shape of the universal wave function based on theoretical models of the cosmos and did not directly address what role experiments and observations might play in determining its details. Chen and Tumulka began with a more pragmatic question: given a certain set of wave functions that could reasonably represent our universe, could observations allow researchers to pick the right one?

The pair began with mathematical results from quantum statistical mechanics, which studies the properties of collections of quantum states. Another component of their calculations was the fact that a universal wave function would require a very large number of parameters or exist in an abstract state with many dimensions.

We may never know the universal wave function

07/03/2028 L’energie noire

La théorie du Big Rip suggère que l’univers pourrait se déchirer à cause de l’énergie noire, qui est une forme d’énergie très atypique.

 Cette énergie, qui a été découverte en 1998, est responsable de l’accélération de l’expansion de l’univers. Si l’énergie noire continue de s’accélérer, elle pourrait déchirer l’univers, disloquant les galaxies, les étoiles et même les atomes

Finalement, l’univers ne se déchirera pas

La théorie du Big Rip [le «grand déchirement» en français] réservait à notre univers un scénario assez peu optimiste: toutes les structures, des amas de galaxies jusqu’aux atomes, étaient vouées à être détruites, étirées par une expansion de plus en plus importante menant jusqu’au déchirement.

Mais soyez rassuré: à l’occasion de la 243e réunion de l’Union américaine d’astronomie à La Nouvelle-Orléans, de nouveaux calculs ont été publiés par le Dark Energy Survey (DES), un programme international dont le but est de cartographier l’univers afin de mieux comprendre la nature de l’énergie noire. La nouvelle mesure en question clarifie cette dernière, et par extension écarte la théorie du Big Rip.

D’après les estimations, notre univers observable est composé à près de 70% d’énergie noire. Depuis sa découverte en 1998, on sait que son principal effet à (très) grande échelle est d’accélérer l’expansion de l’univers. Toutefois, si l’on arrive à quantifier cette énergie noire, il est nettement plus délicat de la qualifier avec précision.

Jusqu’ici, la nature de l’énergie noire demeurait mystérieuse. Plus précisément, c’est le paramètre «w» qui a longtemps été insaisissable pour les scientifiques du monde entier. Par «w», il faut comprendre «équation d’état». En physique, celle-ci correspond au rapport entre la pression et la densité énergétique d’une substance. Absolument tout dans notre univers possède une équation

L’Univers est-il un ordinateur quantique ? Plongée à l’échelle de Planck

Publié par Varenza Ghaisandra, le 18 janvier 2026   9.8k

Et si l’Univers n’était pas un simple contenant physique, mais un gigantesque processeur d’information ? En explorant les hypothèses audacieuses de la gravité quantique, nous découvrons une réalité où l’espace-temps se compose de qubits et où les lois de la physique ne sont peut-être que des fonctions booléennes en cours d’exécution.


L’espace-temps à l’échelle de Planck : une trame de pixels

Au cœur de la physique théorique moderne, une idée fascinante émerge : à l’échelle infiniment petite de Planck (10^-35 mètres), l’espace-temps perd sa fluidité apparente pour devenir discret et granulaire. Selon les travaux de la physicienne Paola Zizzi, cette « pré-géométrie » pourrait être envisagée comme un réseau de pixels élémentaires.

Dans ce modèle, chaque « pixel » d’espace-temps n’est pas une unité inerte, mais un qubit (bit quantique) qui encode de l’information. Nous ne parlons plus ici de géométrie classique, mais d’une structure où l’information est la substance même de la réalité.

C’est ici que naît le concept vertigineux d’un Univers comme registre quantique massif, capable de stocker et de traiter les données fondamentales de la réalité.

La dynamique de l’Univers : un algorithme unitaire

Si l’espace-temps est un registre d’information, son évolution dans le temps peut être vue comme un calcul. En utilisant le formalisme de l’informatique quantique, les lois fondamentales de la physique deviennent un réseau de portes logiques unitaires.

L’évolution de l’Univers serait alors un processus réversible où l’espace-temps se trouve dans un état d’intrication quantique généralisée. Cette non-localité à l’échelle de Planck fait disparaître l’identité individuelle des pixels pour former un tout cohérent, évoquant l’interprétation des « mondes multiples » (Many-Worlds). Grâce au parallélisme quantique, l’Univers « calcule » simultanément une infinité de configurations possibles.

Réseaux de spins et principe holographique

Pour représenter cette structure abstraite, la Gravité Quantique à Boucles (LQG) propose un outil puissant : les réseaux de spins. Ce sont des graphes dont les arêtes portent des valeurs de spin définissant la géométrie quantique de l’espace.

En associant ces réseaux à des qubits (où un spin 1/2 représente les états logiques de base), on retrouve notre modèle computationnel. Le principe holographique renforce cette vision : il postule que l’information contenue dans un volume peut être décrite par sa surface limite. Ainsi, l’horizon cosmologique pourrait être vu comme une surface de 10^120 pixels de Planck, chacun encodant un qubit.

L’Univers macroscopique que nous percevons ne serait que la « sortie » (output) à grande échelle d’un calcul d’une complexité inimaginable, exécuté dans le monde discret de l’infiniment petit.

La physique comme langage booléen

Dans ce paradigme, les lois de la physique ne sont plus des équations figées, mais des fonctions booléennes quantiques émergentes. Le hasard apparent de la mécanique quantique — le résultat d’une mesure, découlerait de la nature probabiliste de la sortie de cet algorithme universel.

Plus fascinant encore, cette approche suggère que nous sommes « ancrés dans le code » : des sous-programmes conscients de l’exécution globale, mais incapables d’en percevoir la totalité. L’interaction entre les multiples histoires possibles de l’Univers devient alors un « Grand Jeu Quantique » dont nous serions les joueurs involontaires.

les pionniers de l’ordinateur quantique

L’ordinateur quantique n’est pas né d’un claquement de doigts ou d’un caprice de la Silicon Valley. Il s’inscrit dans la continuité d’un demi-siècle de recherches menées par des esprits audacieux, prêts à bousculer la frontière entre le possible et l’impossible. Dès les années 1980, des physiciens comme Richard Feynman et David Deutsch ont imaginé des machines capables de résoudre des énigmes mathématiques et physiques qui échappaient aux ordinateurs classiques, en puisant dans la richesse de la mécanique quantique.

Sommaire

Les origines de l’informatique quantiqueLes pionniers et leurs contributionsLes chercheurs français en pointeLes institutions et leurs chercheursLes contributions internationalesLes avancées technologiques majeuresLes initiatives européennesLes défis et perspectives futuresLes obstacles majeursLes opportunités économiquesLes collaborations internationales

Depuis, le monde scientifique a vu affluer de multiples équipes de recherche, chacune apportant sa pierre à cet édifice vertigineux. Des entreprises telles qu’IBM, Google ou D-Wave n’ont pas tardé à proposer les premiers prototypes opérationnels, faisant passer l’ordinateur quantique du mythe à la réalité tangible. Cette nouvelle forme de calcul promet des avancées inédites dans des secteurs comme la cryptographie, la chimie ou l’intelligence artificielle, ouvrant sur des perspectives aussi vertigineuses qu’imprévisibles.

Vous pourriez aimer : Ce que vous pouvez faire sur un ordinateur portable et que vous ne saviez probablement pas

Les origines de l’informatique quantique

L’informatique quantique s’enracine dans les intuitions de plusieurs scientifiques hors-normes. Prenons Paul Benioff : en 1981, il pose les bases théoriques de l’ordinateur quantique, ouvrant un nouveau chapitre où la physique rejoint l’informatique. Peu après, Richard Feynman, figure majeure du XXe siècle, imagine les simulateurs quantiques capables de modéliser des systèmes tellement complexes qu’aucun ordinateur classique ne pourrait les appréhender. Ce concept deviendra le socle de l’informatique quantique moderne.

En 1985, David Deutsch va plus loin : il démontre la faisabilité de l’ordinateur quantique universel, capable de résoudre n’importe quel problème calculable, là où les machines classiques atteignent leurs limites. Bien avant eux, Alan Turing et Alonzo Church, avec la machine de Turing et le lambda calcul, ont façonné l’ossature même de l’informatique. Pour clarifier le rôle de chacun, voici les contributions clés qui ont jalonné cette histoire :

À découvrir également : Mécanique quantique : Decouvrez ses incroyables mystères !

  • Paul Benioff : a montré la possibilité théorique de l’ordinateur quantique (1981).
  • Richard Feynman : a posé le concept des simulateurs quantiques (1982).
  • David Deutsch : a validé le principe de l’ordinateur quantique universel (1985).
  • Alan Turing : a proposé la machine de Turing (1936).
  • Alonzo Church : a introduit le lambda calcul.

Chacun de ces jalons n’a pas seulement ouvert la voie sur le plan théorique : ils ont inspiré des générations de chercheurs, renforçant l’idée que la mécanique quantique pouvait transformer notre rapport à l’information. L’évolution de ces idées témoigne d’une aventure scientifique où audace et collaboration s’entremêlent.

Les pionniers et leurs contributions

Impossible d’évoquer l’informatique quantique sans mentionner ceux qui, par leurs travaux, ont fait avancer le domaine à pas de géant. Peter Shor, notamment, a conçu un algorithme révolutionnaire capable de factoriser des nombres entiers avec une rapidité déconcertante, bouleversant la sécurité des systèmes cryptographiques traditionnels.

Les chercheurs français en pointe

La France tient sa place dans cette course. Parmi les figures qui marquent le paysage, Théau Peronnin et Raphaël Lescanne, cofondateurs de la jeune pousse Alice & Bob, visent un objectif précis : bâtir un ordinateur quantique réellement exploitable. Leur singularité ? Travailler sur des qubits corrigés d’erreurs, une approche qui pourrait accélérer la mise sur le marché de machines fiables et robustes.

Les institutions et leurs chercheurs

Dans les laboratoires, quelques noms retiennent l’attention. Tristan Meunier, à l’Institut Néel de Grenoble, se concentre sur les qubits supraconducteurs. À Londres, Peter Knight mène d’importantes recherches sur les systèmes quantiques à l’Imperial College. Ces acteurs donnent le tempo de la recherche européenne.

Les contributions internationales

Outre-Atlantique, John Preskill du Caltech s’impose comme l’un des piliers de l’étude de la décohérence et de la correction des erreurs quantiques. Il est aussi l’auteur de l’expression « suprématie quantique », ce jalon symbolique où l’ordinateur quantique dépasse son homologue classique. À cela s’ajoutent des initiatives françaises : Adeline Roux-Langlois du CNRS et Pierre Loidreau de la DGA incarnent le lien entre recherche fondamentale et applications stratégiques. Florence Parly, ministre des Armées, rappelle quant à elle l’importance des enjeux nationaux et gouvernementaux autour de ces technologies.

Les avancées technologiques majeures

L’évolution des ordinateurs quantiques se mesure aussi à l’aune de percées matérielles impressionnantes. IBM, en 1998, dévoile un tout premier prototype à 2 qubits, marquant le coup d’envoi d’une nouvelle ère. Depuis, plusieurs entreprises se sont illustrées par leurs avancées. Voici quelques jalons majeurs à retenir :

  • D-Wave Systems : Présentation d’« Orion », premier ordinateur quantique adiabatique à 16 qubits en 2007.
  • Google : Dévoilement de « Bristlecone », un processeur de 72 qubits, en 2018.
  • Intel : Confirmation la même année du développement de « Tangle Lake », une puce de test supraconductrice de 49 qubits.
  • Alice & Bob : Levée de 100 millions d’euros en 2021 pour accélérer la construction d’un ordinateur quantique utilisable à grande échelle.

Les initiatives européennes

En Europe, l’innovation se poursuit. La société Pasqal se distingue dans la fabrication d’ordinateurs quantiques tandis que Multiverse Computing, spécialisée dans les algorithmes inspirés du quantique, ouvre de nouvelles perspectives pour le secteur financier.

La compétition mondiale pour la suprématie quantique s’intensifie à mesure que des géants comme IBM, Google et Intel multiplient les annonces. En France, des start-ups telles qu’Alice & Bob et Pasqal, portées par des financements ambitieux, injectent un dynamisme salutaire dans cet écosystème hautement technologique.

Chaque acteur développe ses propres approches, tentant de résoudre les défis inhérents au calcul quantique. Si la route vers l’ordinateur quantique universel reste longue, chaque progrès réalisé rapproche ce rêve d’une application concrète.

ordinateur quantique

Les défis et perspectives futures

Malgré l’enthousiasme, le calcul quantique doit affronter des obstacles scientifiques de taille. Plusieurs grands groupes industriels s’investissent dans la recherche appliquée, cherchant à tirer parti des promesses de la technologie :

  • Airbus mène des expérimentations sur l’informatique quantique depuis huit ans.
  • TotalEnergies et EDF ont chacun instauré des programmes de recherche dédiés depuis cinq ans.
  • Crédit Agricole et CACIB ont lancé des initiatives similaires pour explorer ces nouveaux horizons.

Les obstacles majeurs

La gestion de l’intrication quantique et la correction des erreurs restent le talon d’Achille de cette technologie. Les qubits, encore instables, sont très sensibles à leur environnement. La création de codes correcteurs d’erreurs efficaces devient donc une priorité pour garantir des calculs fiables et reproductibles.

Les opportunités économiques

Les applications potentielles du calcul quantique dessinent des perspectives enthousiasmantes. Les domaines de l’énergie, de la finance ou des transports entrevoient des gains d’efficacité qui pourraient bouleverser la donne. Quant au machine learning quantique et à l’intelligence artificielle, ils ouvrent la porte à des usages encore insoupçonnés.

Les collaborations internationales

Pour avancer, le secteur mise sur l’échange et la coopération. Les alliances entre entreprises et centres de recherche accélèrent la progression, tout comme les partenariats public-privé déjà en place. Le partage des ressources et des savoirs devient un accélérateur puissant, orientant l’innovation collective vers la concrétisation de la suprématie quantique.

À mesure que la frontière entre science et industrie s’estompe, l’ordinateur quantique s’impose comme le terrain de jeu des esprits les plus audacieux. Demain, il ne s’agira plus seulement d’en parler : il faudra compter avec lui.

Du neanderal a l’homo

Du Neanderthal à l’homo

La longueur des segments d’ADN d’ascendance néandertalienne qui sont présents dans le génome des hommes modernes a fourni des indices sur le moment et la durée du flux génique, c’est-à-dire du passage de gènes des Néandertaliens aux hommes modernes. Compte tenu du fait que ces segments raccourcissent un peu à chaque génération en raison des recombinaisons du matériel génétique lors de la fécondation, les chercheurs ont déterminé que le flux génique aurait perduré pendant près de 7000 ans et serait survenu il y a entre 50 000 et 43 500 ans. Ce qui concorde avec les preuves archéologiques recueillies de la cohabitation d’Homo sapiens et d’Homo neanderthalensis en Europe.

Et si l’univers etait simple 14/3/2006

Et si l’Univers était simple ? Une nouvelle théorie quantique que le physicien Brian Cox trouve « exaltante »

Auteur: Mathieu Gagnon

2025-11-26 08:59:49

Le grand casse-tête de la physique moderne

credit : lanature.ca (image IA)

On a deux théories incroyables qui décrivent le monde. D’un côté, la mécanique quantique, qui explique le monde de l’infiniment petit, celui des particules. De l’autre, la relativité générale d’Einstein, qui nous parle de la gravité et de l’infiniment grand, comme les planètes et les galaxies. Chacune a été prouvée maintes et maintes fois. Le problème ? Elles ne s’entendent pas du tout. C’est un peu comme avoir deux manuels d’instructions géniaux, mais qui se contredisent.

Ce désaccord devient un vrai problème quand on regarde des objets extrêmes, comme les trous noirs ou le Big Bang. Là, les deux théories devraient fonctionner ensemble, mais c’est la pagaille. C’est pour ça que les physiciens du monde entier cherchent désespérément une « théorie du tout » qui pourrait enfin les réconcilier.

La quête du Graal : les grandes théories en lice

credit : lanature.ca (image IA)

Dans cette recherche, il y a quelques grandes pistes. Vous avez peut-être entendu parler de la théorie des cordes. L’idée, c’est que les particules les plus fondamentales ne sont pas des points, mais plutôt de minuscules cordes qui vibrent. La façon dont elles vibrent donnerait à chaque particule ses propriétés. C’est une image assez poétique, je trouve.

Une autre concurrente s’appelle la gravité quantique à boucles. Elle, elle imagine que l’espace n’est pas lisse et continu, mais qu’il est fait de tout petits morceaux indivisibles, des sortes d’atomes d’espace, qui s’assemblent pour former des boucles. Il y a plein d’autres idées, parfois très originales, comme celle où la gravité viendrait de l’entropie, c’est-à-dire du désordre. Bref, ça bouillonne d’idées, toutes basées sur des maths incroyablement complexes.

Une nouvelle idée qui bouscule tout

credit : lanature.ca (image IA)

Et c’est là qu’arrive ce nouvel article, qui n’a pas encore été validé par d’autres scientifiques mais qui fait déjà beaucoup de bruit. Écrit par une équipe du prestigieux MIT, il s’attaque à un concept mathématique appelé « l’espace de Hilbert ». Pour faire simple, c’est une façon de prolonger notre géométrie en 3D à un nombre infini de dimensions. Oui, ça donne le vertige.

Les chercheurs ont appliqué cet outil à un univers « fermé », c’est-à-dire un univers qui pourrait un jour finir par s’effondrer sur lui-même dans un « Big Crunch ». Et là, ils ont découvert quelque chose de totalement inattendu.

L’univers en une seule dimension ?

credit : lanature.ca (image IA)

Leur calcul montre que cet espace de Hilbert, avec toutes ses dimensions infinies, se réduit à… une seule dimension quand on parle de gravité quantique dans un univers fermé. C’est fou, non ? Une seule dimension. Pensez à une simple ligne droite.

La conséquence est énorme et assez philosophique : un tel univers ne peut pas avoir d’observateur extérieur. Personne ne peut le regarder « de dehors ». S’il est si simple, c’est peut-être nous, les observateurs à l’intérieur, qui créons l’illusion de la complexité. En fait, l’univers serait simple, et c’est nous qui serions compliqués.


Le célèbre physicien et présentateur britannique Brian Cox a qualifié l’article d’« exaltant », même s’il est très technique. Mais ce qui l’a vraiment amusé, c’est une petite note de bas de page. Juste après avoir expliqué qu’un tel univers ne pouvait avoir d’observateur externe, les auteurs ont écrit : « Nous laissons les implications théologiques de cette affirmation en exercice au lecteur ».

C’est une pirouette pleine d’humour. Bien sûr, l’article ne cherche ni à prouver ni à réfuter l’existence de Dieu. C’est un clin d’œil. D’ailleurs, dans un univers aussi simple, nous-mêmes n’existerions pas tels que nous sommes. Les auteurs explorent ensuite des pistes pour essayer de comprendre comment un observateur comme nous pourrait quand même y trouver sa place, en utilisant des principes comme l’holographie (l’idée qu’une surface plate peut contenir toute l’information d’un volume en 3D).

Un pas de plus, mais la route est encore longue

Soyons clairs, ce papier n’a pas résolu le grand mystère de l’unification de la physique. C’est une proposition, une nouvelle façon de voir les choses qui doit encore être débattue et vérifiée. Mais elle pourrait avoir des applications intéressantes, notamment pour mieux comprendre les trous noirs.

Ce qui est certain, c’est que cette approche est originale et donne à réfléchir. Et même si la théorie ne mène nulle part, sa fameuse note de bas de page, elle, est probablement déjà entrée dans les annales de la physique pour son esprit et son humour. La science, c’est aussi ça : des idées audacieuses et, parfois, un bon mot.

Voir aussi Our univers’s quantum secrta New scinteit 7 feb 2006

————–

Du Neanderthal à l’homo

La longueur des segments d’ADN d’ascendance néandertalienne qui sont présents dans le génome des hommes modernes a fourni des indices sur le moment et la durée du flux génique, c’est-à-dire du passage de gènes des Néandertaliens aux hommes modernes. Compte tenu du fait que ces segments raccourcissent un peu à chaque génération en raison des recombinaisons du matériel génétique lors de la fécondation, les chercheurs ont déterminé que le flux génique aurait perduré pendant près de 7000 ans et serait survenu il y a entre 50 000 et 43 500 ans. Ce qui concorde avec les preuves archéologiques recueillies de la cohabitation d’Homo sapiens et d’Homo neanderthalensis en Europe.