06/12/2024 Sous marins australiens. Une nouvelle bombe

Après l’annulation du « contrat du siècle » qui avait failli provoquer une rupture diplomatique entre la France et l’Australie (relire https://www.lefigaro.fr/international/crise-des-sous-marins-ce-que-la-france-n-a-pas-voulu-voir-20210927

l’Australie avait dévoilé un accord de compensation massive avec le fabricant français de sous-marins Naval Group, mettant un terme financier à un conflit qui avait envenimé les relations entre Canberra et Paris pendant près d’un an. Le premier ministre australien Anthony Albanese avait déclaré que l’entreprise française avait accepté un «règlement juste et équitable» de 555 millions d’euros, pour la rupture du gigantesque contrat de 56 milliards d’euros, qui avait occasionné une crise diplomatique entre Paris et Canberra.

Aujourd’hui nouvelle bombe. Les sous-marins français sont rentrés en grâce à Canberra. Dans un article publié le 5 décembre sur son site d’analyse et de commentaires The Strategist, l’ancien sous-marinier Peter Briggs, et ex-directeur du Submarine Institute of Australia, attaque à la mitrailleuse lourde  le programme de sous-marins Aukus, qui prévoit à la fois l’achat de sous-marins nucléaires américains d’occasion Virginia, et le développement d’un nouvel engin à propulsion nucléaire en partenariat avec le Royaume-Uni. Il préconise à l’inverse l’achat de douze sous-marins français de classe Suffren.

Le diagnostic de Peter Briggs est sans concession. « Le plan Aukus pour les sous-marins d’attaque à propulsion nucléaire (SSN) a toujours été défectueux, désormais les risques s’accumulent,  Nous devons être prêts à abandonner le plan d’achat des huit SSN prévus. »

L’article souligne plusieurs défis majeurs auxquels l’Australie pourrait faire face dans le cadre de ce partenariat :

  1. Retards et incertitudes dans la livraison des sous-marins nucléaires : Le projet AUKUS repose sur l’engagement de l’Australie à acquérir des sous-marins nucléaires de nouvelle génération. Toutefois, la fabrication de ces navires est complexe et pourrait entraîner des retards significatifs. Les sous-marins de type Virginia ou Astute sont en cours de production pour les États-Unis et le Royaume-Uni, mais leurs coûts sont astronomiques et leur disponibilité incertaine.
  2. La question du transfert technologique : Bien que les États-Unis et le Royaume-Uni s’engagent à fournir des technologies de pointe à l’Australie, l’incertitude demeure concernant la possibilité pour l’Australie de maîtriser totalement ces technologies, ce qui pourrait limiter l’indépendance stratégique de l’Australie dans le futur.
  3. Les tensions géopolitiques avec la Chine : Le partenariat AUKUS est une réponse directe à l’expansion militaire de la Chine dans la région Indo-Pacifique. Cependant, la Chine a clairement exprimé son opposition à cette initiative, et les tensions croissantes pourraient entraîner des répercussions économiques et diplomatiques pour l’Australie.

Face à ces risques, Peter Briggs propose que l’Australie se tourne plutôt vers la France pour une solution alternative. Plus précisément, il suggère que l’Australie devrait se préparer en partenariat avec la France à construire des sous-marins nucléaires à propulsion française, en particulier ceux de la classe Suffren.

Il insiste sur les avantages de la solution française

  1. Technologie éprouvée : Les sous-marins à propulsion nucléaire Suffren sont déjà en production en France et ont montré leur efficacité. La France a une longue histoire de conception et de maintenance de sous-marins nucléaires, ce qui garantit une expertise éprouvée dans le domaine.
  2. Capacité de production localisée : Contrairement à la dépendance vis-à-vis des États-Unis et du Royaume-Uni, l’Australie pourrait bénéficier d’un partenariat plus équitable avec la France, en termes de transfert de technologie et de production locale. Cela renforcerait l’indépendance de l’Australie en matière de défense et réduirait les délais de livraison.
  3. Moins de risques géopolitiques : Avec un partenariat franco-australien, l’Australie pourrait éviter certaines tensions géopolitiques associées à l’AUKUS, en particulier avec la Chine. En outre, la France, en tant que membre permanent du Conseil de sécurité de l’ONU et acteur clé en Europe, pourrait offrir à l’Australie une approche stratégique plus équilibrée vis-à-vis de ses partenaires.

Sa conclusion est claire. Bien que le partenariat AUKUS puisse sembler être une solution rapide et ambitieuse, il présente trop de risques à long terme pour l’Australie. Le pays devrait plutôt se préparer à une alternative plus sûre et plus indépendante, en explorant la possibilité de construire des sous-marins nucléaires à propulsion française. Ce choix pourrait non seulement garantir une meilleure maîtrise technologique mais aussi éviter les risques géopolitiques associés à un trop grand alignement avec les États-Unis et le Royaume-Uni.

Voir Wikipedia Classe Suffren

https://fr.wikipedia.org/wiki/Classe_Suffren_(sous-marin)

06/12/2024. La France et l’uranium du Niger

Le spécialiste français de l’uranium Orano a affirmé que les autorités nigériennes avaient « pris le contrôle opérationnel » de sa filiale minière au Niger, mercredi 4 décembre

« Depuis plusieurs mois, Orano alerte sur les ingérences que le groupe subit dans la gouvernance de la Somaïr [Société des mines de l’Aïr], dont il est actionnaire majoritaire et opérateur au Niger à 63,4%r [à le reste étant détenu par l’Etat du Niger], écrit le groupe français. En effet, les décisions prises lors des conseils d’administration de la société ne sont plus appliquées et, de fait, Orano constate aujourd’hui que les autorités nigériennes en ont pris le contrôle opérationnel », selon le communiqué publié par le groupe français. « Les dépenses de production qui se poursuivent sur le site dégradent chaque jour davantage la situation financière de la société »,

Le 23 octobre, l’entreprise avait annoncé que dans ces conditions, « fortement dégradée[s] », sa filiale allait « suspendre » sa production à partir du 31 octobre, faute de pouvoir « continuer à travailler » dans le pays, dirigé par un régime militaire issu d’un coup d’Etat perpétré en juillet 2023. En juin, le Niger avait, en effet, retiré à Orano le permis d’exploitation d’un des plus grands gisements au monde, celui d’Imouraren, avec des réserves estimées à 200 000 tonnes.

« Dans ce contexte, l’application de la résolution adoptée par le conseil d’administration de la Somaïr, le 12 novembre, de suspendre les dépenses liées aux activités de production pour prioriser le paiement des salaires et de préserver l’intégrité de l’outil industriel est volontairement empêchée », poursuit le communiqué.

Au total, 1 150 tonnes de concentré d’uranium issues de stock de 2023 et 2024, soit près de la moitié de la production moyenne annuelle du site, sont actuellement bloquées, d’une valeur marchande estimée à « 200 millions d’euros », selon le groupe, dont le capital est détenu à 90 % par l’Etat français. Le Niger fournit 4,7 % de la production mondiale d’uranium naturel, loin derrière le Kazakhstan (45,2 %), selon des chiffres de 2021 de l’agence d’approvisionnement d’Euratom (ESA).

Cet épisode illustre les tensions entre le Niger et la France à laquelle le régime militaire a tourné le dos depuis son arrivée au pouvoir. L’uranium nigérien pourrait intéresser d’autres pays : en novembre, le ministre des mines nigérien, Ousmane Abarchi, avait invité des sociétés russes à venir explorer et exploiter les ressources naturelles du pays.

Ceci dit, il s’agit plutôt d’une bonne nouvelle pour la France et en premier lieu le CEA

D’une part les investissement français dans le programme international ITER seront certainement accélérés. ITER vise à remplacer la fission nucléaire par la fusion https://www.iter.org/fr/en-quelques-mots Or il a été dit que les pays maitrisant la fusion maitriseront le monde. Mais il faudra attendre quelques décennies. En attendant, le CEA investit dans deux projets de haute importance. Il s’agit de Astrid et Allegro

Astrid

Le CEA est chargé par le gouvernement de ce programme (Advanced Sodium Technological Reactor for Industrial Demonstration) Astrid de démonstrateur industriel de réacteur à neutrons rapides (refroidi au sodium). Après une première phase d’avant-projet « sommaire », le CEA a rendu à l’État un dossier présentant l’avancement de ses recherches dans le cadre de la loi et clôturant la première phase d’avant-projet. 

Ce réacteur devra permettre de mettre en œuvre une politique de préservation des ressources en assurant une utilisation aussi complète que possible du plutonium par multirecyclage, une meilleure utilisation de la ressource en uranium et la démonstration de la faisabilité, sur des quantités significatives, de transmutation des actinides mineurs (radioéléments à vie longue). Par ailleurs, il répondra aux exigences de sûreté et de résistance à la prolifération.

En parallèle de ce développement, le cycle du combustible associé a été examiné au travers, d’une part des études de conception d’un atelier destiné à produire le combustible de ce réacteur (AFC-atelier de fabrication du combustible), et d’autre part au travers des études de faisabilité d’une installation permettant la séparation et la transmutation des actinides mineurs en vue de diminuer la radiotoxicité intrinsèque des déchets nucléaires.

Allegro

Les réacteurs à neutrons rapides refroidis au gaz procèdent d’un concept totalement innovant. Le CEA a développé une Recherche et Développement de haut niveau concernant cette la filière qui a la particularité d’associer neutrons rapides et haute température.

Contrairement à Astrid, il ne s’agit pas d’un démonstrateur industriel, les recherches n’étant pas encore suffisamment avancées. Les efforts portent essentiellement sur le combustible et la sûreté en collaboration avec la Hongrie, la République tchèque et la Slovaquie afin de construire dans l’un de ces trois pays un réacteur expérimental baptisé Allegro.

La filière RNR gaz en est à ses débuts et en l’absence de retour d’expérience, le réacteur sera d’une puissance limitée.

Voir aussi https://www.connaissancedesenergies.org/fiche-pedagogique/uranium-naturel

05/12/2024 L’espérance de vie à la naissance cesse partout de croître

Après avoir dans tous les pays augmenté régulièrement depuis le 19 siècle et plus particulièrement dans la première moitié du 20 siècle, la durée moyenne de la vie humaine commence partout à diminuer. Ceci malgré des conditions de vie en amélioration même dans les pays pauvres, assortie après les deux guerres mondiales d’une nette diminution des conflits.

Ceci suggère à de nombreux démographes qu’il existe une limite intrinsèque à la durée de la vie humaine, comparable à celles qui se manifestent dans toutes les espèces vivantes. Cette vie pourrait ne pas se poursuivre au delà de 70 à 80 ans , n’atteignant qu’exceptionnellement 100 à 110 ans.

Le démographe Jay Olshansky de l’Université de l’Illinois à Chicago ( Jay Olshansky https://publichealth.uic.edu/profiles/s-jay-olshansky/ a analysé toutes les dates de mortalité de 1999 à 2019 dans 9 pays développés comprenant les Etats-Unis. La date de 2019 ne devait pas être dépassée pour éviter toute influence de la pandémie due du Covid 19.

Il a observé que l’espérance de vie à la naissance avait augmenté de 6,5 ans dans tous les pays, atteignant même 78,8 ans aux Etats-Unis et 85 ans à Hong Kong. S’appuyant sur ces chiffres, il a constaté que l’espérance de vie avait diminué depuis 2019 dans tous les pays, sans jamais dépasser en moyenne 84 ans pour les hommes et 90 ans pour les femmes.

Il en a déduit que seule une infime minorité de nouveaux-nés d’aujourd’hui pourrait espérer devenir centenaire et ce en relativement bonne santé. L’abus des opioides dans certains milieux ne fera qu’aggraver ces prévisions. S’y ajoutera un moindre remboursement des services de santé

Source

Nature ageing, doi.org/nms6

05/12/2024. Les futurs systèmes quantiques pourront défier la loi de l’entropie

L’entropie est la mesure du degré de désorganisation et de hasard d’un système . Elle est liée à la deuxième loi de la thermodynamique. La deuxième loi de la thermodynamique stipule que, à moins qu’une énergie extérieure ne soit fournie, un système verra son entropie (désordre) rester la même ou augmenter au fil du temps.

Or il apparaît aujourd’hui qu’un état quantique localisé peut rester à jamais intact contrairement aux lois fondamentales de la physique pour qui aucune structure ou modèle ne peut survivre indéfiniment à la marche imposée par la nature vers plus de désordre, autrement dit vers une entropie croissante.

Depuis le début du 19e siècle, les physiciens ont admis qu’un système composé de nombreuses particules plus ou moins chaudes ne peut adopter spontanément un état plus ordonné que ce qu’il était. Le système devient de plus en plus tiède avec le temps, c’est-à-dire moins ordonné. Ainsi par analogie un panier plein de pommes vertes et de pommes rouges en désordre ne deviendra jamais un panier où les pommes seraient toutes vertes d’un côté et toutes rouges de l’autre.

En fait la seconde loi de la thermodynamique impose à tout système ordonné de devenir progressivement désordonné dans un processus que l’on nomme la termalisation

La thermalisation est un processus observé en physique. D’une façon générale, la notion de température est liée à celle d’équilibre thermodynamique, sachant que les systèmes que l’on considère en tous domaines sont plus ou moins en déséquilibre. Ainsi les pommes du panier évoqué ci-dessous pourront éventuellement toutes pourrir de sorte qu’il ne sera plus possible de les distinguer.

Cependant dans les années 1950 le physicien Philipp Anderson des laboratoires Bell commença à imaginer des scénarios dans lesquelles les particules pouvaient échapper à la thermalisation. Il étudiait la physique quantique pour laquelle les particules ont aussi des propriétés d’ondes.

En physique, la dualité onde-corpuscule aussi appelée dualité onde-particule est un principe selon lequel tous les objets physiques peuvent présenter parfois des propriétés d’ondes et parfois des propriétés de corpuscules et de particules. Anderson a étudié des situations dans lesquelles des particules pouvaient échapper à la thermalisation et rester de façon stable des ondes, ondes microscopiques il est vrai.

En 2016 John Imbrie à l’Université de Virginie réussit à démontrer qu’un ensemble constitué de nombreuses particules quantiques pouvait indéfiniment échapper à la thermalisation. Ce phénomène est désormais connu sous le nom de MBL Many body localisation.

Cependant la preuve d’Imbries impliquait un jugement sur l’énergie de ces particules qui est devenu le sujet d’un débat concernant la possibilité de MBL. Les études tant expérimentalesque mathématiques n’avaient en fait pas réussi à prouver qu’un système avait passé l’épreuve de MBL

Aujourd’hui Andrew Lucas de l’Université de Colorado Boulder a pu montrer en utilisant uniquement les mathématiques que de tels systèmes quantiques localisés existaient et pouvaient rester inchangés. Autrement dit il confirma l’existence de MBL.

Les chercheurs espèrent à partir de ce résultat définir des règles permettant de réaliser plus efficacement et avec plus de sécurité les futurs calculateurs quantiques attendus par tous.

CF ci-dessous. doi.org/nmtd

Eigenstate Localization in a Many-Body Quantum System

Chao YinRahul Nandkishore, and Andrew Lucas

  • Phys. Rev. Lett. 133, 137101 – Published 23 September, 2024

DOI: https://doi.org/10.1103/PhysRevLett.133.137101

Abstract

We prove the existence of extensive many-body Hamiltonians with few-body interactions and a many-body mobility edge: all eigenstates below a nonzero energy density are localized in an exponentially small fraction of “energetically allowed configurations” within Hilbert space. Our construction is based on quantum perturbations to a classical low-density parity check code. In principle, it is possible to detect this eigenstate localization by measuring few-body correlation functions in efficiently preparable mixed states.

04/12/2024 Découverte en Afrique du Sud de micro-organismes primitifs vivant à l’intérieur de roches âgées de 2 milliards d’années

Cette découverte apporte des arguments intéressants concernant l’apparition de la vie sur la Terre. Contrairement à ce qui avait été affirmé précédemment, la Terre a pu héberger des formes de vie primitive très tôt après son formation en tant que planète il y a 4,55 milliards d’années. La découverte intéressera également la recherche de la vie sur d’autres planètes.

L’on savait déjà que dans les profondeurs de la croûte terrestre, sans lumière solaire et privés de tout oxygène et ressources alimentaires, des milliards de microorganismes avaient réussi à s’implanter. Il s’agit de microbes à croissance extrêmement lente, pouvant demander des milliers voire des millions d’années pour se diviser. Les roches les plus anciennes dans lesquelles de tels organismes ont été trouvés jusqu’ici se trouvent dans des sédiments du sous-sol marin dont l’âge ne dépasse pas 100 millions d’années.

Aujourd’hui Yohei Suzuki et des chercheurs de l’université de Tokyo ont découvert des colonies microbiennes vivant dans le produit d’un sondage carroté réalisé dans le Bushveld Igneous Complex en Afrique du Sud, une région de roches volcaniques s’étant formée il y a deux milliards d’années. Le sondage carotté est une technique d’investigation géotechnique qui consiste à prélever des échantillons de sol intacts, appelés carottes, à différentes profondeurs. Ces carottes sont des cylindres de terre extraits à l’aide d’un outil spécial, le carottier, qui est enfoncé dans le sol puis retiré avec l’échantillon.

En étudiant les carottes, ils y ont découverts que les microbes y vivant étaient encore pleinement actifs. Il s’agissait pourtant d’espèces microbiennes très primitives en termes d’évolution. Les chercheurs espèrent en les étudiant découvrir ce qu’étaient les premières formes de vie sur la Terre, voire ce qu’elles auraient pu être – ou pourraient être, sur Mars.

Référence

Microbial ecology

https://link.springer.com/article/10.1007/s00248-024-02434-8

Subsurface Microbial Colonization at Mineral-Filled Veins in 2-Billion-Year-Old Mafic Rock from the Bushveld Igneous Complex, South Africa
Abstract

Recent advances in subsurface microbiology have demonstrated the habitability of multi-million-year-old igneous rocks, despite the scarce energy supply from rock-water interactions. Given the minimal evolution coupled with exceedingly slow metabolic rates in subsurface ecosystems, spatiotemporally stable igneous rocks can sustain microbes over geological time scales. This study investigated a 2-billion-year-old mafic rock in the Bushveld Igneous Complex, South Africa, where ultradeep drilling is being executed by the International Continental Scientific Drilling Program (ICDP). New procedures were successfully developed to simultaneously detect indigenous and contaminant microbial cells in a drill core sample. Precision rock sectioning coupled with infrared, fluorescence, and electron microscopy imaging of the rock section with submicron resolution revealed microbial colonization in veins filled with clay minerals. The entry and exit of microbial cells in the veins are severely limited by tight packing with clay minerals, the formation of which supplies energy sources for long-term habitability. Further microbiological characterization of drilled rock cores from the Bushveld Igneous Complex will expand the understanding of microbial evolution in deep igneous rocks over 2 billion years.



03/12/2024 De premières roues en pierre

La découverte récente en Israël d’un ensemble de petites pierres cylindriques percées d’un trou central âgées de 12.000 ans peut faire penser qu’il s’agit d’un premier exemple de pierres dites spindle whorls ou verticiles de fuseau destinés à stabiliser la rotation d’un fuseau pendant la filature.

La roue néolithique était ainsi inventée. Mais on peut se demander pourquoi l’usage de telles roues ne s’est pas généralisé, en augmentant progressivement la taille des roues. La solution était sans doute difficile à mettre en œuvre faute d’outils adéquats pour percer des pierres sans les faire éclater.

Cependant ces roues aurait pu servir de modèles pour faire des roues en bois aux multiples usages

Reference

12,000 year-old spindle whorls and the innovation of wheeled rotational technologies
  • Talia Yashuv  ,
  • Leore Grosman 

‘The wheel and axle’ revolutionized human technological history by transforming linear to rotary motion and causing parts of devices to move. While its ancient origins are commonly associated with the appearance of carts during the Bronze Age, we focus on much earlier wheel-shaped find–an exceptional assemblage of over a hundred perforated pebbles from the 12,000-year-old Natufian village of Nahal Ein-Gev II, Israel. We analyze the assemblage using 3D methodologies, incorporating novel study applications to both the pebbles and their perforations and explore the functional implications. We conclude that these items could have served as spindle whorls to spin fibres. In a cumulative evolutionary trend, they manifest early phases of the development of rotational technologies by laying the mechanical principle of the wheel and axle. All in all, it reflects on the technological innovations that played an important part in the Neolithization processes of the Southern Levant.



03/12/2024 Un possible « effet de gloire » détecté pour la première fois sur une exoplanète

 Brice Louvet1 décembre 2024

Des signes intrigants d’un phénomène atmosphérique rare ont été détectés sur une planète située bien au-delà de notre système solaire, offrant un aperçu captivant de ce qui se passe dans les recoins les plus éloignés de l’univers. Les données recueillies par le satellite Cheops de l’ESA, ainsi que par d’autres missions de l’ESA et de la NASA, suggèrent en effet l’existence d’un effet de gloire sur la géante gazeuse ultra-chaude WASP-76b, située à 637 années-lumière de la Terre.

Qu’est-ce qu’un effet de gloire ?

L’effet de gloire est un phénomène optique qui se produit lorsqu’une source de lumière, telle que le Soleil, brille sur des gouttelettes d’eau ou des particules dans l’atmosphère. Cela crée des anneaux de lumière concentriques et colorés autour de l’ombre de l’observateur semblables à un halo ou à un arc-en-ciel inversé.

Ce phénomène se produit lorsque la lumière est réfléchie, réfractée et diffractée à travers les gouttelettes d’eau ou les particules en suspension dans l’air. Les gouttelettes agissent comme des prismes séparant la lumière en ses différentes longueurs d’onde et créant ainsi les couleurs de l’arc-en-ciel.

Sur Terre, cet effet de gloire est généralement observé depuis un point situé au-dessus de la surface terrestre, comme une montagne, un avion ou un satellite, lorsque les conditions atmosphériques sont favorables. Il est souvent associé à des phénomènes météorologiques tels que les nuages, le brouillard ou la brume.

Une première détection au-delà du système solaire ?

En dehors de notre planète, ce phénomène n’avait jusqu’à présent été observé que sur un autre astre, Vénus, d’où l’intérêt de cette possible découverte. Des astronomes annoncent en effet avoir identifié l’un de ces effets sur la géante gazeuse WASP-76b. Il s’agit d’une exoplanète située à plus de 600 années-lumière de la Terre et qui est connue pour ses températures extrêmement élevées.

Les chercheurs soulignent que la détection de cette gloire extrasolaire n’a été possible que grâce à des conditions très particulières. En effet, il faut que la lumière soit réfléchie par des particules atmosphériques presque parfaitement sphériques et uniformes, sous l’éclat direct d’une étoile similaire au Soleil, avec l’observateur situé dans une position idéale.

La possible présence de cette gloire extrasolaire élargit ainsi notre compréhension des phénomènes atmosphériques au-delà des limites de notre système solaire. Cela pourrait également avoir des implications importantes pour la recherche future sur les exoplanètes et la possibilité de détecter des signes de vie au-delà de notre système solaire. En effet, comprendre les phénomènes atmosphériques complexes qui se produisent sur des planètes situées à des distances extrêmes de la Terre pourrait nous aider à identifier des conditions favorables à la vie dans l’univers.

Les scientifiques soulignent cependant que des recherches supplémentaires sont nécessaires pour confirmer de manière concluante la présence de cette gloire extrasolaire sur WASP-76b. Des observations de suivi avec des instruments tels que NIRSPEC, à bord du télescope spatial James Webb, pourraient apporter des preuves supplémentaires et approfondir notre compréhension de ce phénomène fascinant.

Une fenêtre sur les mystères des atmosphères extraterrestres

La détection potentielle de cet effet de gloire sur WASP-76b ouvre une nouvelle voie pour explorer les atmosphères des exoplanètes. En analysant ces phénomènes optiques rares, les chercheurs espèrent mieux comprendre la composition chimique, les dynamiques atmosphériques et les interactions lumière-particules dans des environnements extrêmes. Ces découvertes pourraient également servir de modèles pour identifier des signatures similaires sur d’autres mondes, y compris ceux susceptibles d’abriter des formes de vie. Ce type de recherche marque un pas de plus vers une compréhension globale des processus atmosphériques dans l’univers.

Les détails de l’étude sont publiés dans la revue Astronomy & Astrophysics.

Référence

A&A Volume 684, April 2024

Asymmetry in the atmosphere of the ultra-hot Jupiter WASP-76 b,★★

O. D. S. Demangeon

https://doi.org/10.1051/0004-6361/202348270

Received: 13 October 2023 Accepted: 16 January 2024

Abstract

Context. WASP-76 b has been a recurrent subject of study since the detection of a signature in high-resolution transit spectroscopy data indicating an asymmetry between the two limbs of the planet. The existence of this asymmetric signature has been confirmed by multiple studies, but its physical origin is still under debate. In addition, it contrasts with the absence of asymmetry reported in the infrared (IR) phase curve.

Aims. We provide a more comprehensive dataset of WASP-76 b with the goal of drawing a complete view of the physical processes at work in this atmosphere. In particular, we attempt to reconcile visible high-resolution transit spectroscopy data and IR broadband phase curves.

Methods. We gathered 3 phase curves, 20 occultations, and 6 transits for WASP-76 b in the visible with the CHEOPS space telescope. We also report the analysis of three unpublished sectors observed by the TESS space telescope (also in the visible), which represents 34 phase curves.

Results. WASP-76 b displays an occultation of 260 ± 11 and 152 ± 10 ppm in TESS and CHEOPS bandpasses respectively. Depending on the composition assumed for the atmosphere and the data reduction used for the IR data, we derived geometric albedo estimates that range from 0.05 ± 0.023 to 0.146 ± 0.013 and from <0.13 to 0.189 ± 0.017 in the CHEOPS and TESS bandpasses, respectively. As expected from the IR phase curves, a low-order model of the phase curves does not yield any detectable asymmetry in the visible either. However, an empirical model allowing for sharper phase curve variations offers a hint of a flux excess before the occultation, with an amplitude of ~40 ppm, an orbital offset of ~ −30°, and a width of ~20º. We also constrained the orbital eccentricity of WASP-76 b to a value lower than 0.0067, with a 99.7% confidence level. This result contradicts earlier proposed scenarios aimed at explaining the asymmetry observed in high-resolution transit spectroscopy.

Conclusions. In light of these findings, we hypothesise that WASP-76 b could have night-side clouds that extend predominantly towards its eastern limb. At this limb, the clouds would be associated with spherical droplets or spherically shaped aerosols of an unknown species, which would be responsible for a glory effect in the visible phase curves.


01/12/2014 La fin de l’univers.

Il finira bien un jour par disparaître comme toutes les réalités de ce monde. Mais finira-t-il dans un effondrement final (big crunch) ou par une lente dispersion de ses éléments (big rip) ?

Aujourd’hui, des cosmologistes tels John Ellis du King’s College London envisagent que l’univers puisse disparaitre du fait d’un grand avalement (big slurp). L’avalement en question résulterait d’une fluctuation quantique qui provoquerait une bulle. Celle-ci parcourrait l’univers, telle une vague de marée engloutissant tout sur son passage.

Si ceci ne s’est pas encore produit, c’est sans doute parce qu’une force physique venant d’être mise en lumière, dite des champs quantiques, stabilise encore l’univers. Les champs quantiques sont les éléments fondamentaux qui donnent naissance aux particules et aux forces du modèle standard de la physique des particules. Le plus important d’entre elles est le champ de Higgs, qui associé au boson de Higgs récemment découvert, donne leur masse aux particules.

Ce fut une surprise quand le Higgs, longtemps suspecté, fut finalement identifié au Large Hadron Collider du Cern à Genève en 2012. L’étude immédiatement entreprise du champ du Higgs montra que si celui-ci n’était pas stable cela était du au fait qu’il n’était pas à son plus faible niveau d’énergie possible. Autrement dit il pourrait trouver un niveau d’énergie encore plus bas en entrant dans un processus dit de transition de phase. Ce processus est analogue à celui grâce auquel des bulles de vapeur d’eau chaude se forment au fond d’un récipient où de l’eau commence à bouillir.

Dans le cas des bulles qui se forment dans des champs quantiques, des phénomes étranges peuvent se produire au fur et à mesure de leur formation. Ainsi les champs quantiques peuvent basculer brutalement, redéfinissant les lois de la physique qui s’y appliquent localement et provoquant un chaos général. De plus ces bulles se développeraient à une vitesse proche de celle de la lumière, absorbant tout ce qui se trouverait sur leur passage.

L’apparition d’une telle bulle n’est pas obligée. Elle tient au hasard. A titre analogique, on peut se représenter le champ de Higgs comme un ballon se trouvant au sommet d’une colline dotée de plusieurs vallées en descendant. Le ballon peut rouler le long de la pente et s’arrêter dans l’une de ces vallées, même si ce n’est pas la plus basse.

C’est la situation dans laquelle le champ de Higgs se trouve actuellement. On parle d’état métastable. Mais parce que ce champ se conforme aux règles de la mécanique quantique, il peut mystérieusement emprunter un tunnel de moindre énergie. Il est possible d’évaluer les probabilités d’un tel changement mais non de préciser la date à laquelle il se produirait.

La stabilité du champ de Higgs dépend de la façon dont les autres particules élémentaires interagissent avec lui. Les bosons, portant les forces fondamentales, tendent à stabiliser le champ. Les fermions, qui sont les constituants de la matière, tels les quarks, rendent le champ moins stable, faisant courir le risque d’une transition de phase.

Les récentes mesures de ces particules au LHC ne sont pas rassurantes. Il apparaît de plus en plus que le Higgs est métastable. Autrement dit, l’univers paraît condamné. Il est difficile de prévoir quand le big slurp se produira, dans des milliards d’années ou bien plus tôt. De nombreux facteurs font penser que des champs gravitationnels puissants pourraient traverser le champ  de Higgs, le rendant proche d’une transition de phase. Ainsi, lorsque l’on fait bouillir de l’eau, les impuretés se trouvant dans celle-ci accélèrent l’ébullition..

Or de nombreuses impuretés se trouvent dans le Higgs. On cite en général les cordes cosmiques et les trous noirs. Les cordes cosmiques sont d’étroits fils de matière, récemment découverts, longs de plusieurs années lumière, qui perturbent les forces gravitationnelles en reliant les galaxies entre elles.

(à suivre)

Voir Volatile Cosmology, NewScientist, 23 nov. 24, p.33

30/11/2014 Les disques durs quantiques se rapprochent de la réalité pratique

L’informatique quantique est souvent décrite comme l’une des technologies les plus prometteuses du vingt et unième siècle. Capables de résoudre des problèmes d’une complexité impossible pour les ordinateurs classiques, ces ordinateurs du futur pourraient en effet transformer des domaines comme la cryptographie, la recherche médicale, les sciences des matériaux et l ‘informatique militaire tenue au secret. Cependant, cette révolution se heurte à une difficulté majeure : la gestion des erreurs dans les qubits, les unités d’information quantique.

Récemment, une équipe de chercheurs a franchi une étape décisive en développant une architecture qui pourrait permettre la création de disques durs quantiques capables de stocker de grandes quantités de données de manière fiable.

Le défi des qubits et des erreurs

Contrairement aux bits classiques, qui ne peuvent être que dans l’état 0 ou 1, les qubits exploitent les lois de la mécanique quantique pour exister dans plusieurs états à la fois, grâce à un phénomène appelé superposition. Cette propriété unique leur donne un potentiel de calcul iconsidérable, mais elle les rend également très fragiles. La moindre perturbation (un changement de température ou une interférence électromagnétique) peut modifier l’état d’un qubit et entraîner des erreurs dans les calculs.

Les qubits doivent donc être maintenus stables pendant les opérations, ce qui est un défi immense. Pour y parvenir, les chercheurs ont mis au point des systèmes de correction d’erreurs qui s’appuient sur des codes topologiques. Il s’agit de structures mathématiques complexes conçues pour protéger les données des qubits contre les perturbations. Ces codes organisent les qubits en réseaux ou en treillis où les erreurs peuvent être détectées et corrigées sans affecter les informations essentielles.

L’idée est d’exploiter les propriétés topologiques de ces réseaux pour rendre les systèmes plus fiables face aux aléas environnementaux. Cependant, ces méthodes présentent une limitation majeure : elles nécessitent un grand nombre de qubits physiques (ceux réellement présents dans la machine) pour stabiliser un seul qubit logique (celui qui contient l’information utile). En d’autres termes, pour chaque qubit logique, des dizaines, voire des centaines de qubits physiques doivent être mobilisés, ce qui alourdit considérablement la taille et la complexité des ordinateurs quantiques actuels. Cette contrainte rend difficile l’utilisation de ces machines pour des applications pratiques, freinant leur adoption à grande échelle.

C’est ici qu’intervient l’idée des chercheurs, publiée récemment dans la revue Nature Communications (cf. référence ci-dessous.) Ils ont développé une nouvelle architecture de correction d’erreurs basée sur un réseau tridimensionnel de qubits. Ce modèle utilise un code topologique avancé qui permet de corriger les erreurs non plus sur une seule ligne de qubits, mais sur des surfaces bidimensionnelles au sein de la structure 3D.

Cette approche augmente la capacité du système à gérer les erreurs, même à mesure qu’il grandit. En corrigeant les erreurs sur des surfaces plus larges, l’architecture devient non seulement plus efficace, mais également plus compacte. Cela signifie qu’elle nécessite moins de qubits physiques pour stabiliser le système, ce qui libère ainsi davantage de ressources pour les calculs et réduit la taille relative globale des ordinateurs quantiques.

De plus elle ouvre la voie à un concept longtemps attendu : celui de systèmes de mémoire quantique fiables et compacts, souvent surnommés disques durs quantiques. Ces dispositifs pourraient stocker des quantités massives de données quantiques tout en minimisant les pertes liées aux erreurs. Cela permettrait non seulement de conserver les informations quantiques sur de longues périodes, mais aussi de les transférer efficacement entre différents systèmes.

Les applications potentielles de cette technologie sont vastes. En cryptographie, elle pourrait renforcer la sécurité des données contre les cyberattaques futures. Dans la recherche scientifique, elle permettrait de simuler des molécules complexes avec une précision inégalée, ce qui accélérerait le développement de nouveaux matériaux ou médicaments. De plus, les progrès dans le stockage et la manipulation des données quantiques pourraient transformer des secteurs entiers, de la communication à l’intelligence artificielle.

Bien que cette avancée soit majeure, elle ne marque pas la fin du chemin. De nombreux défis restent à relever avant de pouvoir construire un ordinateur quantique universel pleinement fonctionnel. Ces machines, capables d’exécuter n’importe quel type de calcul, nécessiteront des systèmes encore plus robustes et efficaces pour gérer les qubits et les données qu’ils contiennent.

Cependant, cette nouvelle architecture constitue un pas décisif. En réduisant la quantité de qubits nécessaires pour corriger les erreurs, elle libère des ressources qui pourront être consacrées à des calculs complexes, ce qui rapproche ainsi les ordinateurs quantiques de leur potentiel réel. Bien plus elle pourrait transformer la manière dont les ordinateurs quantiques sont construits et utilisés.

Référence

Layer codes

  • Published: 04 November 2024
  • a

Nature Communications 
volume15, Article number: 9528 (2024) 

  • Abstract

Quantum computers require memories that are capable of storing quantum information reliably for long periods of time. The surface code is a two-dimensional quantum memory with code parameters that scale optimally with the number of physical qubits, under the constraint of two-dimensional locality. In three spatial dimensions an analogous simple yet optimal code was not previously known. Here we present a family of three dimensional topological codes with optimal scaling code parameters and a polynomial energy barrier. Our codes are based on a construction that takes in a stabilizer code and outputs a three-dimensional topological code with related code parameters. The output codes are topological defect networks formed by layers of surface code joined along one-dimensional junctions, with a maximum stabilizer check weight of six. When the input is a family of good quantum low-density parity-check codes the output codes have optimal scaling. Our results uncover strongly-correlated states of quantum matter that are capable of storing quantum information with the strongest possible protection from errors that is achievable in three dimensions.

30/11/2024. La France et ses valeurs

L’État islamique (appelé aussi Daech est une organisation terroriste politicomilitaire, d’idéologie salafiste djihadiste ayant proclamé le 29 juin 2014 l’instauration d’un califat sur les territoires sous son contrôle. De l’été 2014 au printemps 2019, il forme un proto-État en Irak et en Syrie où il met en place un système totalitaire.

Alors que le Moyen-Orient vit au rythme des tensions entre Israël et l’Iran depuis le raid sans précédent du Hamas sur le sol de l’État hébreu, le 7 octobre, les combattants de l’organisation djihadiste État islamique (EI, ou Daech, acronyme du nom arabe) ont redoublé leur rythme d’attaques en Syrie et en Irak cette année”, fait remarquer The Wall Street Journal.

Cent cinquante-trois attentats au cours des six premiers mois de 2024 ont été perpétrés par des cellules de combattants “ciblant des points de contrôle, faisant exploser des voitures piégées et complotant pour renverser les autorités en place.

L’objectif de l’EI est le même dans toute l’Europe et notamment en France. Selon les rapports officiels un certain nombre de communes françaises constatent désormais que de plus en plus de jeunes français musulmans se font proposer de participer à la mise en place en France d’ associations se référant aux objectifs de l’EI.

La France pourtant ne manquent pas de valeurs susceptibles de mobiliser sa jeunesse. Ces derniers jours la reconstruction de la cathédrale Notre Dame de Paris, qui a fait appel des milliers de compétences très diverses, en a donné l’exemple. Chacun peut s’en persuader, non seulement en visitant ce monument multi centenaire, mais grâce aux images qui circulent dorénavant sur Internet.

Mais la France n’est pas seulement celle de ses Cathédrales. C’est aussi le pays qui joue un rôle essentiel au Centre Européen de Recherche Nucléaire (CERN) pour la mise en place du futur Collisionneur circulaire de particules, dont les performences seront très supérieurs à celles de l’actuel Grand collisionneur de hadrons (en anglais : Large Hadron Collider — LHC) mis en fonction en 2008 au CERN 

L’étude de faisabilité du FCC en cours, dont l’achèvement est prévu en 2025, vise à déterminer la viabilité technique et financière du FCC au CERN, en s’intéressant en particulier aux aspects géologiques, à l’impact environnemental, à la conception des infrastructures, au génie civil et aux détecteurs, ainsi qu’à la R&D sur les technologies devant assurer l’efficience et la durabilité des collisionneurs proposés.

On prévoit un nouveau tunnel d’une circonférence de 90,7 km, d’une profondeur moyenne de 200 m, et huit sites en surface pour au plus quatre expériences. Le tunnel abriterait initialement le FCC-ee, un collisionneur électron-positon permettant des mesures de précision dans le cadre d’un programme de recherche mené sur une période 15 ans à compter du milieu de la décennie 2040. Une deuxième machine, le FCC-hh, serait alors installée dans le même tunnel, réutilisant ainsi l’infrastructure existante, comme lorsque le LHC a remplacé le LEP. Le FCC-hh vise à atteindre des énergies de collision de 100 TeV, en faisant entrer en collision des protons et également des ions lourds ; il pourrait être en service jusqu’à la fin du 21 e siècle. 

https://www.lemonde.fr/sciences/article/2024/02/25/naissance-d-un-futur-accelerateur-de-particules-geant-pour-l-infiniment-petit_6218516_1650684.html