15/12/2024 François Bayrou Premier ministre

François Bayrou, né le 25 mai 1951 à Bordères, est un homme d’État et essayiste français. Il est Premier ministre depuis le 13 décembre 2024. Précédemment il exerçait les fonctions de Haut Commissaire au Plan. Wikipédia

Depuis sa création en septembre 2020, le HCP a publié 18 études en propre, appelées « notes stratégiques ».

Sur ce sujet, nous lisons dans le Rapport d’information n° 764 (2023-2024), déposé le 18 septembre https://www.senat.fr/rap/r23-764/r23-764.htm le jugement suivant

Notes stratégiques publiées par le Haut Commissariat au plan

UNE CONTRIBUTION DU HCP AUX POLITIQUES PUBLIQUES TRÈS MITIGÉE QUI APPELLE À UNE RATIONALISATION ET À UNE ORGANISATION CLARIFIÉE DES ORGANES DE PROSPECTIVE ET DE PLANIFICATION

DES CHOIX DE SUJETS QUI PEUVENT ÉTONNER,

UNE RÉFLEXION PROSPECTIVE DONT L’HORIZON TEMPOREL DEMEURE CENTRÉ SUR LE MOYEN TERME,

UNE PLANIFICATION QUI RESTE GÉNÉRALEMENT EMBRYONNAIRE
Une vingtaine d’études réalisées en quatre ans de fonctionnement

Depuis sa création en septembre 2020, le HCP a publié 18 études en propre, appelées « notes stratégiques ».

À ces travaux s’ajoutent un rapport corédigé par le HCP et le think tank Matières Grises, « Quand les babyboomers auront 85 ans » (janvier 2023), et deux rapports rédigés sur sa commande, l’un par la mission d’appui IGAS/CGEIET, « Les vulnérabilités d’approvisionnement en produits de santé » (décembre 2021), l’autre par le Conservatoire national des arts et métiers, « Dynamique économique et réindustrialisation durables des territoires » (janvier 2022).

Liste des travaux publiés en propre par le HCP depuis sa création

Et si la Covid durait ? (octobre 2020)
Produits vitaux et secteurs stratégiques : comment garantir notre indépendance ? (décembre 2020)
Face à la dette Covid, une stratégie de reconquête (février 2021)
Électricité : le devoir de lucidité (mars 2021)
Démographie : la clé pour préserver notre modèle social (mai 2021)
L’agriculture : enjeu de reconquête (juillet 2021)
La France est-elle une grande puissance agricole et alimentaire ? (juillet 2021)
Les agriculteurs (juillet 2021)
Consommation et pratiques alimentaires de demain : quelle incidence sur notre agriculture ? (octobre 2021)
Reconquête de l’appareil productif : la bataille du commerce extérieur (décembre 2021)
Médicaments : identifier nos vulnérabilités pour garantir notre indépendance (février 2022)
Responsabilité climatique – La géothermie de surface : une arme puissante (octobre 2022)
Retraites : une base objective pour le débat civique (décembre 2022)Vieillissement de la société française : réalité et conséquences (février 2023)La bataille du commerce extérieur – Données 2022 (mai 2023)
La grande transformation du travail : crise de la reconnaissance et du sens du travail (octobre 2023)
Le développement de l’aquaculture : un enjeu de souveraineté alimentaire (novembre 2023)
La prise en charge des troubles psychiques et psychologiques (juin 2024)

Source : site internet du HCP

14/12/2024 Faut-il arrêter les recherche sur les bactéries miroir ?

Rappelons que le 21 mai 2010, la revue américaine Science s’était fait l’écho d’une avancée majeure dans le domaine scientifique : une équipe de recherche en biotechnologie dirigée par le biologiste américain John Craig Venter annonçait la mise au point de« la première cellule contrôlée par un génome synthétique ».

Référence
https://www.science.org/doi/10.1126/science.1190719
Voir aussi
https://www.slate.fr/story/21757/adn-genome-synthese-john-craig-venter

Autrement dit, il s’agissait de fabriquer, par synthèse chimique, l’ADN entier d’une bactérie afin de démontrer qu’elle fonctionne normalement. On parle de biologie synthétique. Mais 15 ans après les inquiétudes s’accumulent.

Un objet est chiral s’il n’est pas superposable à son image dans un miroir. L’exemple le plus courant est la main gauche et la main droite, qui ne peuvent pas être superposées de manière identique.

Or aujourd’hui une alerte sans précédent vient d’être lancée par un groupe de 38 scientifiques de renom, dont plusieurs prix Nobel. Leur message est clair : il faut arrêter immédiatement toute recherche visant à créer des “bactéries miroir”, une forme de vie synthétique qui pourrait représenter une menace existentielle pour la vie sur Terre.

Les bactéries miroir sont des organismes synthétiques dont toutes les molécules biologiques sont l’exact reflet des molécules naturelles, mais inversées comme si elles étaient vues dans un miroir.

Dans la nature, les molécules qui composent le vivant ont une orientation précise, par exemple, l’ADN est composé de molécules “droitières”, les protéines sont faites  d’acides aminés “gauchers”…etc. Cette orientation spécifique, appelée chiralité, est commune à toutes les formes de vie sur Terre.

Une bactérie miroir artificielle serait équivalente a une bactérie normale, sauf qu’elle serait construite avec des versions inversées de toutes ses molécules.

Mais pourquoi fabriquer des bactéries miroirs ? Pour mieux comprendre comment les bactéries naturelles fonctionnent et le cas échéant, améliorer leur fonctionnement

Des bactéries comme E-coli se propulsent à l’aide d’une assemblée de flagelles en rotation attachées à leur corps.  La chiralité de leurs flagelles leur permet de briser la symétrie et ainsi de nager en absence d’inertie. L’ensemble corps et flagelles constitue aussi une forme complexe qui en présence d’écoulements peut induire des réorientations de bactéries. Ainsi les bactéries nageant à contre-courant sous certaines conditions le long de surfaces peut entrainer des contaminations sur des distances longues. Des trajectoires oscillantes ou une dérive vers la droite ou la gauche sont aussi observées et liés à la chiralité des flagelles. La compréhension de ces phénomènes permet de développer des applications biomédicales ou de dépollution des sols.

Aujourd’hui un rapport, paru dans la revue Science et référencé ci-dessous, appelle à un encadrement strict ou une suspension temporaire des recherches. Le manque de régulation internationale est également regretté : “Nous jouons avec des forces que nous ne comprenons pas encore totalement”, avertissent les auteurs.

Les scénarios hypothétiques rappelés par eux sont variés et préoccupants. Une dissémination accidentelle pourrait provoquer des perturbations dans les cycles biologiques naturels, rendant certaines ressources alimentaires ou énergétiques instables. Pire encore, ces organismes, conçus pour être résistants, pourraient servir à des fins malveillantes, notamment dans le cadre de la bioterrorisme.

Ces risques justifient les appels répétés à une pause dans ces recherches afin d’évaluer leurs conséquences potentielles. Les chercheurs insistent sur la nécessité de procéder avec prudence, malgré l’attrait des bénéfices scientifiques et économiques.

Les risques sont majeurs :

– Résistance aux antibiotiques : Les médicaments actuels seraient probablement inefficaces contre ces organismes inversés. Une infection par une bactérie miroir pourrait donc être impossible à traiter.

Le Professeur Vaughn Cooper de l’Université de Pittsburgh résume ainsi la situation : “Une bactérie miroir synthétisée serait non seulement invisible pour les animaux et les plantes, mais aussi pour les autres microbes, y compris les virus qui pourraient l’attaquer et la tuer.

Les molécules miroir présentent évidemment des applications potentiellement intéressantes, notamment le développement de nouveaux médicaments plus résistants à la dégradation, la création de systèmes de production biologiques plus efficaces et offrant des avancées dans la compréhension fondamentale de l’origine de la vie. Ces applications peuvent d’ailleurs être poursuivies sans créer de bactéries miroir complètes.

La recherche sur les bactéries “miroirs” soulève un défi : où tracer la limite entre innovation et sécurité ? Les opinions divergent parmi les scientifiques. Tandis que certains défendent une avancée prudente mais continue, d’autres appellent à une pause immédiate jusqu’à ce que les risques soient mieux compris.

Ce désaccord reflète un dilemme plus large : les avancées scientifiques devraient-elles toujours être poursuivies, quel que soit leur potentiel danger ? Dans le cas des formes de vie chirales, la nature même de ces bactéries soulève des questions fondamentales sur la manière dont nous interagissons avec des systèmes biologiques artificiels.

L’absence de régulation uniforme est particulièrement préoccupante. Si certains pays imposent des protocoles stricts, d’autres laissent ces recherches avancer sans cadre clair. Cette disparité augmente le risque de mauvais usages ou d’accidents.

Des organismes comme l’ONU et l’Organisation mondiale de la santé sont sollicités pour élaborer des conventions internationales. Ces cadres pourraient imposer des limites sur le type d’expérimentations autorisées et définir des protocoles de confinement solides pour prévenir toute dissémination accidentelle. La mise en place de telles régulations est devenue une priorité absolue pour éviter des conséquences irréversibles.

Face aux incertitudes, un appel à une pause mondiale dans les recherches sur les bactéries “miroirs” a été lancé par une coalition de scientifiques influents. Ils estiment que cette pause est essentielle pour permettre un dialogue approfondi sur les risques et bénéfices de ces recherches. Ce moratoire temporaire pourrait également encourager le développement de technologies de sécurité adaptées.

C’est pourquoi les chercheurs ne demandent pas d’arrêter toute recherche sur les molécules miroir, mais de tracer une ligne claire à ne pas dépasser: pas de création d’organismes miroir complets !! Cette position est d’autant plus remarquable qu’elle vient de scientifiques experts en biologie synthétique, qui défendent habituellement la liberté de la recherche.

Cependant, des progrès significatifs ont déjà été réalisés comme la synthèse de grosses molécules miroir fonctionnelles. Il y a également eu des premiers pas vers la création de cellules synthétiques et un développement d’outils de biologie synthétique toujours plus performants.

Compte tenu de  ces risques qui pourraient détruire toute vie sur Terre, les chercheurs demandent :

L’arrêt immédiat de toute recherche visant à créer des bactéries miroir

L’interdiction du financement de ces travaux

Un encadrement strict de l’utilisation des technologies connexes

Le lancement d’un dialogue mondial sur les risques et la gouvernance

Une fois encore, nous avons la possibilité d’anticiper et de prévenir une catastrophe biologique potentielle avant qu’elle ne se produise. Les chercheurs comparent les bactéries miroir à d’autres domaines de recherche interdits comme la variole vivante ou les essais nucléaires dans l’environnement – des exceptions nécessaires à la liberté de la recherche pour protéger l’humanité.

  1. Maintenant, disent les chercheurs saurons-nous tirer les leçons du passé et agir de manière préventive ? Ou attendrons-nous d’être confrontés à une catastrophe pour réagir ?

Référence

  • Confronting risks of mirror life

Katarzyna P. Adamalaand others

Science 12 Dec 2024

  • Abstract

All known life is homochiral. DNA and RNA are made from “right-handed” nucleotides, and proteins are made from “left-handed” amino acids. Driven by curiosity and plausible applications, some researchers had begun work toward creating lifeforms composed entirely of mirror-image biological molecules. Such mirror organisms would constitute a radical departure from known life, and their creation warrants careful consideration. The capability to create mirror life is likely at least a decade away and would require large investments and major technical advances; we thus have an opportunity to consider and preempt risks before they are realized. Here, we draw on an in-depth analysis of current technical barriers, how they might be eroded by technological progress, and what we deem to be unprecedented and largely overlooked risks (1). We call for broader discussion among the global research community, policy-makers, research funders, industry, civil society, and the public to chart an appropriate path forward.

Others have noted some dangers from mirror life (23), but a thorough analysis of risks has not previously been completed. The need for such an analysis has grown with advances in key enabling technologies. To address this gap, a group with diverse expertise qualitatively assessed the feasibility and risks of creating mirror bacteria, considering factors including the nature, magnitude, and likelihood of potential harms; the ease of accidental or deliberate misuse; and the effectiveness of potential countermeasures. Our group includes expertise in synthetic biology; human, animal, and plant physiology and immunology; microbial ecology; evolutionary biology; planetary life detection; biosecurity; global health; and policy-making and includes researchers who have held the creation of mirror life as a long-term aspirational goal. The findings are summarized below and detailed in a separately released, in-depth technical report (a cross-referenced version of this article is provided in the supplementary materials) (1). We focus on mirror bacteria, but many of the considerations might also apply to other forms of mirror life.

Our analysis suggests that mirror bacteria would likely evade many immune mechanisms mediated by chiral molecules, potentially causing lethal infection in humans, animals, and plants. They are likely to evade predation from natural-chirality phage and many other predators, facilitating spread in the environment. We cannot rule out a scenario in which a mirror bacterium acts as an invasive species across many ecosystems, causing pervasive lethal infections in a substantial fraction of plant and animal species, including humans. Even a mirror bacterium with a narrower host range and the ability to invade only a limited set of ecosystems could still cause unprecedented and irreversible harm.

Although we were initially skeptical that mirror bacteria could pose major risks, we have become deeply concerned. We were uncertain about the feasibility of synthesizing mirror bacteria but have concluded that technological progress will likely make this possible. We were uncertain about the consequences of mirror bacterial infection in humans and animals, but a close examination of existing studies led us to conclude that infections could be severe. Unlike previous discussions of mirror life, we also realized that generalist heterotroph mirror bacteria might find a range of nutrients in animal hosts and the environment and thus would not be intrinsically biocontained.

We call for additional scrutiny of our findings and further research to improve understanding of these risks. However, in the absence of compelling evidence for reassurance, our view is that mirror bacteria and other mirror organisms should not be created. We believe that this can be ensured with minimal impact on beneficial research and call for broad engagement to determine a path forward.

…..


13/12/2024 La survie du cerveau après la mort

L’article de Nature, dont nous publions ci-dessous les références et l’abstract, a été écrit en avril 2019 par une équipe de neuroscientifiques de l’Ecole de Médecine de Yale, aux Etats-Unis, dirigés par Zvonimir Vrselja. Ils réussirent à rétablir les fonctions, autrement à ressusciter, le cerveau d’un porc dit cochon domestique ou  Sus domesticus décapité quatre heures auparavant dans un abattoir voisin.

Ils injectèrent à cette fin dans les vaisseaux sanguins dudit cerveau un cocktail spécial d’agents de préservation. Ils virent alors le cerveau quitter l’état cadavérique dans lequel il se trouvait pour récupérer ses principales fonctions vitales élémentaires, qu’ils croyaient détruites en l’absence du flux sanguin habituel. Le cerveau n’était pas « vivant » mais il n’était pas « mort ».

Depuis, l’équipe de Yala applique cette technique à des cerveaux humains. Ils justifient ce risque compte tenu des considérables avantages qui en résulteront en cas de succès.

Parmi ceux-ci viendrait en premier la découverte de médicaments permettant de restaurer les principales fonctions d’un cerveau momentanément arrêté, à la suite d’une opération chirurgicale ou d’un accident.

Plus gravement se pose la question de savoir quand une personne est définitivement morte afin de n’arrêter les soins qu’à bon escient. Depuis les anciens Grecs, l’arrêt de la respiration était la preuve de la mort. Des chandelles ou de petits miroirs avaient été mis en service pour constater ce qu’il en était.

Qu’en sera-t-il dorénavant ? Vraisemblablement des techniques de sonde cervicale devront être utilisées dans les cas complexes, à moins de conserver les corps jusqu’à début de putréfaction comme cela se faisait souvent dans certains hôpitaux du passé.

Référence

Published: 17 April 2019

Restoration of brain circulation and cellular functions hours post-mortem

Nature  volume 568, pages 336–343 (2019)

  • Abstract

The brains of humans and other mammals are highly vulnerable to interruptions in blood flow and decreases in oxygen levels. Here we describe the restoration and maintenance of microcirculation and molecular and cellular functions of the intact pig brain under ex vivo normothermic conditions up to four hours post-mortem. We have developed an extracorporeal pulsatile-perfusion system and a haemoglobin-based, acellular, non-coagulative, echogenic, and cytoprotective perfusate that promotes recovery from anoxia, reduces reperfusion injury, prevents oedema, and metabolically supports the energy requirements of the brain. With this system, we observed preservation of cytoarchitecture; attenuation of cell death; and restoration of vascular dilatory and glial inflammatory responses, spontaneous synaptic activity, and active cerebral metabolism in the absence of global electrocorticographic activity. These findings demonstrate that under appropriate conditions the isolated, intact large mammalian brain possesses an underappreciated capacity for restoration of microcirculation and molecular and cellular activity after a prolonged post-mortem interval.

12/12/2024 De l’eau chaude sur la planète Mars jeune

Mars, la petite voisine de la Terre, serait parfaitement habitable par les Terriens si elle avait comme celle-ci conservé les océans dont elle était en partie couverte il y a 4,45 milliard d’années. De nos jours, hormis une poignée de possibles lacs saumâtres et aquifères souterrains, la majorité de l’eau de Mars est retenue dans les calottes polaires ou dans la glace enfouie sous la surface. Elle ne sera donc pas facilement accessible par de futurs colons.

Or une pierre retrouvée au Maroc qui fut arrachée du sol de Mars en 2011 par l’impact d’un météorite identifié sous la référence Northwest Africa 7034 révéla à l’étude qu’elle contenait de minuscules cristaux de zircon. Le zircon est un minéral du groupe des silicates, sous-groupe des nésosilicates. De composition ZrSiO4, c’est un silicate de zirconium naturel. Ses cristaux font partie des pierres fines de la joaillerie.

A l’étude, ce cristal de Zircon montra qu’il contenant aussi des traces de fer, d’aluminium et de sodium, nettement arrangées en couches analogues à de la peau d’oignon.

Ce type de zircon ne se forme que dans des processus hydrothermaux où de l’eau chaude apparaît lors de la formation des magmas et transporte ces métaux pour les déposer plus loin. Il y avait donc vraisemblablement beaucoup d’eau chaude sur Mars

Référence

Zircon trace element evidence for early hydrothermal activity on Mars

Jack Gillespie and others

Science Advances 22 Nov 2024 Vol 10, Issue 47

DOI: 10.1126/sciadv.adq36944 886

Abstract

Finding direct evidence for hydrous fluids on early Mars is of interest for understanding the origin of water on rocky planets, surface processes, and conditions essential for habitability, but it is challenging to obtain from martian meteorites. Micro- to nanoscale microscopy of a unique impact-shocked zircon from the regolith breccia meteorite NWA7034 reveals textural and chemical indicators of hydrothermal conditions on Mars during crystallization 4.45 billion years ago. Element distribution maps show sharp alternating zoning defined by marked enrichments of non-formula elements, such as Fe, Al, and Na, and ubiquitous nanoscale magnetite inclusions. The zoning and inclusions are similar to those reported in terrestrial zircon crystallizing in the presence of aqueous fluid and are here interpreted as primary features recording zircon growth from exsolved hydrous fluids at ~4.45 billion years. The unique record of crustal processes preserved in this grain survived early impact bombardment and provides previously unidentified petrological evidence for a wet pre-Noachian martian crust.

12/12/2024. Première image d’une étoile située à l’extérieur de la Voie lactée

Cette étoile nommée WOHG64 est de la catégorie des « super-géantes rouges» c’est-à-dire une étoile de l’ordre de 2000 masses solaires ayant presque épuisé son cœur d’hydrogène et qui se trouve entourée d’un nuage périphérique d’hydrogène en feu avant d’exploser en supernova. Elle est située à plus de 160.000 années lumière de nous, c’est-à-dire que nous la voyons telle qu’elle était il y a 160.000 ans, du temps de l’Homo Neandertalensis.

Elle appartient à une galaxie satellite de la Voie Lactée, le Grand Nuage de Magellan. Sa taille de 2.000 fois environ celle du soleil. Elle avait été découverte dans les années 1970. Elle était trop lointaine pour pouvoir alors être observée avec précision.

Aujourd’hui des astronomes de l’Université de Keele (UK) ont pu la photographier en utilisant le Very Large Telescope Interferometer situé dans le désert d’Atacama au Chili. Dans cette image ils ont pu examiner des détails qui correspondent en taille « à l’image d’un homme marchant sur la Lune vu de la Terre».

Cette étoile nommée WOHG64 est de la catégorie des « super-géantes rouges» c’est-à-dire une étoile de l’ordre de 2000 masses solaires ayant presque épuisée son cœur d’hydrogène et qui se trouve entourée d’un nuage périphérique d’hydrogène en feu avant d’exploser en supernova Elle est située à plus de 160.000 années lumière de nous, c’est-à-dire que nous la voyons telle qu’elle était il y a 160.000 ans, du temps de l’Homo Neandertalensis.

Elle appartient à une galaxie satellite de la Voie Lactée, le Grand Nuage de Magellan. Sa taille de 2.000 fois environ celle du soleil. Elle avait été découverte dans les années 1970. Elle était trop lointaine pour pouvoir alors être observée avec précision.

https://www.aanda.org/articles/aa/full_html/2024/11/aa51820-24/aa51820-24.html

11/12/2024. Le taux d’erreurs dans les calculateurs quantiques

Dans un article précédent récent, nous mentionnons la compétition qui oppose aujourd’hui IBM, Microsoft, Google et quelques start-up visionnaires pour être les premières à maîtriser les calculateurs quantiques en rendant acceptable leur taux d’erreurs

Voir https://europesolidaire.eu/2024/12/10/10-12-2024-une-prochaine-revolution-dans-le-calcul-quantique/

Aujourd’hui des chercheurs de Google ont publié dans Nature un article dont on trouvera ci-dessous les références et l’abstract.

Ils y indiquent avoir démontré expérimentalement pour la première fois qu’une prédiction théorique, faite il y a trente ans dans ce domaine, était juste. Les ordinateurs quantiques promettent, en effectuant des opérations différemment qu’avec les transistors utilisés par les microprocesseurs actuels, soit de résoudre des problèmes insolubles jusqu’à présent, soit d’accélérer certains calculs. Ce qui peut permettre, par exemple, de briser des codes de chiffrement, prédire des interactions entre molécules, accélérer la recherche sur les matériaux, les médicaments, la génétique…

Cette affirmation, même si elle exacte, laissent les spécialistes du secteur encore un peu sceptiques.

Un article récent du Monde, en témoigne. Voir
https://www.lemonde.fr/sciences/article/2024/12/09/google-relance-la-course-au-calcul-quantique_6438547_1650684.html

On y lit:

Le cassage des codes secrets et les autres promesses ne sont ni pour demain ni pour après-demain. La démonstration n’a pas été faite sur un vrai calcul, mais sur une mémoire, et consiste à répéter les étapes de lecture de sa valeur. Aucune manipulation du qubit n’a été tentée. Le taux d’erreur n’est pas si bas puisque des concurrents ont déjà obtenu de meilleurs qubits seuls. « Les progrès sont impressionnants si l’on regarde le chemin parcouru, mais minuscules si l’on regarde le chemin à parcourir. Maintenant, on rentre dans l’inconnu », prévient Xavier Waintal, du Commissariat à l’énergie atomique et aux énergies alternatives, à Grenoble.

Référence

nature

  • Article
  • Published: 09 December 2024
  • Quantum error correction below the surface code threshold
  • Google Quantum AI and Collaborators
  • Nature (2024)
  • Abstract
  • Quantum error correction [1, 2, 3, 4] provides a path to reach practical quantum computing by combining multiple physical qubits into a logical qubit, where the logical error rate is suppressed exponentially as more qubits are added. However, this exponential suppression only occurs if the physical error rate is below a critical threshold. Here, we present two below-threshold surface code memories on our newest generation of superconducting processors, Willow: a distance-7 code, and a distance-5 code integrated with a real-time decoder. The logical error rate of our larger quantum memory is suppressed by a factor of  when increasing the code distance by two, culminating in a 101-qubit distance-7 code with 0.143% ± 0.003% error per cycle of error correction. This logical memory is also beyond break-even, exceeding its best physical qubit’s lifetime by a factor of . Our system maintains below-threshold performance when decoding in real time, achieving an average decoder latency of 63 μs at distance-5 up to a million cycles, with a cycle time of 1.1 μs. We also run repetition codes up to distance-29 and find that logical performance is limited by rare correlated error events occurring approximately once every hour, or  cycles. Our results present device performance that, if scaled, could realize the operational requirements of large scale fault-tolerant quantum algorithms.

11/12/2024 Le sous-marin nucléaire d’attaque français Tourville et la seconde frappe

Le 16 novembre 2024, la Direction générale de l’armement (DGA) a réceptionné, à Brest, le Tourville, troisième des six sous-marins nucléaires d’attaque (SNA) réalisés dans le cadre du programme Barracuda. Le sous-marin a aussitôt été transféré à la Marine nationale.

Après avoir réussi les tests de ses équipements et de sa propulsion nucléaire, le Tourville a débuté une série d’essais en Manche avant de se diriger vers l’Atlantique pour poursuivre sa validation technique et opérationnelle. Ces essais visent à certifier toutes les capacités du sous-marin, de la manœuvrabilité à l’efficacité de son armement, en passant par la validation de ses systèmes de communication et de combat.

Un Programme à Long Terme

Le programme Barracuda prévoit la construction de six sous-marins nucléaires d’attaque, avec des livraisons échelonnées jusqu’en 2030. Chaque sous-marin de cette série promet des améliorations significatives en termes de vitesse, endurance et polyvalence, incluant la capacité à lancer des missiles de croisière pour des frappes à longue distance dites de seconde frappe.

L’objectif essentiel du maintien des capacités de seconde frappe consiste à empêcher les attaques de première frappe de détruire l’arsenal nucléaire d’un pays. De cette manière, ce pays peut exercer des représailles nucléaires même après avoir subi une attaque nucléaire. Les États-Unis et d’autres pays dont la France ont diversifié leurs arsenaux nucléaires dans le cadre de la 
triade nucléaire afin de mieux assurer la capacité de seconde frappe.

Les missiles balistiques lancés par des sous-marins sont la méthode traditionnelle mais très coûteuse de fournir une capacité de frappe secondaire, bien qu’ils aient besoin d’être appuyés par une méthode fiable permettant d’identifier l’attaquant. L’utilisation de SLBM en tant que seconde frappe pose un grave problème, les représailles d’un ICBM lancé par un sous-marin fait en sorte que le mauvais pays pourrait être ciblé et provoquer une escalade du conflit.

Cependant, la mise en œuvre de la seconde frappe est essentielle pour dissuader une première attaque. Les pays dotés d’armes nucléaires ont pour objectif principal de convaincre leurs adversaires qu’une première frappe ne vaut pas la peine de faire face à une seconde frappe. Ces pays ont de nombreux mécanismes de lancement, des réponses préparées à divers scénarios d’attaque nucléaire, des mécanismes de lancement dans de nombreuses régions du pays et des installations de lancement souterraines spécialement conçues pour résister à une attaque nucléaire.

Le lancement sur alerte est une stratégie de représailles contre les armes nucléaires qui a été reconnue pendant la Guerre froide entre l’Ouest et l’Est. En plus de la triade nucléaire, les pays déploient un système d’alerte précoce, qui détecte les missiles nucléaires qui arrivent. Cela donne à ces pays la capacité et la possibilité de lancer une seconde frappe de représailles avant que la première frappe nucléaire ne frappe l’une de ses cibles. C’est une autre méthode pour renforcer les capacités de seconde frappe et dissuader une première frappe d’une autre puissance nucléaire.

En raison de la faible précision (écart circulaire probable) des missiles balistiques intercontinentaux de première génération, en particulier des missiles balistiques lancés par des sous-marins, la seconde frappe n’était initialement possible que contre de très grandes cibles à contre-valeur non défendues, comme les villes.

Des missiles de dernière génération dotés d’une précision bien améliorée permettent des attaques de contre-force de deuxième frappe contre les installations militaires durcies de l’adversaire, ce qui est le cas concernant la France.

C’est cette perspective qui ferait sérieusement réfléchir les mollahs Iraniens au cas où ils envisageraient d’utiliser leur futur armement nucléaire contre la France.


11/12/2024 Le nouveau char de combat sud-coréen à hydrogène

Ce mode de propulsion étonnera vu les capacités explosives du gaz hydrogène.. Nous apprenons cependant que le nouveau modèle K3, dernière génération de la série K de chars de combat de la République de Corée, produits par Hyundai, intègre des piles à combustible hydrogène pour remplacer les moteurs diesel traditionnels.

Cette transition vers l’hydrogène représente un développement crucial non seulement pour améliorer l’efficacité énergétique mais aussi pour réduire considérablement l’empreinte thermique et sonore des chars sur le champ de bataille. Elle rend le K3 particulièrement adapté pour les opérations discrètes et les missions requérant un haut degré de furtivité.

De plus le K3 se distingue par un système de conduite autonome, des drones de soutien et un nouveau canon principal lisse de 130 mm. Ces innovations, combinées à un système de contrôle de tir basé sur l’intelligence artificielle, confèrent à ce char une capacité de frappe préventive accrue, cruciale dans les stratégies militaires modernes.

Le char est ainsi équipé pour prendre l’initiative sur le champ de bataille, en détectant et en engageant des cibles à des distances considérables avant même que l’ennemi ne soit conscient de sa présence.

Outre son efficacité énergétique supérieure, le char à hydrogène de Hyundai présente l’avantage d’une signature thermique réduite, ce qui le rend moins détectable par les systèmes de surveillance infrarouges ennemis. La technologie des piles à combustible permet également une réduction significative du bruit, améliorant ainsi la discrétion lors des manœuvres. Ces caractéristiques permettent au K3 de s’approcher furtivement des lignes ennemies.

Le design innovant du K3 facilite sa maintenance grâce à un nombre réduit de pièces mobiles et améliore sa capacité à franchir des terrains difficiles. Cette agilité est essentielle pour opérer dans des environnements variés et souvent imprévisibles, offrant ainsi une grande flexibilité opérationnelle sur le terrain. La réduction du besoin en maintenance régulière assure également une disponibilité maximale du char, crucial pour les engagements prolongés.

Le prix d’acquisition de ce nouveau char, au cas où le lecteur du présent article serait intéressé, ne nous a pas été révélé.

Sortie annoncée, 2035

10/12/2024 Une prochaine révolution dans le calcul quantique

Jusqu’à présent les gains de productivité apportés par le recours aux calculateurs quantiques, tels que la vitesse d’exécution, étaient compensés par des contraintes spécifiques à ces appareils. On citera notamment la taille à leur donner pour les rendre capables de réduire leurs erreurs, erreurs spécifiques dues notamment au fait que les qubits peuvent avoir une infinité de valeurs, au contraire des bits ordinaires dont la valeur ne peut être que un ou zéro.

Cependant récemment IBM, Microsoft et Atom Computers ont annoncé que leurs machines bénéficiaient désormais de progrès décisifs.

IBM

IBM a annoncé deux nouvelles puces quantiques, Condor et Heron, avec respectivement 1121 et 133 qubits2La puce R2 Heron intègre 156 qubits dans une structure unique, disposés dans un réseau hexagonal pour une exécution rapide des calculs

Après avoir introduit les processeurs quantiques Eagle en 2021 (127 qubits) et Osprey (433 qubits) en 2022, IBM annonce maintenant l’arrivée de ses nouvelles puces baptisées Condor et Heron, avec respectivement 1121 et 133 qubits. Ces nouveaux processeurs ont notamment permis de démontrer que le nombre de qubits ne reflète pas forcément la performance globale.

IBM considère que le calcul quantique jouera un rôle central dans le développement des systèmes informatiques de haute performance

Lors du dernier IBM Quantum Summit, l’entreprise a annoncé des avancées significatives qui la rapprochent de cette vision. Elle a révélé deux nouveaux processeurs, Heron et Condor.

Le processeur Condor se démarque par une quantité record de qubits : 1121. Il est doté d’une technologie de porte à résonance croisée. Il s’agit d’une méthode permettant d’obtenir des interactions entre qubits dans un circuit quantique. Elle est cruciale pour effectuer des opérations quantiques complexes. Dans ce nouveau processeur, IBM a réussi à augmenter de 50% la densité en qubits, une prouesse technique notable.

En contrepartie IBM souligne l’ampleur de l’infrastructure nécessaire pour gérer le Condor. En effet, plus de 1,6 kilomètre de câblage cryogénique haute densité est nécessaire. Ce dernier est essentiel pour maintenir les qubits à des températures extrêmement basses nécessaires à leur bon fonctionnement.

Malgré son nombre de qubits élevé, IBM note que les performances du Condor sont comparables à celles de l’Osprey, qui possède 433 qubits. Néanmoins, il est décrit comme une « étape majeure » en matière d’innovation, car il permettra d’influencer la conception hardware future. Autrement dit, les avancées réalisées avec Condor pourraient conduire à de nouvelles générations de processeurs quantiques, qui devraient être beaucoup plus performants.

IBM annonce également l’arrivée de Heron, une autre puce cette fois-ci dotée de « seulement » 133 qubits. Ce processeur possède malgré cela une caractéristique importante, un taux d’autocorrection d’erreurs élevé. Par exemple, comparé à Eagle (127 qubits), il est entre 3 à 5 fois plus performant sur ce plan.

Heron a aussi l’avantage d’être modulaire, ce qui signifie qu’il est possible de combiner plusieurs puces pour augmenter la capacité de traitement quantique globale. Par ailleurs, IBM a également présenté le Quantum System Two, un système composé de trois puces Heron. Déjà opérationnel dans un laboratoire à New York, il est conçu pour effectuer des exécutions de circuits parallèles, une fonction essentielle pour le supercalcul quantique.

Pendant plusieurs années, IBM a adopté une stratégie de développement qui visait à augmenter chaque année le nombre de qubits de ses processeurs chaque année. Mais dans son annonce, la firme semble maintenant vouloir se concentrer sur d’autres critères de performance, notamment la résistance aux erreurs.

Rappelons que les qubits sont extrêmement sensibles aux interférences extérieures, ce qui conduit à des erreurs de calcul. C’est pourquoi le développement de techniques de correction d’erreurs est crucial pour rendre les ordinateurs quantiques pratiques et fiables. Pour surmonter ce problème, les physiciens d’IBM ont développé une approche dans laquelle plusieurs qubits physiques sont rassemblés pour créer un seul « qubit logique ». Cette stratégie permettrait d’améliorer la précision et la fiabilité des calculs.

IBM a annoncé son intention de disposer d’un « nombre utile » de qubits logiques d’ici la fin de la décennie. Cette initiative s’inscrit dans sa feuille de route visant à développer davantage sa technologie de correction d’erreurs, essentielle pour réaliser des calculs quantiques plus avancés.

Microsoft

En avril, Microsoft et Quantinuum annonçaient des « qubits logiques les plus fiables jamais enregistrés ». Les deux partenaires utilisaient une technique bien connue dans le monde du quantique : associer des qubits physiques entre eux pour former des qubits logiques avec un taux d’erreur plus faible.

Un qubit n’est en effet pas l’élément le plus stablets « utiles » pour les calculs. Il faut d’ailleurs faire attention à cette distinction quand un fabricant annonce une machine avec xx qubits : sont-ils logiques ou physiques ? Multiplier le nombre de qubits physiques pour un seul qubit logique permet de limiter les erreurs, mais assembler et faire fonctionner de concert de nombreux qubits physiques est compliqué à mettre en œuvre. Il faut donc trouver un juste milieu.

Pour être complet, il manque néanmoins le nombre de portes quantiques que peut tenir la machine et/ou la durée d’utilisation des qubits pour des calculs. Ce sont également des paramètres importants pour cerner les capacités de l’ordinateur.

En informatique classique, les bits peuvent tenir dans le temps sans aucun problème, on peut donc réaliser de très longues opérations passant à travers énormément de portes logiques. En quantique, ce n’est pas aussi simple.

Microsoft n’est pas encore au bout du chemin, loin de là. La société est confrontée à un probléme : « le bruit reste notre plus grand obstacle », d’autant plus quand le nombre de qubits physiques augmente. Elle rappelle « à quel point l’augmentation du nombre de qubits physiques ne suffit pas à elle seule à rendre possible une correction d’erreur quantique robuste […] Cela sera possible grâce aux progrès matériels et logiciels qui, ensemble, permettront d’exécuter des applications quantiques plus longues et plus fiables ».

En guise de conclusion, Microsoft se montre pragmatique : « Un véritable changement de paradigme sur le calcul nécessite de se concentrer sur des applications pratiques et commercialement pertinentes ». Une manière de dire qu’empiler des qubits sans pouvoir l’exploiter derrière ne sert pas à grand-chose. L’informatique quantique est une réalité, elle fonctionne. Microsoft veut maintenant appliquer la théorie dans le monde réel.

Atom Computing

Contrairement à d’autres entreprises qui travaillent avec des ions, Atom Computing utilise des atomes neutres d’ytterbium, organisés dans une matrice et manipulés grâce à des lasers. La firme avait déjà annoncé avoir réussi à atteindre un temps de cohérence pour ses qubits de 40 secondes, ainsi que la capacité de mesurer l’état de qubits spécifiques pendant les calculs et ainsi détecter certaines erreurs, sans perturber les autres qubits.

Atom Computing a indiqué qu’il mettrait son ordinateur quantique au service des entreprises, des universités et des administrations dès 2024.

09/12/2024 Une nouvelle hypothèse concernant l’origine de la matière noire

Le Big Bang est une hypothèse scientifique qui décrit l’origine de l’univers, marquant le début de son expansion il y a environ 13,8 milliards d’années. Selon cette hypothèse, l’univers a commencé comme un point extrêmement chaud et dense de matière, lequel a ensuite explosé et s’est répandu. Il s’agit dans ce cas de matière ordinaire telle que nous la connaissons aujourd’hui. Mais dans une hypothèse plus récente, à cette matière ordinaire s’ajoutait une matière dite noire.

Celle-ci serait une forme supposée de matière qui n’émet pas et n’absorbe de lumière, ce qui la rend invisible. Elle ne serait détectable que du fait de son influence gravitationnelle sur la matière visible. Elle constituerait environ 27% de la masse-énergie de l’univers et aurait “explosé” en même temps que le reste de la matière durant le Big Bang. Du fait de sa masse et de l’effet gravitationnel de cette masse, elle jouerait un rôle essentiel dans les structures cosmiques en influençant la formation et le mouvement des galaxies.

Rappelons que proposée par le physicien Alan Guth en 1981, la théorie de l’inflation cosmique suggère que l’univers a connu une expansion rapide, augmentant sa taille de 10 puissance 26 fois en seulement 10 puissance -36 secondes. Ce phénomène a joué un rôle crucial en éliminant les irrégularités de la structure de l’univers, ce qui explique son apparence uniforme et homogène malgré son expansion continue.

Une nouvelle étude dont on trouvera ci-dessous les références et l’abstract avance l’hypothèse que l’inflation a également contribué à la formation de la matière noire à travers un processus appelé “freeze-in”. Contrairement aux modèles existants où les particules créées durant l’inflation se seraient rapidement dispersées, les chercheurs affirment que la matière noire a été produite et préservée durant cette phase.

Ils distinguent deux processus possibles pour la formation de la matière noire à partir du “bain thermique”, qui regroupe les particules interagissant à haute température durant la formation de l’univers.

Le premier, le “freeze-out”, suggère que la matière noire était en équilibre thermique avec la matière ordinaire, se figeant à mesure que l’univers refroidissait. C’est la vision traditionnellement partagée par les physiciens mais qui a été écartée par les auteurs de l’étude.

L’autre scénario, le “freeze-in”, propose que la matière noire n’a jamais été en équilibre thermique. Elle serait le résultat d’interactions énergétiques rares telles que comme celles impliquant le rayonnement UV

NB Le rayonnement ultraviolet est un rayonnement invisible qui émet dans la gamme de longueur d’onde de 100 à 400 nanomètres (nm). Un nanomètre représente un milliardième de mètre. Il a une longueur d’onde plus courte que la lumière visible et contient plus d’énergie.

Pendant l’inflation, le champ quantique responsable de l’inflation aurait perdu de l’énergie au profit de ce rayonnement UV, engendrant ainsi des particules de matière noire qui se sont ensuite “figées” dans l’univers en refroidissement.

NB Rappelons qu’en physique, on parle régulièrement de champs : champ magnétique, champ électrique, champ gravitationnel… Plus généralement, on peut même parler des « champs quantique », qui sont utilisés en physique quantique pour décrire le monde.

Ce qui distingue le modèle proposé par les auteurs de l’étude ci-dessous est que ces interactions se seraient produites avant le Big Bang, lors de l’expansion exponentielle de l’univers due à l’inflation. Cette perspective inverse l’idée traditionnelle selon laquelle l’inflation et le freeze-in se sont produits après le Big Bang.

Elle offre une nouvelle fenêtre sur les premiers instants de notre univers et souligne le rôle potentiel de la matière noire dans l’évolution cosmique précoce. Elle propose également des perspectives pour des recherches futures, concernant notamment la production d’autres particules qui auraient pu jouer un rôle crucial durant l’évolution de l’univers.

Référence

Dark Matter Production during Warm Inflation via Freeze-In

Katherine Freese1,2,3,*, Gabriele Montefalcone1,†, and Barmak Shams Es Haghi1,‡

  • Phys. Rev. Lett. 133, 211001 – Published 18 November, 2024

DOI: https://doi.org/10.1103/PhysRevLett.133.211001

Abstract

We present a novel perspective on the role of inflation in the production of dark matter (DM). Specifically, we explore the DM production during warm inflation via ultraviolet freeze-in (WIFI). We demonstrate that in a warm inflation (WI) setting the persistent thermal bath, sustained by the dissipative interactions with the inflaton field, can source a sizable DM abundance via the nonrenormalizable interactions that connect the DM with the bath. Compared to the (conventional) radiation-dominated (RD) UV freeze-in scenario for the same reheat temperature (after inflation), the resulting DM yield in WIFI is always enhanced showing a strongly positive dependence on the mass dimension of the nonrenormalizable operator. Of particular interest, for a sufficiently large mass dimension of the operator, the entirety of the DM abundance of the Universe can be created during the inflationary phase. For the specific models we study, we find that the enhancement in DM yield, relative to RD UV freeze-in, is at least an order of magnitude for an operator of mass dimension 5, and as large as 18 orders of magnitude for an operator of mass dimension 10. Our findings also suggest a broader applicability for producing other cosmological relics, which may have a substantial impact on the evolution of the early Universe.