21/11/2024 L’équation de Drake

L’équation de Drake ou formule de Drake, est une proposition mathématique qui estime le nombre potentiel de civilisations extraterrestre dans notre galaxien avec lesquelles nous pourrions entrer en contact. Le principal objet de cette équations est de déterminer ces facteurs, afin de connaître le nombre probable de ces civilisations. (source Wikipedia)

Cette formule a été suggérée par l’astronome américain Frank Drake en 1961 et concerne les sciences telles que l’exobiologie, la futurobiologie, l’astrosociologie, ainsi que le projet SETI.

Dans l’état actuel de nos connaissances, l’estimation de la plupart des paramètres de la formule reste très incertaine, si bien qu’en fonction des choix adoptés, le résultat peut être bien inférieur à 1 (auquel cas nous serions probablement les seuls êtres technologiquement avancés dans la Galaxie), ou au contraire atteindre plusieurs centaines ou milliers voire davantage.

Le principal intérêt de cette formule est donc, pour l’instant, de montrer qu’une question semblant relever de la science fiction peut être appréhendée de façon scientifique, et ramenée à l’estimation de paramètres astronomiques ou probabilistes définis.

Sept paramètres

L’équation de Drake dit que le nombre N probable de civilisations dans notre galaxie est égal au produit de sept paramètres :

N=R∗ × fp × ne × fl × fi × fc × L

  • R* est le nombre d’étoiles qui se forment annuellement dans notre galaxie ;
  • fp est la part des étoiles dotées de planètes ;
  • ne est l’espérance du nombre de planètes potentiellement propices à la vie par étoile ;
  • fl est la part de ces planètes où la vie apparaît effectivement ;
  • fi est la part de ces planètes où apparaît la vie intelligente ;
  • fc est la part de ces planètes capables et désireuses de communiquer ;
  • L est la durée de vie moyenne d’une civilisation, en années.

Ainsi, avec N>1 nous ne sommes probablement pas seuls. Si N est suffisamment grand, nous pourrions entrer en contact avec les civilisations extraterrestres les plus proches (une distance de x années-lumière implique un temps d’acheminement des signaux de x années).

Les scientifiques, de nos jours, ont des désaccords considérables sur les valeurs que peuvent prendre ces paramètres. Les valeurs utilisées par Drake et ses collègues en 1961 sont,

  • R* = 10 /an ;
  • fp = 0,5 ;
  • ne = 2 ;
  • fl = 1 ;
  • fi = fc = 0,01 ;
  • L = 10 000 ans.

Ce qui donne N = 10 civilisations en mesure de communiquer dans la Galaxie

Discussion

La valeur de R* est la moins discutable.

Celle de fp est plus incertaine mais plus constante que les autres valeurs.

Avant la découverte de nombreuses exoplanètes au début des années 2000, les scientifiques pensaient que ne était plus importante, mais la découverte de nombreuses géantes gazeuses aux orbites proches de leur étoile sème le doute sur les planètes qui peuvent être propices à une vie aussi rapprochée de leur étoile.

D’autres font cependant observer que l’échantillon des exoplanètes découvertes jusqu’à présent n’est absolument pas représentatif : il est normal de commencer par la détection des objets les plus gros, et les exoplanètes telluriques (rocheuses, semblables à la Terre) restent à découvrir.

De plus, la plupart des étoiles de notre galaxie sont des naines rouges, qui possèdent un faible rayonnement ultraviolet, rayonnement qui a contribué à l’évolution de la vie terrestre. Par contre, elles possèdent un violent rayonnement, principalement en rayons X, non favorable à la vie telle que nous la connaissons (des simulations suggèrent également que ce rayonnement érode l’atmosphère des planètes). La possibilité de vie sur des satellites de planètes géantes gazeuses (par exemple Europe, le satellite de Jupiter) renforce de manière incertaine ce cas de figure.

Au regard de la vie sur Terre, il est plausible que fl soit proche de un car la vie sur Terre semble avoir commencé presque immédiatement après que les conditions l’ont rendue possible, suggérant que l’abiogenèse est relativement facile une fois que les conditions sont favorables. Par ailleurs, on découvre sur Terre de plus en plus d’organismes vivants dits extrémophiles parvenant à survivre dans des conditions extrêmes (fonds marins, caldéras, environnement soufrés, etc.) Ce facteur n’en reste pas moins très discutable.

Une donnée qui aurait un impact majeur serait la présence controversée de vie (primitive) sur Mars indépendamment de la vie sur Terre, plaiderait en faveur d’une valeur élevée pour ce facteur.

fi, fc et L sont plus petits que supposés fi a été modifié depuis la découverte du fait que l’orbite du système solaire dans la Galaxie est circulaire et est restée en dehors du bras de la Galaxie pendant des centaines de millions d’années, évitant les radiations des novas. En outre, les satellites rares comme la Lune semblent contribuer à la conservation de l’hydrogène en brisant la croûte terrestre, provoquant une magnétosphère, par vagues de chaleur et de mouvements, et stabilisant l’axe de rotation de la planète.

De plus, puisqu’il semble que la vie se soit développée  juste après la formation de la Terre, l’explosion cambrienne dans laquelle une grande diversité de formes de vie multicellulaires s’est transformée en êtres pluricellulaires, apparaît un temps considérable après la formation de la Terre, ce qui suggère la possibilité que des conditions particulières sont nécessaires pour que cela arrive. Des scénarios, comme la Terre boule de neige, ou la recherche parmi les événements d’extinction ont suggéré la possibilité quevie sur Terre soit relativement fragile. Une fois encore, la controverse sur le fait que la vie soit apparue sur Mars, puis y ait disparu, affecterait les estimations de ces facteurs.

L’astronome Carl Sagan a conjecturé que les valeurs de tous les facteurs, hormis celle de la durée de vie d’une civilisation, doivent être relativement élevées, et le facteur déterminant est de savoir si une civilisation possède ou non la capacité technologique d’éviter l’auto-destruction. Dans le cas de Sagan, l’équation de Drake a été une motivation de son intérêt pour les problèmes environnementaux et son activité de communication sur les dangers des armes nucléaires.

À partir de l’année 2001, la valeur 50 peut être attribuée à R* avec le même degré de confiance dont Drake a usé en 1961 en lui donnant la valeur 10. ]La chose remarquable à propos de l’équation de Drake est que, en insérant des valeurs plausibles pour chaque paramètre, on obtient généralement une valeur N >> 1.

Ce résultat a été source de l’intérêt pour le projet SETI concernant la recherche de vies extraterrestres. Cependant, cela est en conflit avec la valeur observée de N = 1, soit une seule forme de vie intelligente dans la Voie lactée, la nôtre.

Ce conflit est aussi formulé dans le paradoxe de Fermi, celui-ci ayant été le premier à suggérer que notre compréhension de ce qu’est une valeur « conservative » (prudente) pour quelques paramètres peut être excessivement optimiste, ou que quelques autres facteurs peuvent intervenir en ce qui concerne la destruction d’une vie intelligente.

D’autres hypothèses donnent des valeurs de N inférieures à 1, mais quelques observateurs croient que c’est encore compatible avec les observations dues au principe anthropique : peu importe combien est basse la probabilité qu’une  galaxie donnée ait une vie intelligente, la galaxie dans laquelle nous nous trouvons doit avoir au moins par définition une espèce intelligente. Il pourrait y avoir des centaines de galaxies dans notre amas sans aucune vie intelligente, mais évidemment nous ne sommes pas dans ces galaxies pour observer ce fait.

Estimations actuelles des paramètres de l’équation de Drake

On tentera ici de lister les meilleures estimations à l’époque actuelle (2004) pour les paramètres de l’équation de Drake ; ils sont susceptibles de changer si de meilleurs résultats sont trouvés.

fc est la fraction de ces planètes désireuses de communiquer

R* est le taux de formation de nouvelles étoiles dans notre galaxie → estimé par Drake à dix par an : R* = 10 an−1

fp est la fraction de ces étoiles possédant des planètes → estimé par Drake à 0,5

ne est le nombre moyen de planètes par étoile potentiellement propices à la vie (avec l’indice e pour earth-like (« semblable à la Terre »)) → estimé par Drake à 2

fl est la fraction de ces planètes sur lesquelles la vie apparaît effectivement (avec l’indice l pour life (« vie »)) → estimé par Drake à 1. En 2002Charles H. Lineweaver et Tamara M. Davis (de l’université de Nouvelle-Galles du Sud et avec le Centre australien d’astrobiologie) ont estimé fl > 0,33 utilisant un argument statistique basé sur le temps qu’a mis la vie pour se développer sur Terre. Avec un temps déterminé approximativement 10 % des systèmes planétaires dans notre galaxie sont propices à la vie, ayant des éléments lourds, étant loin des supernovas et étant stables dans leur relations pendant une période suffisante.

fi est la fraction de ces planètes sur lesquelles apparaît une vie intelligente → estimé par Drake à 0,01. Cependant, les systèmes planétaires dans l’orbite galactique avec une exposition aux radiations aussi basse que le Système solaire sont plus de 100 000 fois plus rares.

fc est la fraction de ces planètes désireuses de communiquer



20/11/2024 Einstein s’est-il trompé?




La théorie de la relativité générale d’Einstein prédit que l’expansion de l’Univers ralentit avec le temps. Or, depuis 1998, on sait que l’expansion s’accélère depuis environ 5 milliards d’années. Il y a pour l’instant deux façons de résoudre ce problème : invoquer l’existence d’une énergie sombre invisible ou réviser les lois de la gravité à très grande échelle. Laquelle est la bonne ? Les deux sont-elles envisageables ? C’est ce que cherchent les cosmologistes depuis une trentaine d’années.

Dans le cadre d’une recherche récente dite Dark Energy Survey https://www.darkenergysurvey.org/ , une nouvelle étude a comparé les déformations de l’espace et du temps causées par les galaxies sur plusieurs milliards d’années. Résultat : les observations lointaines confirment Einstein, mais à des époques plus récentes, entre 3,5 et 5 milliards d’années, un écart apparaît. Ce désaccord est-il suffisant pour rejeter la relativité générale ?

Nous publions ci-dessous les références et l’abstract d’une étude qui vient de paraitre dans Nature Communications

  • Article
  • Published: 11 November 2024
Measurement of the Weyl potential evolution from the first three years of dark energy survey data

Nature Communications 

volume 15, Article number: 9295 (2024) 

  • Abstract

The Weyl potential, which is the sum of the spatial and temporal distortions of the Universe’s geometry, provides a direct way of testing the theory of gravity and the validity of the ΛCDM (Lambda Cold Dark Matter) model. Here we present measurement of the Weyl potential at four redshifts bins using data from the first three years of observations of the Dark Energy Survey. We find that the measured Weyl potential is 2 σ, respectively 2.8 σ, below the ΛCDM predictions in the two lowest redshift bins. We show that these low values of the Weyl potential are at the origin of the tension between Cosmic Microwave Background measurements and weak lensing measurements, regarding the parameter σ8 which quantifies the clustering of matter. Interestingly, we find that the tension remains if no information from the Cosmic Microwave Background is used. Dark Energy Survey data on their own prefer a high value of the primordial fluctuations, together with a slow evolution of the Weyl potential. An important feature of our method is that the measurements of the Weyl potential are model-independent and can therefore be confronted with any theory of gravity, allowing efficient tests of models beyond General Relativity.

Note

A titre exceptionnel, nous proposons ci-dessous, vu la complexité du sujet, une traduction de l’abstract

On nomme potentiel de Weyl la somme des distorsions de la géométrie de l’Univers dues à l’espace et au temps. Ces données procurent une façon directe de tester la théorie de la gravité et la validité du modèle dit Lambda Cold Dark Matter (ΛCDM). Ici nous présentons des mesures du potentiel de Weyl  dans quatre séries de données intéressant la déviation vers le rouge correspondant à trois ans d’observation réalidées par la Dark Energy Survey https://www.darkenergysurvey.org/

Nous constatons que les potentiels de Weyl mesurés sont 2 σ, respectivement 2.8 σ en dessous des prédictions de la  ΛCDM dans les deux séries les plus basses de déviation vers le rouge. Nous montrons que ces valeurs basses du potentiel de Weyl sont à l’origine des tensions entre les mesures du CMB Cosmic Microwave Background et les faibles tensions observées concernant le paramètre σ8 qui quantifie la densité de matière. . Nous avons constaté avec intérêt que la tension demeure identique si le CMB est utilisé.

Les données concernant l’observation de la matière noire (Dark Energy survey) préfèrent donner une valeur haute aux fluctuations primordiales, en même temps qu’une évolution lente du potentiel de Weyl. Un point important de notre méthode est que les mesures sont indépendantes du modèle et peuvent donc être comparées à toute théorie de la gravit, ce qui permet des tests efficaces des modèles autres que la Gravité Générale.

19/11/2024 Découverte d’un tétard géant fossilisé

Des scientifiques de l’Université Maimonides à Buenos Aires ont découvert en Argentine la plus vieux fossile connu d’un tétard géant qui vivait il y a plus de 160 millions d’années soit 20 millions d’années plus tôt que le dernier tétard identifié.

Ils ont trouvé, imprimés sur une plaque de grès, des morceaux de son crane et de sa colonne vertébrale ainsi que des impressions de ses yeux et de ses nerfs

Mais la façon dont ces tétards pouvaient évoluer pour donner des grenouilles ou anoures n’est pas connue.

Référence

Article

Published: 30 October 2024

Nature

The oldest tadpole reveals evolutionary stability of the anuran life cycle

Mariana Chuliver, and others

Abstract

Anurans (anoures) are characterized by a biphasic life cycle, with an aquatic larval (tadpole) stage followed by an adult (frog) stage, both connected through the metamorphic period in which drastic morphological and physiological changes occur1. Extant tadpoles exhibit great morphological diversity and ecological relevance2, but their absence in the pre-Cretaceous fossil record (older than 145 million years) makes their origins and early evolution enigmatic. This contrasts with the postmetamorphic anuran fossil record that dates back to the Early Jurassic and with closely related species in the Late Triassic (around 217–213 million years ago (Ma))3. Here we report a late-stage tadpole of the stem-anuran Notobatrachus degiustoi from the Middle Jurassic of Patagonia (around 168–161 Ma). This finding has dual importance because it represents the oldest-known tadpole and, to our knowledge, the first stem-anuran larva. Its exquisite preservation, including soft tissues, shows features associated with the filter-feeding mechanism characteristic of extant tadpoles4,5. Notably, both N. degiustoi tadpole and adult reached a large size, demonstrating that tadpole gigantism occurred among stem-anurans. This new discovery reveals that a biphasic life cycle, with filter-feeding tadpoles inhabiting aquatic ephemeral environments, was already present in the early evolutionary history of stem-anurans and has remained stable for at least 161 million years

18/11.2024. Nucléaire français. Le programme Aval du futur d’Orano




Le 8 octobre 2024, Orano a officialisé la signature de quatre partenariats stratégiques dans le cadre de son programme Aval du futur. Cet événement a eu lieu sur le site de la Hague, réunissant des personnalités influentes dans le domaine du nucléaire. Ces partenariats incluent des entreprises de renom telles que Capgemini, Egis, ECIA – une entité d’Equans France – et SNEF-EKIUM.

Il s’agit pour Orano de moderniser ses usines de traitement et de recyclage d’ici 2040-2050, en collaboration avec des acteurs clés du secteur nucléaire.

Pourquoi ce programme Aval du futur?

Le programme a plusieurs objectifs

Renouvellement des infrastructures nucléaires


Le programme Aval du futur vise à renouveler les infrastructures de traitement et de recyclage des combustibles usés à l’horizon 2040-2050. Comme l’avait annoncé Orano lors d’une visite ministérielle en mars 2024, cette initiative est cruciale pour l’avenir énergétique du pays. En parallèle, l’entreprise continue de garantir le bon fonctionnement de ses installations existantes grâce à un programme de pérennité et de résilience, couvrant les sites de la Hague et de Melox.

Lancement de nouvelles usines

L’un des axes majeurs de ce programme est le lancement d’études pour une nouvelle usine de fabrication de combustibles MOX (Mixed Oxide Fuel) sur le site de la Hague. Cette usine devrait commencer sa production au début des années 2040. De plus, une nouvelle unité de traitement des combustibles usés est également prévue d’ici 2045-2050, renforçant ainsi la capacité de traitement d’Orano dans le secteur.

Stratégie d’expansion de l’activité d’ingénierie

Dans le cadre de ces projets ambitieux, Orano prévoit de doubler les effectifs de son activité d’ingénierie, passant de 2 000 à 4 000 collaborateurs au cours des cinq prochaines années. L’entreprise s’engage à établir des partenariats solides basés sur la co-construction avec des acteurs clés de l’industrie nucléaire. Cela répond à une anticipation de croissance dans le domaine de l’ingénierie, essentielle pour réaliser ces projets complexes.

Les enjeux du programme

Les enjeux du programme sont à la fois techniques et stratégiques. Orano cherche à renforcer sa position dans le secteur nucléaire tout en contribuant à la transition énergétique du pays. Grâce à ces partenariats, l’entreprise vise à s’assurer que ses infrastructures répondent aux exigences de sécurité et de durabilité, tout en innovant dans les technologies de recyclage.

En augmentant ses capacités de production et en innovant dans ses méthodes de recyclage, Orano s’engage à répondre aux attentes croissantes en matière de gestion des déchets nucléaires et de fabrication de combustibles. Cela implique non seulement un investissement financier important, mais aussi un engagement à long terme envers l’innovation et la durabilité.

_____________________________________

Rappel. Qui est Orano ?

En octobre 2011, une lettre anonyme révélait un projet de protocole d’accord négocié en 2010 entre EDF et son homologue chinois, CGN, pour s’associer dans leurs futurs projets de centrales nucléaires en France, en Chine et dans le monde. L’entreprise chinoise exigeait des transferts de technologies.

Cependant à l’époque ces technologies appartenaient à Areva. EDF ne faisait que construire et exploiter les centrales. Le Premier ministre François Fillon avait bloqué l’accord in extremis. Mais les négociations ont continué

La Chine projetait de construire 200 centrales dans les trente prochaines années, un marché de plus de 200 milliards d’euros. Cela pouvait justifier aux yeux d’EDFde céder quelques technologies, d’autant que cette manœuvre affaiblirait Areva, un rival encombrant alors qu’EDF se voulait le seul représentant du nucléaire français à l’international.

Pour sa part, Areva était une multinationale française du secteur de l’énergie entre 2001 et 2018, œuvrant principalement dans le domaine de l’industrie nucléaire dont elle était l’un des leaders mondiaux.

Le groupe était présent dans la totalité des secteurs du nucléaire civil :
 –cycle du combustible nucléaire (extraction, concentration, raffinage, conversion et enrichissement de l’uranium, fabrication et transport d’assemblage combustiblegestion et retraitement des déchets nucléaires) ;
-conception et construction de réacteur nucléaire (tel que l’EPR, l’Atmea1, ou le Kerena), –démantèlement nucléaire

L’entreprise s’est aussi ouverte aux énergies renouvelables, à la production d’hydrogène, au stockage d’énergie et au transport et à la distribution d’électricité.

L’histoire d’Areva est marquée par des difficultés financières ainsi que plusieurs affaires politico-financières entrainant des achats et sessions d’actifs, ainsi que de nombreuses restructurations internes.

En 2016, Areva, alors en grande difficulté comptable et ébranlée par plusieurs affaires politico-financières, a été restructurée en trois entités :
New NP anciennement Areva NP 
New Areva anciennement Areva NC et Areva Mines 
Areva S.A. une holding remplissant le rôle de structure de défaisance des activités « à risque » d’Areva : finalisation du chantier et délivrance de l’EPR d’Olkiluoto , exécutions des derniers projets d’énergies renouvelables d’Areva, et finalisation de la cession de New NP à EDF.

Enfin, en janvier 2018 New NP redevient Framatome en étant racheté par EDF, et New Areva devient Orano, marquant la fin du groupe Areva

Orano est ainsi une entreprise française détenue par l’État français. Elle est  spécialisée dans les combustibles nucléaires ;

Areva, restée pendant deux décennies leader mondial du secteur de l’énergie nucléaire  étant ébranlée par plusieurs affaires politico-financières, ses effectifs ont chuté de 78 % en une décennie : 76 000 salariés en 2010 puis 42 000 en 2014 et seulement 16 500 en 2020 dans la nouvelle entreprise Orano. EN 2010, le gouvernement avait contraint Areva à la vente à Alstom  de sa très rentable Areva T&D, convoitée depuis 2006 par Alstom et Bouygues.

En 2016, la société New Areva est créée pour regrouper les activités relatives au combustible nucléaire : extraction de l’uranium à la mine, concentration, raffinage, conversion et enrichissement de l’uranium, fabrication d’assemblages de combustibles nucléairestransport des combustibles nucléairestraitement des combustibles nucléaires usésdémantèlement nucléaire et gestion des déchets radioactifs. Le 23 janvier 2018, New Areva devient Orano.

Grâce au photon unique, l’ordinateur quantique enfin miniaturisé

Publié par Cédric le 17/11/2024 à 08:00
Auteur de l’article: Cédric DEPOND
Source: Physical Review Applied

La miniaturisation des ordinateurs quantiques progresse rapidement, et des chercheurs viennent de franchir une nouvelle étape en développant un ordinateur quantique basé sur un seul photon, promettant de bouleverser le domaine.

Un photon unique pour calculer ? C’est le challenge relevé par des scientifiques taïwanais, qui ont mis au point une machine capable de réaliser des calculs grâce à la lumière, sans nécessiter un refroidissement extrême. Les ordinateurs quantiques traditionnels utilisent des qubits capables de superposition quantique, mais ils exigent des températures proches du zéro absolu, un obstacle majeur. Ce nouvel appareil propose une approche photonique innovante: un unique photon, guidé dans une fibre optique, stocke et traite des données dans 32 états quantiques différents, éliminant ainsi le besoin de températures extrêmes.

La technologie photonique offre une alternative énergétique plus efficace, sans l’encombrement des réfrigérateurs quantiques massifs. Ce prototype ouvre la voie à des ordinateurs quantiques compacts, adaptés aux environnements courants.

Comparé aux qubits basés sur des ions piégés, ce dispositif est plus stable. Ces qubits sont très sensibles aux perturbations et nécessitent des systèmes de refroidissement et des lasers sophistiqués. Dans ce nouvel ordinateur, de la taille d’une boîte, la lumière assure le calcul, et ses 32 états quantiques augmentent considérablement sa puissance de traitement tout en restant miniaturisé.

Les applications potentielles sont vastes. Cette innovation pourrait transformer des domaines comme la logistique, l’intelligence artificielle, la sécurité des données et l’industrie pharmaceutique.

D’autres avancées sont attendues. L’équipe espère augmenter encore la capacité de calcul afin de s’attaquer à des problèmes plus complexes, tout en développant des réseaux de communication quantiques.

Qu’est-ce qu’un ordinateur quantique ?

Un ordinateur quantique utilise les principes de la mécanique quantique pour exécuter des calculs d’une manière fondamentalement différente des ordinateurs classiques. Contrairement aux bits, qui prennent la valeur 0 ou 1, les qubits exploitent des phénomènes comme la superposition, leur permettant d’exister dans plusieurs états simultanément. Cette capacité permet un traitement parallèle des données, inatteignable par les systèmes classiques.

Les qubits tirent parti de l’intrication, un phénomène où deux qubits, même très éloignés, restent liés. Si l’état de l’un change, l’autre s’ajuste instantanément, quelle que soit la distance. Grâce à cette interconnexion, un ordinateur quantique peut exécuter des calculs complexes, comme la modélisation moléculaire ou le cryptage, nécessitant une puissance consdérable.

Pour qu’un ordinateur quantique soit efficace, les qubits doivent rester stables. La plupart des systèmes nécessitent des températures proches du zéro absolu (-273 °C) pour limiter les perturbations, ce qui implique une infrastructure coûteuse et volumineuse. Toutefois, de nouvelles approches comme l’informatique photonique, qui utilise des photons à température ambiante, offrent des solutions prometteuses pour rendre cette technologie plus accessible.

Référence

Implementation of Shor’s algorithm with a single photon in 32 dimensions

Hao-Cheng Weng and Chih-Sung Chuu

Phys. Rev. Applied 22, 034003 – Published 3 September 2024

Abstract

Photonics has been a promising platform for implementing quantum technologies owing to its scalability and robustness. In this paper, we demonstrate the encoding of information in 32 time bins or dimensions of a single photon. A practical scheme for manipulating the single photon in high dimensions is experimentally realized to implement a compiled version of Shor’s algorithm on a single photon. Our work demonstrates the powerful information-processing capacity of a high-dimensional quantum system for complex quantum information task

18/11/2024 Trump et Mars

Donald Trump dédaignerait-il de rester dans l’histoire comme celui grâce auquel l’espèce humaine se sera établie durablement sur la planète Mars?

Il a répété durant sa campagne électorale qu’il espérait bien que l’Homme marcherait sur Mars avant la fin de son second mandat. Voulait-il seulement faire plaisir à son ami Elon Musk, ou une stratégie se cache-t-elle derrière ses propos ? Un tel changement de cap aurait des implications politiques et géopolitiques profondes.

Viser Mars signifierait sans doute abandonner l’actuel programme lunaire dit Artemis ? Or abandonner Artemis voudrait dire renoncer à la station spatiale Gateway, qui devait être mise en orbite autour de la Lune dans les trois prochaines années. Cela voudrait également dire que les États-Unis laissent le retour sur la Lune aux Chinois. On sait qu’il existe des ressources précieuses sur la Lune, par exemple de l’hélium-3, très coûteux et utile à la fusion nucléaire, ainsi que de l’eau, une denrée recherchée dans l’espace. C’est pour cette raison que le pôle Sud lunaire est visé par le programme Artemis.

Trump est-il prêt à laisser planter le drapeau chinois sur la Lune pour devenir le président qui aura financé le plus incroyable programme spatial de tous les temps avec les premiers pas de l’Homme sur Mars ? Il faut rappeler que si un voyage vers la Lune est à portée technologique, celui vers Mars ne l’est pas encore.

Pour y parvenir sous quatre ans, il faudrait engager des dépenses comparables à celles d’un effort de guerre majeur. Mais l’Amérique de Donald Trump est-elle encore celle commandée par le Military–industrial complex ou celle qui n’est plus motivée que par l’antiaméricanisme de façade des jeunes élites?

17/11/2024 Et si l’IA rendait déjà l’informatique quantique obsolète ?

Alors que l’informatique quantique bute contre des obstacles physiques, une autre solution pourrait résoudre nos (futurs) problèmes de physique et de chimie : l’intelligence artificielle IA.

Si l’informatique quantique semble tout indiquée pour résoudre des problèmes dans ces secteurs, les limites hardware des solutions d’aujourd’hui sont encore une réalité. C’est là que pourrait intervenir l’IA, déjà utilisée en physique fondamentale, en chimie et en science des matériaux. En tout cas en attendant l’existence de processeurs quantiques plus importants.

Pour Giuseppe Carleo, professeur de physique computationnelle à la Swiss Federal Institute of Technology, l’échelle et la complexité des systèmes quantiques qui peuvent être simulés à l’aide de l’IA progressent rapidement. Il a récemment coécrit un papier où il indique notamment que l’utilisation d’un réseau neural devenait la principale méthode pour modéliser des matériaux avec des propriétés quantiques fortes.

Il précise : « L’existence de ces nouveaux concurrents dans le domaine de l’apprentissage automatique porte un coup sérieux aux applications potentielles des ordinateurs quantiques. À mon avis, ces entreprises découvriront tôt ou tard que leurs investissements ne sont pas justifiés.« 

Des propos qui rappellent ceux de l’an dernier de Matthias Troyer, à la tête de l’informatique quantique de Microsoft. Il était notamment question de la faiblesse actuelle de cette technologie quand il est question d’importer et d’exporter de grandes quantités de données, et que l’informatique quantique devrait se cantonner à traiter des problèmes en chimie et en science des matériaux.

17/11/2024 Le nouveau processeur quantique d’IBM

IBM vient de marquer un point important dans l’histoire des technologies quantiques avec la mise en service de son nouveau processeur : le R2 Heron, doté de 156 qubits. Cette innovation représente une amélioration substantielle par rapport aux modèles précédents, promettant des calculs jusqu’à 50 fois plus rapides, indispensables pour la recherche scientifique avancée.

Le nouveau système quantique d’IBM, composé de l’unité de traitement quantique (QPU) R2 Heron et de la plateforme logicielle Qiskit, a été conçu pour optimiser les performances des calculs quantiques. Comparé à ses prédécesseurs, le R2 Heron peut réaliser jusqu’à 5 000 opérations sur deux qubits, soit le double de la capacité des systèmes antérieurs, facilitant ainsi des calculs quantiques complexes et plus rapides.

Les améliorations matérielles et logicielles apportées par IBM à son système quantique lui permettent désormais de s’attaquer à des problèmes scientifiques dans des domaines aussi variés que les matériaux, la chimie, les sciences de la vie, la physique des hautes énergies, et plus encore, vers des recherches qui étaient jusqu’alors hors de portée, du fait des limitations de vitesse et de capacité des précédentes générations de technologies quantiques.

Outre l’augmentation de la capacité de traitement, IBM a également intégré des améliorations logicielles significatives. L’utilisation de l’algorithme de mitigation d’erreur de réseau tensoriel de Qiskit, par exemple, permet de réduire l’impact des perturbations sur les qubits. De plus, avec l’introduction de l’ingénierie de compilation paramétrique et l’optimisation du mouvement des données, le système peut maintenant effectuer jusqu’à 150 000 opérations de couche de circuits par seconde (CLOPS), une amélioration considérables par rapport aux performances de base antérieures.

IBM envisage le développement de superordinateurs « centrés sur le quantique » qui combinent les ressources de calcul quantique et classique pour produire des résultats viables plus rapidement qu’avec des systèmes purement quantiques. Cette approche hybride permet de traiter les tâches en parallèle, décomposant les algorithmes complexes en morceaux que chaque moitié du système peut traiter efficacement.

Source : IBM

Voir aussi https://sciencepost.fr/ibm-nouvelle-puce-quantique-156-qubits/

17/11/2022 La hausse des dépenses militaires en France

Selon le projet de loi de finances rendu public jeudi 10 octobre, le budget de la mission «Défense» suit la ligne tracée par la loi de programmation militaire adoptée en 2023.

Il est en augmentation de 3,3 milliards d’euros par rapport à 2024, ce qui le porte à 50,54 milliards, à comparer aux quelques 130 milliard d’euros du budget militaire russe.

La loi de programmation militaire 2024-2030 prévoit une dépense de 400 milliards d’euros, en hausse de 35 % par rapport à la précédente, auxquels s’ajoutent 13 milliards d’euros de ressources extrabudgétaires. .

Les industriels de l’armement en sont les premiers bénéficiaires. Ainsi près de 20 milliards d’euros sont destinés, d’ici à 2030, à accélérer le recomplètement des stocks de munitions.

Sur l’ensemble des sites français, la production a augmenté. Les premières livraisons de missiles Aster consacrés à la défense sol-air, au départ prévues pour 2026, sont attendues d’ici à la fin de l’année, avec une multiplication par trois de la production en 2025.

Le groupe MBDA a, lui, reçu une commande de 1 300 missiles Akeron MP (MMP, missile moyenne portée) et 329 missiles Mistral 3, dont la fabrication va passer de vingt à quarante pièces par an. Le volume de bombes armement air-sol modulaire, déjà en augmentation, va doubler en 2025.

Par ailleurs Nexter a démontré sa capacité d’assembler un canon Caesar en dix-sept mois au lieu de trente-six mois et d’en livrer six par mois contre deux auparavant. Chez Dassault Aviation, les équipes sont passées de un à trois Rafale par mois. Le radar Ground Master de Thales sera fabriqué non plus en douze mais en vingt-quatre exemplaires par an. A Limoges, Texelis se prépare à doubler la capacité de production de ses plateformes roulantes qui font avancer le Serval, véhicule blindé léger multirôles, commandé par centaines par l’armée de terre.

Voir aussi

https://commission.europa.eu/strategy-and-policy/eu-budget/motion/focus/eu-budget-boosts-eus-defence-industry-and-european-security_en

16/11/2024 De la vie monocellulaire à la vie multicellulaire.

Il existe certainement dans l’univers des planètes où la vie telle que nous la connaissons n’est pas apparue. Il en est d’autres où la vie a gardé une forme primitive, celle d’une cellule unique. Il en est certainement aussi d’autres où la vie à donné naissance à des eucharyotes ou organismes multicellulaires, des plus simples aux plus complexes tels les organismes humains.

Pour quelles causes est apparue la complexification caractérisant la vie terrestre ? Les darwiniens évoqueront le hasard suivi de la nécessité, autrement dit la sélection du plus apte.

Pour les chercheurs auteurs de l’étude référencée ci-dessous, le passage d’une cellule unique, par définition unicellulaire, à la multicellularité peut se faire, entres autres causes, lorsque la cellule unicellulaire est soumise à un traumatisme tel qu’une compression anormale d’origine extérieure. De tels changements de pression sont fréquents sur les côtes océaniques à la suite par exemple d’un miniséisme, voire d’un phénomène météorologique violent affectant l’atmosphère proche de la surface.

Dans ce cas, les cellules initiales, par définition unicellulaires, peuvent être conduites à se reproduire sous la forme d’un tissu multicellulaire enfermant différents types de cellules, capables d’accomplir des fonctions devenues hors de la portée de l’organisme monocellulaire.

La recherche citée ici n’a pas porté sur des bactéries mais sur des archées qui sont des cellules dépourvues de noyaux, caractère qui les a longtemps fait prendre pour des bactéries. Cependant les archées ne comportent pas de parois cellulaires rigides ce qui leur donne une grande facilité pour développer divers types de formes souples.

Pour en savoir plus, des chercheurs de l’Université Brandeis (USA) enfermèrent des archeés du genre Haloferax Volcanii sous une plaque de gelée simulant les pressions qui s’exercent sur elles dans la mer. Ils observèrent alors un phénomène inattendu. Les archées commencèrent d’abord par se multiplier en conservant un génome identique. Puis, quand la tension atteignit un certain point, de nouvelles membranes (cell walls) apparurent créant de nouvelles cellules clones de la cellule original et constituant un tissu multicellulaire entre les cellules. Ce nouveau tissu accomplissait des fonctions inaccessibles pour la cellule unique.

Référence

Tissue-Like Multicellular Development Triggered by Mechanical Compression in Archaea

Theopi Rados, Olivia S. Leland, other authors

doi: https://doi.org/10.1101/2024.10.19.619234

Abstract

  • The advent of clonal multicellularity is a critical evolutionary milestone, seen often in eukaryotes, rarely in bacteria, and only once in archaea. We show that uniaxial compression induces clonal multicellularity in haloarchaea, forming
  • tissue-like structures. These archaeal tissues are mechanically and molecularly distinct from their unicellular lifestyle, mimicking several eukaryotic features. Notably, archaeal tissues undergo a coenocytic stage followed by a tubulin-independent cellularization, orchestrated by active membrane tension at a critical cell size. Past cellularization, tissues are organized into two cell types – apical and basal scutoids – with junction elasticity akin to animal tissues, with actin and protein glycosylation as fiducial polarity markers. Our findings highlight the remarkable biophysical potential of convergent evolution in the emergence of multicellular systems across domains of life.
  •