31/07/2024 La vie est-elle apparue sur Terre par émergence à partir de la soupe chimique primordiale?

Le problème de l’apparition de la vie sur la Terre il y a environ 4 milliards d’années, n’est toujours pas résolu. Serait-ce à la suite d’une synthèse entre certains des éléments composant ce que les chercheurs nomme la soupe chimique primordiale, ou bien d’un apport de virus provenant de planètes extra-solaires transportés sur Terre par des astéroides.

Voir https://korii.slate.fr/tech/espace-sante-scientifiques-alertent-risque-contamination-extraterrestre-virus-pathogenes

Quoiqu’il en soit, l’hypothèse de la synthèse vient d’être confortée par une expérience que relatent des informaticiens de Google (référence ci-dessous) Ils ont réussi à faire émerger une forme de vie artificielle provenant de la rencontre au hasard d’un grand nombre de données numériques plus simples. Ils avaient imaginé des expériences au cours desquelles des millions de données numériques élémentaires incapables de se reproduire seules pouvaient se rencontrer au hasard. Ils ont la surprise de voir apparaître des programmes complexes auto-réplicants qui petit à petit ont empli tout l’espace de travail. De nouveaux types de réplicateurs plus complxes sont apparus par la suite, éliminant les instructions plus simples.

Il existe déjà des simulations telles que celles proposées par le Game of Life (https://playgameoflife.com/). Mais celles-ci obéissent à des règles formelles définies à l’avance. Ceci n’a pas été le cas de l’expérience relatée ici.

Faut-il en conclure que, les mêmes causes entrainant les mêmes effets des formes de vie de plus en plus intelligentes seraient apparues ou apparaîtraient dans tous les « espaces habitables », ou ZH de la galaxie ?

Référence

[Submitted on 27 Jun 2024]

Computational Life: How Well-formed, Self-replicating Programs Emerge from Simple Interaction

Blaise Agüera y Arcas,….

The fields of Origin of Life and Artificial Life both question what life is and how it emerges from a distinct set of « pre-life » dynamics. One common feature of most substrates where life emerges is a marked shift in dynamics when self-replication appears. While there are some hypotheses regarding how self-replicators arose in nature, we know very little about the general dynamics, computational principles, and necessary conditions for self-replicators to emerge. This is especially true on « computational substrates » where interactions involve logical, mathematical, or programming rules. In this paper we take a step towards understanding how self-replicators arise by studying several computational substrates based on various simple programming languages and machine instruction sets. We show that when random, non self-replicating programs are placed in an environment lacking any explicit fitness landscape, self-replicators tend to arise. We demonstrate how this occurs due to random interactions and self-modification, and can happen with and without background random mutations. We also show how increasingly complex dynamics continue to emerge following the rise of self-replicators. Finally, we show a counterexample of a minimalistic programming language where self-replicators are possible, but so far have not been observed to arise.



Subjects:Neural and Evolutionary Computing (cs.NE); Artificial Intelligence (cs.AI)


Cite as:arXiv:2406.19108
 (or arXiv:2406.19108v1
 https://doi.org/10.48550/arXiv.2406.19108

30/07/2024 Vivons nous dans une gigantesque simulation ?

La question n’est pas nouvelle.Cependant il est intéressant de l’aborder à la lumière des modernes sciences et technologies de l’information.Physicien ayant précédemment travaillé pour la NASA, Thomas Campbell a publié en 2017 un article dans lequel il décrit une série de cinq expériences conçues pour nous permettre d’obtenir une réponse claire à cette interrogation.

L’article en question, publié par The International Journal of Quantum Foundations, dont on trouvera ci-dessous les références et l’abstract, a fait réfléchir certains scientifiques de l’université polytechnique de Californie (CalPoly), Ils commenceraient à réaliser certaines des expériences suggérées par Thomas Campbell. Voir https://futurism.com/the-byte/former-nasa-scientist-experiment-live-in-simulation

Par aillzurs, Thomas Campbell a créé une organisation à but non lucratif, le The Center for the Unification of Science and Consciousness (CUSAC ) https://www.cusac.org/ ouCentre pour al’unification de la science et de la conscience (CUSAC), afin de contribuer au financement de la réalisation des expériences.

Parmi celles-ci on trouve une nouvelle version de l’expérience de la double fente, réalisée pour la première fois en 1801 par Thomas Young. En résumé, l’expérience originelle consiste à créer des interférences entre deux faisceaux de lumière issus d’une même source en les faisant passer par deux minuscules trous percés dans un plan opaque. Il s’agit de montrer comment la lumière et la matière peuvent agir à la fois comme des ondes et des particules.

L’hypothèse de Thomas Campbell ‘est que si on supprime le regard de l’observateur, alors les informations enregistrées au cours de ces expériences n’existent pas. En d’autres termes, cela reviendrait à affirmer qu’en l’absence de tout joueur, un jeu vidéo n’existe pas. Le physicien résume son idée en affirmant que l’univers est uniquement «participatif».

Il n’est évidemment pas le premier à se poser ce genre de question et à proposer des hypothèses de simulation. En 2003, le philosophe suédois Nick Bostrom

développait l’idée suivante: si nous progressons suffisamment sur le plan technologique, nous finirons probablement par simuler nos ancêtres… Qui eux-mêmes finiront par progresser suffisamment pour simuler les leurs. Et ainsi de suite. Or, suivant cette idée, il n’y a aucune raison pour que nous ne fassions pas, nous aussi, partie de l’une de ces couches successives de réalité simulée.

Les points de vue de Campbell et Bostrom divergent sur au moins un point: contrairement à son prédécesseur scandinave, le physicien américain affirme que notre «conscience n’est pas un produit de la simulation: elle est fondamentale pour la réalité». Et il en profite pour souligner que selon lui, la réalisation de ses cinq expériences pourrait «remettre en question la compréhension conventionnelle de la réalité et découvrir des liens profonds entre la conscience et le cosmos». Inutile d’ajouter que nul malheureusement n’a encore proposé de théories acceptables concernant la conscience ; que ce soit chez l’humain ou dans l’univers

Référence

On Testing the Simulation Theory

Published by International Journal of Quantum Foundations on June 17, 2017 

Volume 3, Issue 3, pages 78-99

Tom Campbell , Houman Owhadi  Joe Sauvageau  and David Watkinson 

Can the theory that reality is a simulation be tested?

We investigate this question based on the assumption that if the system performing the simulation is finite (i.e. has limited resources), then to achieve low computational complexity, such a system would, as in a video game, render content (reality) only at the moment that information becomes available for observation by a player and not at the moment of detection by a machine (that would be part of the simulation and whose detection would also be part of the internal computation performed by the Virtual Reality server before rendering content to the player). Guided by this principle we describe conceptual wave/particle duality experiments aimed at testing the simulation theory.

Posted in Volume 3, Issue 3, July 2017

30/07/2022 Découverte majeure sur l’histoire de la Voie Lactée

Des astronomes étudiant le cœur de notre galaxie ont découvert deux structures gigantesques qui n’avaient jamais été observées auparavant. Ces vastes « flux » d’étoiles contiennent chacun la masse de dix millions de soleils et sont vieilles d’au moins treize milliards d’années. Ils couvrent de larges pans de la galaxie et pourraient compter parmi les premiers éléments constitutifs de celle-ci.

Les scientifiques de l’Institut Max Planck d’astronomie (MPIA) ont nommé ces deux structures Shiva et Shakti en hommage au couple divin hindou dont l’union aurait apporté l’harmonie à l’univers. Ces nouveaux courants stellaires semblent avoir fusionné avec la Voie lactée il y a entre douze et treize milliards d’années, alimentant ainsi la croissance de notre galaxie.

« Ce qui est vraiment étonnant, c’est que nous pouvons détecter ces structures anciennes« , a déclaré l’auteur principal de l’étude, Khyati Malhan, astrophysicien à la MPIA, dans un communiqué. « La Voie lactée a tellement changé depuis la naissance de ces étoiles que nous ne nous attendrions pas à les reconnaître aussi clairement en tant que groupe. »

Les chercheurs ont repéré les structures cosmiques à l’aide du télescope spatial Gaia de l’Agence spatiale européenne.

 Les deux structures contiennent des étoiles extrêmement pauvres en métaux, ce qui signifie qu’elles manquent des éléments plus lourds forgés par la fusion stellaire plus tard dans l’histoire de l’univers. Autrement dit, Shiva et Shakti contiennent probablement certaines des étoiles les plus anciennes de la Voie lactée, faisant d’eux l’un des premiers éléments constitutifs de l’évolution de la galaxie.

 La découverte des structures stellaires Shiva et Shakti par les astronomes de l’Institut Max Planck d’astronomie marque une avancée exceptionnelle dans notre compréhension de l’histoire de la Voie lactée. Ces vastes flux d’étoiles, âgés de treize milliards d’années, témoignent des premières étapes de la formation de notre galaxie. Identifiés grâce aux observations du télescope spatial Gaia, ces courants d’étoiles ont fusionné avec la Voie lactée il y a des milliards d’années, jouant un rôle crucial dans son évolution et sa croissance.

Les étoiles de Shiva et Shakti, parmi les plus anciennes de notre galaxie, offrent une fenêtre unique sur les processus de fusion galactique et d’accumulation de matière qui ont façonné la Voie lactée. Leur analyse révèle non seulement des orbites distinctes mais aussi une composition pauvre en métaux, soulignant leur ancienneté. La continuité des études sur ces courants stellaires permettra aux astronomes de mieux comprendre les mécanismes sous-jacents à la formation et à l’évolution de notre galaxie.

Référence

Shiva and Shakti: Presumed Proto-Galactic Fragments in the Inner Milky Way

Khyati Malhan and Hans-Walter Rix

Published 2024 March 21 • © 2024. Published by the American Astronomical Society.
The Astrophysical JournalVolume 964Number 2

Abstract

Using Gaia Data Release 3 astrometry and spectroscopy, we study two new substructures in the orbit–metallicity space of the inner Milky Way: Shakti and Shiva. They were identified as two confined, high-contrast overdensities in the (Lz, E) distribution of bright (G < 16) and metal-poor (−2.5 < [M/H] < − 1.0) stars. Both have stellar masses of M ≳ 107M, and are distributed on prograde orbits inside the solar circle in the Galaxy. Both structures have an orbit-space distribution that points toward an accreted origin; however, their abundance patterns—from APOGEE—are such that are conventionally attributed to an in situ population. These seemingly contradictory diagnostics could be reconciled if we interpret the abundances [Mg/Fe], [Al/Fe], [Mg/Mn] versus [Fe/H] distribution of their member stars merely as a sign of rapid enrichment. This would then suggest one of two scenarios. Either these prograde substructures were created by some form of resonant orbit trapping of the field stars by the rotating bar; a plausible scenario proposed by Dillamore et al. Or, Shakti and Shiva were protogalactic fragments that formed stars rapidly and coalesced early, akin to the constituents of the poor old heart of the Milky Way, just less deep in the Galactic potential and still discernible in orbit space.

29/07/2024 Donald Trump se désolidarise d’avec le Projet 2024

« Je ne connais rien au Projet 2024. Je ne sais qui est derrière. Je ne suis pas d’accord avec la plupart de leurs propos. Certains d’entre eux sont d’un ridicule abyssal. Je leur souhaite bonne chance, mais je n’ai rien à voir avec eux ».

C’est ce que vient de faire savoir l’ancien président dans un message vendredi dernier.

Le Project 2025 est une initiative de l’ Heritage Foundation, un think tank conservateur visant à promouvoir des changements significatifs dans les compétences et l’organisation du gouvernement fédéral au cas où Donald Trump l’emporterait lors des prochaines élections présidentielles de 2024.

Son objectif est de bâtir un programme conservateur détaillé et de s’assurer que des fonctionnaires loyaux seront en place à tous les niveaux de l’administration fédérale pour veiller à sa bonne exécution dès les premiers jours.

Le projet propose le licenciement des fonctionnaires fédéraux qui ne soutiendraient pas les objectifs du projet. Ceux-ci sont détaillés dans des documents annexes. Il s’agira de supprimer le Department of Education, réduire les ambitions de la protection sociale (Medicare, Medicaid, Social Security), cesser le soutien aux énergies renouvelables et subventionner au contraire les industries faisant appel à l’énergie fossile, charbon, pétrole et gaz.

La recherche de la « diversité » et de l' »inclusion » dans les administrations fédérales, notamment par la promotion de personnels féminins ou de couleur, sera abandonnée.

Les représentants du Projet ont plusieurs fois répété qu’ils ne s’exprimaient pas au nom d’un candidat ou d’un parti, mais d’une coalition de 110 groupes ou organisations se revendiquant comme les soutiens du Parti Conservateur

29/07/2024 Les bonnes relations entre Narendra Modi et Vladimir Poutine

C’est, pour l’Inde, un moment historique. Pour la deuxième fois de son histoire, un Premier ministre enchaîne trois mandats d’affilée. Le premier à avoir réalisé cet exploit est Jawaharlal Nehru, le père de l’indépendance, qui a dirigé le pays de 1947 à 1964. Le second à être parvenu à gagner la confiance des Indiens à trois reprises est Narendra Modi, arrivé en tête des dernières élections législatives

Le leader hindou s’est mis en tête d’effacer l’héritage de Nehru pour imposer son propre style, à savoir engager de grandes réformes économiques tout en faisant la promotion de l’hindutva , l’idéologie nationaliste hindoue, à rebours de la laïcité chère à Nehru.

« Ce troisième mandat sera celui des grandes décisions. Le pays va écrire un nouveau chapitre de son développement. Je vous le garantis », a déclaré Modi devant ses supporters après la publication des résultats.

En attendant, les relations de Modi avec Vladimir Poutine, déjà bonnes, ne feront que s’améliorer. Lors d’une rencontre de deux jours à Novo-Ogaryovo, Région de Moscou, , le 8 juillet 2024, les deux leaders avaient décidé d’organiser le paiement comptant des opérations commerciales entre l’Inde et la Russie en monnaies nationales plutôt qu’en dollars .

Par ailleurs et surtout Modi avait annoncé qu’il participera personnellement au prochain sommet des BRICS à Kazan en octobre . Les BRICS veulent mettre en place une plateforme leur permettant de régler leurs transactions mutuelles en monnaies nationales. Autrement dit qui leur permettrait de se passer du système de paiement occidental dit SWIFT dominé par les Etats-Unis. L’appui de l’inde ne passera pas inaperçu, considérant l’importance et la variété de ses transactions internationales.

Les occidentaux n’ont pas manqué de remarquer que la visite de Modi à Moscou se tenait au moment précis où l’Otan recherchait de nouveaux moyens permettant de combattre la Russie sur le front ukrainien. .

On trouvera ici la copie de la déclaration commune du 9 juillet ayant suivi la rencontre Modi-Poutine. On ne saurait mieux dire.

https://www.mea.gov.in/bilateral-documents.htm?dtl/37940/Joint_Statement_following_the_22nd_IndiaRussia_Annual_Summit

29/07/2024 Le mystère des pièces d’argent médiévales résolu

  • Une étude récente a précisé les origines de l’argent utilisé pour la fabrication des pièces de monnaie au début de la période médiévale en Europe. Pour ce faire, les chercheurs ont analysé la composition chimique de 49 pièces frappées entre 660 et 820 apr. J.-C., provenant de ce qui est aujourd’hui l’Angleterre, les Pays-Bas, la Belgique et le nord de la France.
  • Entre 660 et 820 après J.-C., l’Europe médiévale a vu une augmentation significative de l’utilisation de la monnaie en argent, notamment dans le nord-ouest. Cependant, la source précise de cette matière est longtemps restée inconnue.

Pour préciser cette origine, des chercheurs ont récemment utilisé une technique appelée analyse par ablation laser. Cette méthode permet de creuser une infime zone de la pièce, révélant ainsi sa composition chimique et son origine. Les résultats ont révélé que la matière utilisée pour fabriquer les pièces provenait de deux sources distinctes, en fonction de leur âge.

Les pièces les plus anciennes, datant de 660 à 750 apr. J.-C., utilisaient de l’argent extrait de la région méditerranéenne orientale, dans les limites de ce qui était alors l’Empire byzantin. Il s’agissait probablement d’argent fondu à partir d’objets en argent byzantins de valeur. Cette découverte, qui a surpris les chercheurs, souligne les liens étroits entre Byzance et l’Angleterre anglo-saxonne à cette époque.

En revanche, les pièces de monnaie ultérieures, datant de 750 à 820 apr. J.-C., semblaient principalement utiliser de l’argent fraîchement extrait de Melle, en France. Cette transition vers l’argent de Melle a été particulièrement marquée après une réforme monétaire menée par Charlemagne en 793 apr. J.-C., soulignant l’impact des facteurs politiques et administratifs sur la diffusion de cet argent. l’utilisation de l’argent provenant de la région méditerranéenne orientale, dans ce qui était alors l’Empire byzantin, témoigne des liens commerciaux étroits entre les différentes régions de l’Europe au début du Moyen Âge.

Le pivotement vers l’argent de Melle en France reflète également la dépendance croissante des royaumes anglais à l’égard de leurs voisins francs. Cette transition vers l’utilisation de l’argent extrait de Melle suggère ainsi des dynamiques politiques et économiques complexes entre les différents royaumes et régions de l’Europe occidentale.

https://www.cambridge.org/core/journals/antiquity/article/byzantine-plate-and-frankish-mines-the-provenance-of-silver-in-northwest-european-coinage-during-the-long-eighth-century-c-660820/EE2DE1D7955D055FA4225257755BF340

28/07/2024 La Chine dans l’énergie nucléaire

Dans les années précédentes, il était courant d’affirmer que celui qui gagnera la course à la fusion nucléaire dominera le monde. En attendant, il faut bien maitriser la fission. Il convient de se demander comment se place la Chine dans ces deux domaines

La fission nucléaire

Dans l’immédiat, trois pays dominent la fission nucléaire. En 2022,  les Etats‑Unis  ont produit le plus d’électricité nucléaire grâce à leurs 92 installations (deux sont en construction), devant la Chine (avec 55 réacteurs), la France (56 réacteurs), et la Russie (37 réacteurs).

Fin mars 2024, le réacteur à haute température chinois HTR-PM a été connecté au réseau de chaleur urbain. En plus de produire de l’électricité, il va fournir l’équivalent des besoins en chaleur de 1 850 foyers.

Rappelons que la Chine s’intéresse à toutes les technologies de réacteurs et à tous les usages du nucléaire. Le pays vise, entre autres, l’alimentation des réseaux de chaleur urbains grâce à des réacteurs haute température (HTR). Ainsi, fin mars 2024, le HTR de la centrale nucléaire de la baie de Shidao, dans la province du Shandong, a été connecté au réseau de chaleur.

Les réacteurs à haute température font partie des technologies de réacteurs avancés (AMR), dits de quatrième génération. Leurs caractéristiques offrent d’importantes marges de sûreté et les HTR peuvent ainsi atteindre des températures bien plus élevées que les réacteurs actuels de fission.

En l’occurrence, selon sa description technique [1], le HTR-PM atteint 750°C en sortie de cœur, contre environ 300°C dans un réacteur à eau pressurisée. De nombreux pays envisagent cette technologie comme une solution de décarbonation pour le chauffage urbain et industriel, ainsi que pour la production d’hydrogène.

Dès le début des années 2000, la Chine avait lancé la construction d’un prototype de réacteur à haute température de 10 MWth, le HTR-10 de l’Université de Tsinghua. C’est dans la continuité de ce dernier qu’en 2012 commence la construction du HTR-PM, concrétisant une importante montée en puissance. Le HTR-PM est répertorié comme un réacteur unique, mais il est en réalité composé de deux unités regroupées dans un même bâtiment. Elles partagent également une turbine pour une puissance totale de 250 MWth et 210 MWe. Connecté au réseau électrique en décembre 2021, c’est en mars 2024 que le HTR-PM a été, cette fois-ci, connecté au réseau de chaleur, permettant de répondre aux besoins de chaleur de 1 850 foyers, et permettant d’éviter l’émission de 3 700 tonnes de CO2 [2].

Sur la base du HTR-PM, la Chine travaille également à la réalisation d’une version de 600 MWth, rassemblant six modules dans un même bâtiment et actionnant une unique turbine de 650 MWe.

[1] https://nucleus.iaea.org/sites/htgr-kb/HTR2014/Paper%20list/Track1/HTR2014-11125.pdf

[2] https://www.world-nuclear-news.org/Articles/HTR-PM-heating-project-commissioned

La fusion nucléaire

Ceci étant il est urgent de trouver une nouvelle source d’énergie nucléaire à grande échelle, non émettrice de CO2, pérenne et disponible. La fusion offre les avantages suivants :

Une énergie abondante : A masse égale, la fusion d’atomes légers libère une énergie près de quatre millions de fois supérieure à celle d’une réaction chimique telle que la combustion du charbon, du pétrole ou du gaz, et quatre fois supérieure à celle des réactions de fission nucléaire. La fusion peut fournir l’énergie de base nécessaire pour satisfaire les besoins en électricité de nos villes et de nos industries.

Des millions d’années : Les éléments deutérium et tritium sont les combustibles de fusion. Le deutérium peut être obtenu à partir de l’eau ; le tritium sera produit pendant la réaction de fusion lorsque les neutrons issus de la fusion des noyaux interagiront avec le lithium des modules placés dans la chambre à vide. (Les réserves de lithium dans la croûte terrestre permettraient l’exploitation de centrales de fusion pendant plus de 1 000 ans ; celles des océans pourraient répondre aux besoins pendant des millions d’années.) La capacité de générer du tritium par le biais de la réaction de fusion, et le récupérer, est essentielle pour les futures centrales de fusion industrielles.

Aucune émission de CO₂ : La fusion ne génère pas de dioxyde de carbone ou d’autres gaz à effet de serre. Le sous-produit principal est l’hélium, un gaz inerte non toxique.

Aucun déchet radioactif de haute activité à vie longue : Les réacteurs de fusion nucléaire ne produisent pas de déchets radioactifs de haute activité à vie longue. L’activation des composants d’un réacteur de fusion devrait être suffisamment faible pour que les matériaux puissent être recyclés ou réutilisés dans les 100 ans (selon les matériaux choisis pour la première paroi) qui suivent la mise à l’arrêt de l’installation.

Aucune prolifération : La fusion n’utilise pas de matières fissiles comme l’uranium et le plutonium (le tritium radioactif n’est pas un matériau fissile ni fissionnable). Un réacteur de fusion ne contient pas d’éléments susceptibles d’être utilisés pour fabriquer des armes nucléaires.

Aucun risque de fusion du cœur : Un accident nucléaire de type Fukushima ne peut pas se produire dans un réacteur de fusion. Les conditions propices aux réactions de fusion sont difficiles à atteindre ; en cas de perturbation, le plasma se refroidit en l’espace de quelques secondes et les réactions cessent. En outre, la quantité de combustible présente dans l’enceinte est insuffisante pour alimenter les réactions au-delà de quelques secondes et une « réaction en chaîne » est inconcevable du point de vue de la physique.

Un coût équivalent : La quantité d’énergie produite par un réacteur de fusion industriel, tels qu’ils pourront voir le jour dans la seconde moitié de ce siècle, sera équivalente à celle produite par un réacteur de fission — entre 1 et 1.7 gigawatts. Le coût moyen par kilowatt d’électricité ne peut pas encore être extrapolé ; pour cela, il faudrait plusieurs années d’opération du tokamak ITER. Comme de nombreuses nouvelles technologies, les coûts seront plus élevés au début, la technologie étant nouvelle, puis décroissants par la suite dans la mesure où les économies d’échelle feront baisser les prix.

La Chine dans la fusion

La Chine dispose de six réacteurs à fusion nucléaire expérimentaux en état de fonctionnement.

Fin mai 2021, le tokamak supraconducteur expérimental avancé chinois connu sous le nom d’East – pour Experimental Advanced Superconducting Tokamak – avait pu maintenir une température de quelque 120 millions de degrés Celsius pendant 100 secondes, et même 160 millions de degrés pendant 20 secondes. Et l’Académie des sciences chinoise lui avait fixé l’objectif de dépasser les 1.000 secondes avant la fin de l’année.

Pour permettre des réactions de fusion nucléaire, un tokamak doit assurer une densité de particules suffisante pour produire le plus grand nombre de collisions possible et un temps de confinement de l’énergie assez long pour assurer des collisions à grande vitesse.

https://www.futura-sciences.com/sciences/actualites/fusion-fusion-nucleaire-nouveau-record-tokamak-chinois-64846/

Iter

Le « soleil artificiel » chinois devrait apporter des données utiles aux équipes qui développent le projet Iter de réacteur à fusion nucléaire international basé en France. Lancé en 2006, Iter rassemble 35 pays et devrait être achevé fin 2025 — avec plus de cinq ans de retard. Pour un coût total estimé à près de 20 milliards d’euros – soit plus de trois fois le budget initial. L’assemblage du million de pièces constituant ce soleil artificiel — qui vise les 150 millions de degrés Celsius — a commencé en juillet dernier, à Saint-Paul-lès-Durance (Bouches-du-Rhône).

Mais c’est l’une des conditions établies par les physiciens pour parvenir à leur but. Pour permettre des réactions de fusion nucléaire, un tokamak doit aussi assurer une densité de particules suffisante pour produire le plus grand nombre de collisions possible et un temps de confinement de l’énergie assez long pour assurer des collisions à grande vitesse.

27/07/2024 Découverte d’un nouveau dinosaure à trois cornes, le Lokiceratops 

Le Triceratops était jusqu’ici l’emblème de cette classe de dinosaures. Mais sa corne nasale était de relativement petite taille. Ce n’est pas le cas du Lokiceratops, récemment découvert dans le Montana, à la frontière américano-canadienne. Sa troisième corne était de plus de 2 m et s’enracinait sur le crane, entre les yeux. Elle pointait vers l’avant . Les deux cornes arrière étaient en forme d’éventails aux bords coupants. Elles devaient éventrer ou démembrer les adversaires si elles étaient utilisées à partir de coups de tête latéraux sur le mode fauchant.

Les restes fossiles du Lokiceratops longiformis ont été achetés par le Musée d’histoire naturelle du Danemark, où ils sont exposés. L’animal vivait il y a environ 70 millions d’années. Sa taille était de 7m de long et il devait peser quelques 5 tonnes 

Pour en savoir plus

voir https://peerj.com/articles/17224/




27/07/2024 Les supercomportements quantiques. Comment créer de l’énergie à partir de rien

En mécanique quantique, il ne faut pas craindre les paradoxes. Ainsi une nouvelle recherche montre qu’un tout peut être plus grand que la somme de ses parties . Plus précisément plusieurs états quantiques de basse énergie peuvent être conjugués afin de former un état dont les régions sont plusieurs fois plus énergétiques que chacune des composantes

L’une des révélations de la mécanique quantique est que chaque objet peut y être vu comme une onde. Andrew Jordan de l’université Chapman, Californie, a découvert une méthode permettant d’obtenir des états quantiques qui devraient n’avoir que peu d’énergie mais qui en fait en ont beaucoup.

Jordan et un de ses collègues de  la même université Chapman, Yakir Aharonov, avaient découvert dans les années 1990 un phénomène qu’ils nommèrent « superoscillation » . Toutes les ondes peuvent être décomposées en plusieures ondes sinusoidales dotées de leurs propres fréquences . Si l’on zoome sur une petite région de l’onde principale, il apparaît éventuellement que la somme des ondes peut onduler plus vite que la plus rapide d’entre elle, formant une superoscillation.

En généralisant, ils montrèrent mathématiquement que plusieurs états quantique d’énergie quasi nulle peuvent à l’occasion fusionner en un état de grande énergie. Malheureusement, compte tenu de l’imprévisibilité propre au monde quantique il ne leur pas encore apparu comment donner à ce phénomène des applications utilisables dans le monde quotidien. Mais il s’agira d’une affaires à suivre.

Référence

Superphenomena for arbitrary quantum observables

Phys. Rev. A 110, 012206 – Published 8 July 2024

Andrew N. Jordan, Yakir Aharonov, Daniele C. Struppa, Fabrizio Colombo, Irene Sabadini, Tomer Shushi, Jeff Tollaksen, John C. Howell, and A. Nick Vamivakas


Superoscillations occur when a globally band-limited function locally oscillates faster than its highest Fourier component. We generalize this effect to arbitrary quantum-mechanical operators as a weak value, where the preselected state is a superposition of eigenstates of the operator with eigenvalues bounded to a range, and the postselection state is a local position. Superbehavior of this operator occurs whenever the operator’s weak value exceeds its eigenvalue bound. We give illustrative examples of this effect for total angular momentum and energy. In the latter case, we demonstrate a sequence of harmonic oscillator potentials where a finite-energy state converges everywhere on the real line, using only bounded superpositions of states whose asymptotic energy vanishes—“energy out of nothing.” This limit requires postselecting the particle in a region whose size diverges in the considered limit. We further show in this example that the superenergy is associated with superoscillations in time with a rate given by the local superenergy divided by the reduced Planck’s constant. This example demonstrates the possibility of mimicking a high-energy state with coherent superpositions of nearly zero-energy states for as wide a spatial region as desired. We provide numerical evidence of these features to further bolster and elucidate our claims.

26/07/2024 Planter des arbres en ville aggrave la pollution atmosphérique

Les arbres ont toujours été considérés comme améliorant la respirabilité de l’air en milieu urbain. La fonction chlorophyllienne leur permet de décomposer les molécules de gaz carbonique en charbon dont ils se nourrissent et en oxygène qu’ils rejettent dans l’air. D’où le conseil des urbanistes aux édiles : multipliez les espaces verts et plantez, méme en pleine ville, le maximum d’arbres.

Selon une communication d’un institut de recherche allemand, référencée ci dessous, la plupart des plantes émettent une classe de composants dits terpenoïdes qui leur servent d’anti-oxydants mais qui dans l’atmosphère réagissent avec d’autres polluants pour produire de l’ozone et des particules fines PM2.5.

A la suite d’études de terrain menées dans divers quartiers de Los Angeles USA, les chercheurs ont constaté que les émissions de terpénoides étaient à leur plus haut niveau au delà de la température de 30° et dans les quartiers les plus riches en espaces arborés.

Il se peut que ces émissions soient dues au stress ressenti par les arbres du fait de la chaleur et de la sécheresse. Pour Matthew Cogon, de la US National Oceanic and Atmosphérique Administration, ces pollutions devraient se généraliser avec le réchauffement climatique


Référence

Temperature-dependent emissions dominate aerosol and ozone formation in Los Angeles

Eva Y. Pfannerstill and others

Science
20 Jun 2024
Vol 384, Issue 6702 pp. 1324-1329

DOI: 10.1126/science.adg82043 524

  • Editor’s summary

Despite the great strides that have been made in reducing urban pollution in major North America and European cities, there is much that remains unclear about the causes of such pollution. Pfannerstill et al. report that about 60% of ozone and secondary organic aerosol formation potential in summertime Los Angeles is caused by biogenic terpenoid emissions, and this contribution strongly increases with temperature (see the Perspective by Karl). Successful mitigation of urban air pollution needs to take into account that climate warming will strongly change emission amounts and composition. —Jesse Smith

Abstract

Despite declines in transportation emissions, urban North America and Europe still face unhealthy air pollution levels. This has challenged conventional understanding of the sources of their volatile organic compound (VOC) precursors. Using airborne flux measurements to map emissions of a wide range of VOCs, we demonstrate that biogenic terpenoid emissions contribute ~60% of emitted VOC OH reactivity, ozone, and secondary organic aerosol formation potential in summertime Los Angeles and that this contribution strongly increases with temperature. This implies that control of nitrogen oxides is key to reducing ozone formation in Los Angeles. We also show some anthropogenic VOC emissions increase with temperature, which is an effect not represented in current inventories. Air pollution mitigation efforts must consider that climate warming will strongly change emission amounts and composition.