22/11/22 Charger des batteries électriques en un clin d’oeil

Depuis les batteries d’accumulateur des autocars électriques jusqu’aux brosses à dents portables, tous les équipements modernes auront besoin d’accéder pour rechargement à des sources d’électivité opérant aussi vite, sinon plus vite que les pompes à essence des autoroutes actuelles.

La technologie lithium-ion des accumulateurs modernes a presque atteint ses limites. Le peu d’autonomie et la rapidité d’usure de ces batteries pourront dans un futur proche devenir très problématiques, au fur et à mesure que la technologie globale évolue et que la demande en énergie s’accroît.

Dans ce domaine comme d’autres, la Physique quantique offre des solutions supérieures à celles de la physique ordinaire.

—————————————————

Pour pouvoir satisfaire la croissante demande en énergie, de nombreux chercheurs ont misé sur des batteries quantiques. Ceux de l’Université d’Adélaïde ont basé leur théorie sur le principe d’enchevêtrement et d’intrication des molécules. Il s’agit d’un phénomène selon lequel deux objets quantiquement entrelacés partagent leurs propriétés quelle que soit la distance qui les sépare. La possibilité de recharger durablement et ultra-rapidement un appareil en énergie électrique grâce aux batteries quantiques ne serait plus une utopie.

Le concept a pour la première fois été prouvé expérimentalement en Australie et permet un pas de plus vers la conception de ces super-batteries. Des chercheurs de l’Université d’Adélaïde, dirigés par le Dr Quach, ont longuement étudié la théorie et ont compris que, grâce au phénomène de « superabsorption » qu’ils ont pu démontrer, plus une batterie quantique serait grande, plus elle se chargerait vite.

Grâce à ce phénomène, les molécules peuvent ainsi s’activer ensemble et engendrer cet effet de super-absorption. En théorie, plus elles sont ainsi liées et nombreuses, plus leur capacité est grande. Ce qui en fait un paradoxe, car plus la batterie serait grande, plus vite elle se chargerait. Cela constituerait un avantage inestimable dans une application commerciale à grande échelle.

«La superabsorption désigne un effet collectif quantique où les transitions entre les états des molécules interfèrent de manière constructive », explique le Dr Quach dans un communiqué. « L’interférence constructive se produit dans toutes sortes d’ondes (lumière, son, ondes aquatiques . Elle apparaît lorsque différentes ondes s’additionnent pour donner un effet plus important que l’une ou l’autre onde seule. Fondamentalement, cela permet aux molécules combinées d’absorber la lumière plus efficacement que si chaque molécule agissait individuellement ».

Jusqu’ici, la superabsorption n’avait encore jamais été prouvée sur des échelles suffisamment grandes pourenvisager la réalisation d’une batterie quantique proprement dite. Mais les chercheurs australiens ont réussi un exploit grâce à leur dispositif de test.

Dans une expérience, ils ont appliqué une couche active de molécules photoabsorbantes à l’intérieur d’une microcavité entre deux miroirs. Les molécules étaient composées d’un colorant appelé Lumogen-F Orange. Les miroirs, quant à eux, ont été conçus selon une méthode standard de fabrication de miroirs de haute qualité. Dans ce concept, on utilise des matériaux diélectriques (ici du dioxyde de silicium et du pentoxyde de niobium) pour créer un « réflecteur de Bragg distribué ». Grâce à ce principe, les molécules peuvent ainsi s’activer ensemble et engendrer un effet de super-absorption.

En théorie, plus elles sont ainsi liées et nombreuses, plus leur capacité est grande. Ce qui en fait un paradoxe, car plus la batterie est grande, plus vite elle se chargerait. Ce qui est certain, c’est que cela constituerait un avantage de taille dans une application à grande échelle.

« La superabsorption est un effet collectif quantique où les transitions entre les états des molécules interfèrent de manière constructive », explique le Dr Quach dans un communiqué. « L’interférence constructive se produit dans toutes sortes d’ondes (lumière, son, ondes sur l’eau) et se produit lorsque différentes ondes s’additionnent pour donner un effet plus important que l’une ou l’autre onde seule. Fondamentalement, cela permet aux molécules combinées d’absorber la lumière plus efficacement que si chaque molécule agissait individuellement ».

La batterie quantique pourrait servir dans de nombreuses applications et domaines. Prouver la théorie vers sa concrétisation est un pas de plus vers cet objectif. Elle devrait pouvoir un jour alimenter des voitures électriques à recharge ultrarapide (quelques secondes pour une recharge complète) ou encore servir pour le stockage d’énergie à flux fluctuants, par exemple issue de sources renouvelables (éolien, solaire…)

L’équipe a ensuite utilisé la spectroscopie d’absorption transitoire ultrarapide pour mesurer la façon dont les molécules stockaient l’énergie et à quelle vitesse l’ensemble de l’appareil se chargeait. Il a alors été démontré que plus la taille de la microcavité et le nombre de molécules augmentaient, plus le temps de charge diminuait. C’est la superabsorption.

Grâce à ce phénomène, les molécules peuvent ainsi s’activer ensemble et engendrer un effet de super-absorption. En théorie, plus elles sont ainsi liées et nombreuses, plus leur capacité est grande. Ce qui en fait un paradoxe, car plus la batterie est grande, plus vite elle se chargerait. Ce qui est certain, c’est que cela constituerait un avantage certain dans une application commerciale à grande échelle.

Mais le principal défi est cependant de combler le fossé entre un petit appareil de démonstration et l’exploitation des mêmes idées dans des systèmes industriels utilisables. Les prochaines étapes consisteront donc à étudier comment l’expérience pourrait être combinée avec d’autres moyens de stockage et de transfert d’énergie.

21/11/22. Faudra-t-il abandonner l’hypothèse de la matière noire ?

La matière noire, dite aussi matière sombre, est comme son nom l’indique, une forme de matière hypothétique jamais observée directement, au contraire de la matière ordinaire. Elle a l’intérêt, dans le cadre du modèle Lambsa CDM (voir https://fr.wikipedia.org/wiki/Mod%C3%A8le_%CE%9BCDM) de rendre compte de certaines observations astrophysiques, notamment les estimations de la masse des galaxies ou des amas de galaxies et les propriétés des fluctuations du fond diffus cosmologique. Wikipédia

Faudra-t-il cependant abandonner cette hypothèse ? Sans remettre en cause la théorie du Big Bang dans ses grandes lignes, il faudrait peut-être, par exemple, remplacer les effets des hypothétiques particules de matière noire par une modification des lois de la mécanique céleste de Newton, et finalement par une modification des lois de la théorie relativiste de la gravitation proposée par Einstein il y a un peu plus d’un siècle.

Mais par quoi les remplacer?

Nous publions ci-dessous les références et l’abstract d’une recherche et du rapport que vient de publier une équipe internationale d’astrophysiciens dirigée par le Dr Pavel Kroupa (https://astro.uni-bonn.de/~pavel/) de l’Université de Bonn. L’équipe a fait une découverte surprenante en analysant certains amas d’étoiles dits amas stellaires https://fr.wikipedia.org/wiki/Amas_stellaire). Il se trouve que ces amas stellaires affichent une asymétrie inattendue en matière de distribution d’étoiles ; or, ceci vérifie davantage la théorie de la dynamique newtonienne modifiée (théorie MOND) — qui s’impose comme une alternative au concept de matière noire — que la théorie de la gravité largement admise aujourd’hui.

Sur la Théorie MOND (Modified Newtonian Dynamics), on lira https://fr.wikipedia.org/wiki/Th%C3%A9orie_MOND

Cette nouvelle étude repose sur l’existence d’amas d’étoiles dits « ouverts » — des amas de 4 à 5 parsecs en moyenne, de plusieurs dizaines à plusieurs milliers d’étoiles. Ces milliers d’étoiles naissent en peu de temps dans un énorme nuage de gaz principalement d’hydrogène et de poussières et sont liées entre elles par des forces gravitationnelles. Ces amas stellaires ne survivent généralement que quelques centaines de millions d’années avant de se dissoudre : certaines étoiles se déplacent plus lentement, d’autres plus vite que l’amas dans son ensemble, emportant avec elles une partie du nuage de gaz et de poussière.

On observe alors la formation de deux « queues de marée ». L’une de ces queues s’étend derrière l’amas lorsqu’il voyage dans l’espace, tandis que l’autre s’étend vers l’avant. Les lois de la gravité de Newton prédisent qu’une étoile a autant de chance de se trouver dans la queue avant que dans la queue arrière ; ainsi, les deux queues devraient en théorie contenir un nombre d’étoiles quasi similaire. Or, en observant cinq amas ouverts connus (les Hyades, Praesepe ou amas de la Ruche, la Chevelure de Bérénice, COIN-Gaia 13 et NGC 752), des chercheurs se sont aperçus que cela n’était pas le cas.

« Dans les amas que nous avons étudiés, la queue avant contient toujours beaucoup plus d’étoiles proches de l’amas que la queue arrière », a expliqué le Dr Jan Pflamm-Altenburg de l’Institut Helmholtz de radioprotection et de physique nucléaire. Il n’est pas particulièrement aisé de distinguer les étoiles qui appartiennent aux queues de l’amas lorsque ce dernier est entouré de millions d’étoiles ; cela nécessite d’évaluer la vitesse, la direction du mouvement et l’âge de chacun des objets.

La Dr Tereza Jerabkova, astronome à l’Observatoire européen austral et co-auteure de l’étude, a donc mis au point une méthode — la méthode Jerabkova-compact-convergent-point (CCP) — permettant de compter avec précision les étoiles situées dans les queues de marée. Grâce aux données collectées par le satellite Gaia de l’Agence spatiale européenne, ses collègues et elle ont pu cartographier les queues de quatre amas ouverts proches, âgés de 600 à 2000 millions d’années. C’est ainsi qu’ils ont découvert que les queues de tête contenaient toutes plus d’étoiles que les queues arrière, au moins dans un rayon de 150 années-lumiére du centre de l’amas.

En effectuant une série de simulations informatiques, l’équipe a constaté que cette asymétrie correspondait tout à fait aux prédictions de la théorie de la dynamique newtonienne modifiée (ou théorie MOND). « En simplifiant, on dira que selon MOND, les étoiles peuvent quitter un amas par deux queues de marée différentes, la queue de marée arrière et la queue de marée avant Cependant, la première est beaucoup plus étroite que la seconde, il est donc moins probable qu’une étoile quitte l’amas par cette porte. La théorie de la gravité de Newton, en revanche, prédit que les deux portes devraient avoir la même largeur », explique le professeur Pavel Kroupa, de l’Institut Helmholtz de physique des rayonnements et de physique nucléaire de l’Université de Bonn.

Non seulement les simulations coïncidaient parfaitement avec la distribution stellaire observée, mais elles ont fourni une explication à un autre phénomène : elles ont en effet permis de déterminer que la durée de vie des amas d’étoiles ouverts était nettement plus courte (de 20 à 50% plus courte) que celle à laquelle on pourrait s’attendre selon les lois de Newton. « Cela explique un mystère connu depuis longtemps. À savoir que les amas d’étoiles dans les galaxies proches semblent disparaître plus vite qu’ils ne le devraient », a déclaré Kroupa.

De nombreuses étoiles et galaxies se déplacent trop vite par rapport à leur masse ; ainsi, dès les années 1930, les scientifiques ont émis l’hypothèse que d’énormes quantités de matière invisible — décrites aujourd’hui comme de la matière noire — pouvaient être à l’origine de ce phénomène. Bien qu’aucune preuve directe n’ait jusqu’à présent permis de confirmer son existence, la matière noire constitue encore aujourd’hui une théorie largement acceptée.

La théorie MOND a été proposée au début des années 1980 comme alternative au concept de matière noire pour expliquer pourquoi les galaxies ne semblent pas obéir aux lois de la physique actuellement admises. Ce phénomène supposerait supposerait une modification de la loi de la gravitation universelle de Newton. A des accélérations (vitesse) extrêmement faibles les effets de la gravité sont plus forts que ne le suggèrent les lois de Newton. Si elle devait se vérifier, cela aurait évidemment des conséquences considérables pour d’autres domaines de la physique . Selon Kroupa, il faudrait complètement « réinventer la cosmologie ». C’est pourquoi davantage de preuves seront nécessaires.

L’hypothèse MOND pour sa part est encore très controversée, mais les auteurs explorent maintenant de nouvelles méthodes mathématiques pour des simulations encore plus précises. Elles pourraient ensuite être appliquées à d’autres observations et peut-être, apporter de nouvelles preuves en faveur de cette théorie alternative.

————————————————————–

Référence

[Submitted on 24 Oct 2022]

Asymmetrical tidal tails of open star clusters: stars crossing their cluster’s prah challenge Newtonian gravitation

Pavel Kroupa, Tereza Jerabkova, Ingo Thies, Jan Pflamm-Altenburg ….

arXiv:2210.13472  v1

After their birth a significant fraction of all stars pass through the tidal threshold (prah) of their cluster of origin into the classical tidal tails. The asymmetry between the number of stars in the leading and trailing tails tests gravitational theory. All five open clusters with tail data (Hyades, Praesepe, Coma Berenices, COIN-Gaia 13, NGC 752) have visibly more stars within dcl = 50 pc of their centre in their leading than their trailing tail. Using the Jerabkova-compact-convergent-point (CCP) method, the extended tails have been mapped out for four nearby 600-2000 Myr old open clusters to dcl>50 pc. These are on near-circular Galactocentric orbits, a formula for estimating the orbital eccentricity of an open cluster being derived. Applying the Phantom of Ramses code to this problem, in Newtonian gravitation the tails are near-symmetrical. In Milgromian dynamics (MOND) the asymmetry reaches the observed values for 50 < dcl/pc < 200, being maximal near peri-galacticon, and can slightly invert near apo-galacticon, and the Küpper epicyclic overdensities are asymmetrically spaced. Clusters on circular orbits develop orbital eccentricity due to the asymmetrical spill-out, therewith spinning up opposite to their orbital angular momentum. This positive dynamical feedback suggests Milgromian open clusters to demise rapidly as their orbital eccentricity keeps increasing. Future work is necessary to better delineate the tidal tails around open clusters of different ages and to develop a Milgromian direct n-body code.

https://arxiv.org/abs/2210.13472









20/11/22. Principaux Missiles balistiques intercontinentaux (ICBM)

A ce jour, l’observation astronomique des quelques 60 planètes extra-solaires visibles de la Terre et situé dans la zone dite habitable de leur propre système n’a pas révélé la présence de formes de vie telle que nous connaissons.

Pour se développer et laisser des structures visibles de l’espace, celle-ci demande quelques milliards d’années. Faut-il en conclure que ces planètes n’ont jamais connues de vie et moins encore de civilisations semblables à celles qui peuplent la Terre. Sans doute pas?

Aujourd’hui une conclusion plus tentantes est que ces planètes ont hébergé des civilisations avancées mais que celles-ci se sont auto-détruites dans des guerres faisant appel à des armes telles que nos ICBM dotés de plusieurs têtes nucléaires.

Nous avons rassemblé ci-dessous quelques informations concernant ces armes et les pays en disposant et apparemments disposés à les utiliser à la première occasion (bien avant la fin du présent siècle)

1 Russie. “Satan 2” : un missile d’une portée de 10 000 km Réputé extrêmement dévastateur, ce missile intercontinental est la pièce maîtresse de l’arsenal nucléaire de la Russie. Il aurait la capacité de raser un pays équivalent à la moitié de la France en quelques instants seulement.

Parmi les armes que la Russie affirme avoir à sa disposition, le “Satan 2” est de loin la plus puissante. Son vrai nom est RS-28 Sarmat, “Satan 2” étant un surnom donné par l’Otan en référence à la précédente génération de missiles, les “Satan”.

2 USA  Prompt Global Strike (PGS), ou « frappe planétaire rapide ». Il s’agit d’un programme  lancé au début des années 2000 qui a pour but d’atteindre n’importe quelle cible sur la planète, et ceci en moins d’une heure, . Un tel système permettrait aux États-Unis de répondre bien plus rapidement qu’actuellement à des menaces soudaines.

 La PGS serait aussi utile en remplaçant l’arme nucléaire conventionnelle sur presque 30 % des cibles. Le programme englobe de nombreuses technologies acquises et en développement, dont les missiles conventionnels lancés depuis les airs et la surface de la mer et les missiles hypersoniques lancés depuis les profondeurs océaniques.

4 France. Le missile M51 est un missile mer-sol balistique stratégique (MSBS) français dont l’ogive peut contenir jusqu’à 10 têtes nucléaires ayant chacune une trajectoire indépendante. Il n’est donc pas à proprement parler intercontinental

5 Iran. voir https://www.afrique-asie.fr/liran-pourrait-devoiler-son-premier-icbm/

Le futur missile balistique intercontinental iranien pourrait être propulsé par un moteur à propergol solide comme le “Raafe” dont les essais ont été effectuées il y a quelques mois. Destiné à équiper un nouveau lanceur spatial pour la mise en orbite de satellites, ce moteur peut parfaitement équiper un missile balistique de portée intercontinentale.

18/11/22. Baisse de tensions entre l’Occident et la Russie

Aujourd’hui chacun de bonne foi constate l’échec des efforts faits par le président de l’Ukraine Volodomir Zelensky pour présenter l’incident du missile récemment tombé en Pologne et ayant fait deux morts comme une volonté d’agression de la Russie contre l’Otan.

Les experts mandatés par l’Ouest avec l’accord de la Russie ont conclu à un accident. Il s’agissait d’un vieil anti-missiles russe remis en service par l’armée ukrainienne alors que l’Ukraine était soumis le même jour à un intense bombardement de missiles russes visant de multiples zones industrielle.

Du fait de ce diagnostic il était impossible de prétendre que Moscou avait décidé d’attaquer la Pologne membre de l’Otan et par conséquent l’Otan elle-même comme jusqu’au dernier moment Zelensky l’avait affirmé. Autrement dit, il devenait injustifié d’exiger de l’Alliance une action militaire contre Moscou comme le voulaient les plus déterminés des Ukrainiens.

On a remarqué que la plupart des membres européens de l’Otan en ont paru soulagés. La perspective d’une guerre contre la Russie, fut-elle conventionnelle, ne pouvait les réjouir après la crise du Covid. Il en fut de même des Etats-Unis. Le complexe militaro-industriel se satisfaisait des centaines de milliards de commande précédemment enregistrées.

Cet incident conduit à se demander si dans l’avenir l’Occident et la Russie n’auraient pas mieux à faire que préparer de futurs conflits. Les perspectives d’investissements futurs éventuellement conjoints ne manquent pas. Citons la lutte contre le réchauffement climatique ou celle contre les pandémies annoncées par l’OMS. Un peu plus tard la mise en valeur de la Lune et de Mars ne pourrait que bénéficier d’investissements cohérents. La Chine, pour sa part, s’y prépare déjà activement, bien évidemment sans attendre la Russie.

18/11/22 Laure Beccuau, procureure de Paris : « L’infiltration de nos sociétés par les réseaux criminels dépasse toutes les fictions »

Dans un entretien au « Monde », la procureure de la République de Paris dresse un état des lieux de la lutte contre le crime organisé et alerte sur l’urgence d’intensifier les efforts.

La juridiction nationale chargée de la lutte contre la criminalité organisée (Junalco) a pour mission, depuis bientôt trois ans, de s’attaquer aux groupes criminels actifs sur le territoire français, notamment liés au narcotrafic. Cette juridiction spécialisée, placée sous l’égide du parquet de Paris, s’occupe des dossiers les plus complexes, où s’entremêlent aussi bien les affaires de corruption, de blanchiment que de règlements de comptes.

Laure Beccuau, procureure de Paris, détaille pour Le Monde les enjeux actuels de la lutte contre le crime organisé, dont les groupes les plus actifs, souligne-t-elle, sont aujourd’hui « sans limites » en termes de financements, de projection géographique et de recours à la violence.

Lire
https://www.lemonde.fr/societe/article/2022/11/18/laure-beccuau-procureure-de-paris-l-infiltration-de-nos-societes-par-les-reseaux-criminels-depasse-toutes-les-fictions_6150397_3224.html

La lutte contre la haute criminalité organisée est un défi actuel, un défi majeur. Aujourd’hui, le niveau de la menace est tel que l’on détecte des risques de déstabilisation de notre Etat de droit, de notre modèle économique, mais également de nos entreprises, à un niveau stratégique majeur. Au regard des quatre-vingt-six dossiers de la Junalco, on s’aperçoit qu’on est face à des réseaux tentaculaires.

Il suffit de regarder ce qui se passe en Belgique et aux Pays-Bas pour démontrer que les organisations que l’on affronte n’ont aucune limite dans leurs moyens financiers, aucune limite dans leurs frontières ni dans leurs champs d’action (trafics de drogue, d’êtres humains, réseaux de prostitution…) pour peu que les profits se chiffrent en millions d’euros. Ces organisations ne connaissent pas de limite non plus dans leurs propres règles : pour s’imposer, elles ne s’interdisent plus rien. On le constate avec l’émergence de dossiers de règlements de comptes, d’enlèvements, de menaces, où le degré de violence est extrême.

Nous nous bornerons à deux observations

– Le problème n’est pas nouveau. Le crime organisé (les gangs) a toujours bénéficié de l’indulgence, voire de l’appui des classes dirigeantes, quel que soit le type d’organisation politique des sociétés dans lequel il travaille. C’est en priorité au service des classes politiques dominantes qu’il fournit des drogues, de luxueux immeuble et autres résidences secondaires dans des zones naturelles rigoureusement protégées, des prostituées hors de prix .. Tous les policiers et beaucoup de magistrats le savent. Ils se gardent bien d’intervenir sérieusement car effectivement les « réseaux tentaculaires » que l’on retrouve dans les dossiers de la Junalco sont largement aux commandes de l’Etat.


– Ceci dit, il suffirait de regarder comment ces questions se règlent aujourd’hui en Russie pour ne pas trop s’inquiéter en France



17/11/22. Les plus anciennes étoiles de l’univers

Ce sont celles dont l’apparition a marqué la fin de ce que l’on appelle les âges sombres de l’univers et le début de la  Grande recombinaison. Ce terme désigne la formation des atomes  par association des électrons et des noyaux atomiques, précédemment indépendants les uns des autres. Le phénomène se produit au moment où la température de l’univers descend en dessous du seuil sous lequel l’énergie moyenne des photons les plus énergétiques est en dessous de l’énergie d’ionisation de l’atome considéré. À l’époque de la recombinaison, les seuls noyaux atomiques présents dans l’Univers sont l’hydrogène, l’hélium et des traces de lithium. Le lithium se recombine (partiellement) avant l’hélium, lui-même se recombinant avant l’hydrogène.

Tous les autres corps de l’univers actuels ont été formés par la suite. Mais de quelle façon ?

On en trouve des traces dans les quasars .Les quasars sont les entités les plus lumineuses de l’Univers. Bien qu’il y ait d’abord eu une certaine controverse sur la nature de ces objets, jusqu’au début des années 1980, il existe maintenant un consensus selon lequel un quasar est la région compacte entourant un trou noir supermassif au centre d’une galaxie massive. Leur taille est de 10 à 10 000 fois le rayon de Schwarzschild du trou noir et leur émission d’énergie provient de la zone du disque d’accrétion qui l’entoure.

Récemment des chercheurs japonais trouvèrent des traces de telles étoiles anciennes en examinant la lumière d’un quasar situé à 30 milliards d’années lumière de la terre, le plus lointain jamais observé. Il se serait formé moins de 700 millions d’années après le Big Bang. Le spectre de la lumière du quasar a montré qu’il contenant 20 fois plus de fer que le Soleil. Par contre, il ne contenait que peu de magnésium ;

Ces caractère ne se retrouvent pas dans les modèles standards des quasars . Les électrons (positrons) produits par les processus précédemment exposés, produisent beaucoup d’ionisations, qui les ralentissent jusqu’à la fin de leur parcours, où les positrons s’annihilent.

Cela crée une instabilité au sein de l’étoile aboutissant à une explosion de type thermonucléaire qui disloque toute l’étoile et ne laisse pas de vestige derrière elle.

En effet, lorsque la création de matière et d’antimatière selon ce processus devient importante, la pression du flux de photons gamma sur les couches de l’étoile devient insuffisante pour s’opposer à sa contraction sous l’effet de sa propre gravité. Or, cette même contraction va augmenter le taux des réactions nucléaires en chauffant le cœur de l’étoile. La production de photons gamma créateurs d’antimatière va encore être accrue et le processus devient instable. Il s’emballe. De fait, la température ne va cesser de s’élever et, en très peu de temps, le cœur de l’étoile va exploser en convertissant sa matière en noyaux lourds.

Il se produit alors une supernova baptisée « Pair Instability Supernovae » (PISNe), supernova à instabilité de paire, ne laissant aucun astre compact derrière elle (sauf éventuellement un trou noir si l’étoile est suffisamment massive). La quantité de magnésium produite à cette occasion dépend essentiellement de la masse de l’étoile.

Le fait que de telles supernova n’apparaissent que dans des étoiles de Population 3 cent fois plus massives que le soleil montre qu’elles seraient les premières après le Big Bang à produire des éléments plus massifs que l’hélium.

Les électrons (positrons) produits par les processus précédemment exposés, produisent beaucoup d’ionisations, qui les ralentissent jusqu’à la fin de leur parcours, où les positrons s’annihilent. Cela crée une instabilité au sein de l’étoile qui aboutirait à une explosion de type thermonucléaire qui disloque toute l’étoile et ne laisse pas de vestige derrière elle.

En effet, lorsque la création de matière et d’antimatière selon ce processus devient importante, la pression du flux de photons gamma sur les couches de l’étoile devient insuffisante pour s’opposer à sa contraction sous l’effet de sa propre gravité. Or, cette même contraction va augmenter le taux des réactions nucléaires en chauffant le cœur de l’étoile.

La production de photons gamma créateurs d’antimatière va encore être accrue et le processus devient instable. Il s’emballe. De fait, la température ne va cesser de s’élever et, en très peu de temps, le cœur de l’étoile va exploser en convertissant sa matière en noyaux lourds. Il se produit alors une supernova baptisée « Pair Instability Supernovae » (PISNe), supernova à instabilité de paire, ne laissant aucun astre compact derrière elle (sauf éventuellement un trou noir si l’étoile est suffisamment massive).

La quantité de magnésium produite à cette occasion dépend essentiellement de la masse de l’étoile.

Le fait que de telles supernova n’apparaissent que dans des étoiles de Population 3 cent fois plus massives que le soleil montre qu’elles seraient les premières après le Big Bang à produire des éléments plus massifs que l’hélium.

Référence

Potential Signature of Population III Pair-instability Supernova Ejecta in the BLR Gas of the Most Distant Quasar at z = 7.54*

The Astrophysical JournalVolume 937Number 2

Abstract

The search for Population III stars has fascinated and eluded astrophysicists for decades. One promising place for capturing evidence of their presence must be high-redshift objects; signatures should be recorded in their characteristic chemical abundances. We deduce the Fe and Mg abundances of the broadline region (BLR) from the intensities of ultraviolet Mg ii and Fe ii emission lines in the near-infrared spectrum of UKIDSS Large Area Survey (ULAS) J1342+0928 at z = 7.54, by advancing our novel flux-to-abundance conversion method developed for quasars up to z ∼ 3. We find that the BLR of this quasar is extremely enriched, by a factor of 20 relative to the solar Fe abundance, together with a very low Mg/Fe abundance ratio: [Fe/H] = +1.36 ± 0.19 and [Mg/Fe] =−1.11 ± 0.12, only 700 million years after the Big Bang. We conclude that such an unusual abundance feature cannot be explained by the standard view of chemical evolution that considers only the contributions from canonical supernovae. While there remains uncertainty in the high-mass end of the Population III initial mass function, here we propose that the larger amount of iron in ULAS J1342+0928 was supplied by a pair-instability supernova (PISN) caused by the explosion of a massive Population III star in the high-mass end of the possible range of 150–300 M . Chemical evolution models based on initial PISN enrichment well explain the trend in [Mg/Fe]-z all the way from z < 3 to z = 7.54. We predict that stars with very low [Mg/Fe] at all metallicities are hidden in the galaxy, and they will be efficiently discovered by ongoing new-generation photometric surveys

16/11/2022 Aujourd’hui la guerre des Etats-Unis avec la Chine est technologique

L’attention des opinions publiques occidentales est régulièrement attirée sur des zones terrestres ou maritimes susceptibles de voir les Etats-Unis et la Chine s’affronter militairement. Mais si guerre il y a, elle se livre sur un tout autre terrain.

Il s’agit des domaines de ce que nous nommerons ici pour simplifier les hautes technologies. Sur ces terrains, les Etats-Unis ont toujours exercé une domination incontestée. Les Européens qui en avaient les moyens dans certains domaines, notamment concernant l’armement, ont toujours renoncé à concurrencer sérieusement le grand allié américain. Il en sera bientôt de même dans le domaine spatial. La Lune et Mars deviendront des planètes américaines.

La guerre des Etats-Unis avec la Chine se livre principalement sur le terrain de ce que l’on nomme encore pour simplifier celui des semi-conducteurs dits aussi puces informatique ou chips. Le pays qui conçoit et fabrique les puces les plus intelligentes du monde disposera également des armes de précision les plus dangereuses, des usines les plus efficaces et des outils de calcul quantique les plus inventifs pour briser pratiquement toute forme de cryptage. Aujourd’hui, les États-Unis sont en tête, mais la Chine est déterminée à les rejoindre 

Récemment, l’administration Biden a publié une nouvelle série de restrictions à l’exportation qui concrètement disent à la Chine : « Vous avez trois générations de retard technologique sur nous en matière de microcircuits logiques mais aussi de mémoire et d’équipements. Nous pouvons vous assurer que vous ne nous rattraperez jamais. »

Ou encore, comme le conseiller à la sécurité nationale Jake Sullivan l’a exprimé de manière plus diplomatique : « Étant donné la nature fondamentale de certaines technologies, telles que les microcircuits de logiques et de mémoire avancée, nous devons conserver une avance aussi importante que possible » – et ce, à tout jamais.

Dans l’immédiat, les nouvelles réglementations que vient de publier l’US Department of Commerce (https://www.usinenouvelle.com/article/vers-une-limitation-des-exportations-de-semi-conducteurs-americains-vers-la-chine.N2042612) empêcheront la Chine d’acheter à l’Occident les semi-conducteurs les plus perfectionnés ou les équipements nécessaires pour les fabriquer elle-même. La nouvelle réglementation interdit également à tout ingénieur ou scientifique américain d’aider la Chine à fabriquer des puces sans autorisation spécifique, même si cet Américain travaille en Chine sur des équipements non soumis aux contrôles à l’exportation. La réglementation renforce également le suivi afin de garantir que les puces conçues par les États-Unis et vendues à des entreprises civiles en Chine ne se retrouvent pas entre les mains des militaires chinois. Finalement , l’équipe Biden a ajouté une « règle sur les produits étrangers directs » qui, comme l’a noté le Financial Times, « a été utilisée pour la première fois par l’administration Donald Trump contre le groupe technologique chinois Huawei et qui interdit de fait à toute entreprise américaine ou non américaine de fournir à des entités chinoises ciblées du matériel ou des logiciels dont la chaîne d’approvisionnement comporte de la technologie américaine. »

Cette dernière règle est capitale, parce que les semi-conducteurs les plus perfectionnés sont fabriqués par des coalitions d’entreprises d’Amérique, d’Europe et d’Asie. AMD, Qualcomm, Intel, Apple et Nvidia excellent dans la conception de puces comportant des milliards de transistors toujours plus étroitement assemblés pour produire la puissance de traitement recherchée. Synopsys et Cadence créent des outils et des logiciels sophistiqués de conception assistée par ordinateur sur lesquels les fabricants de puces dessinent leurs nouvelles solutions. Applied Materials crée et modifie les matériaux pour forger les milliards de transistors et de fils de connexion de la puce. ASML, une société néerlandaise, fournit les outils de lithographie en partenariat avec, entre autres, Zeiss SMT, une société allemande spécialisée dans les lentilles optiques, qui dessine les pochoirs sur les plaquettes de silicium à partir de ces dessins, en utilisant la lumière ultraviolette intense et extrême, sur une longueur d’onde très courte qui permet d’imprimer de minuscules dessins sur une micropuce. Intel, Lam Research, KLA et des entreprises qui vont de la Corée jusqu’au Japon jouent également un rôle clé dans cette coalition.

Or plus l’on repousse les limites de la physique et de la science des matériaux afin de concentrer davantage de transistors sur une puce pour obtenir plus de puissance de traitement et continuer à faire progresser l’intelligence artificielle, moins il est probable qu’une seule entreprise, ou un seul pays, puisse exceller dans toutes les parties du processus de conception et de fabrication. Chacun a besoin de tous les autres. La raison pour laquelle Taiwan Semiconductor Manufacturing Company, connue sous le nom de TSMC, est considérée comme le premier fabricant de puces au monde est que chaque membre de cette coalition confie à TSMC ses secrets commerciaux les plus confidentiels, celle-ci les fusionne et exploite ensuite le résultat au profit de l’ensemble.

Les partenaires de la coalition ne faisant pas confiance à la Chine et ne voulant pas que celle-ci leur vole leur propriété intellectuelle, Pékin tente de reproduire seule, avec de vieilles technologies, la pile de puces la plus performante du monde. En 2017, la Chine a réussi à voler une certaine quantité de technologies de puces, notamment la technologie 28 nanomètres de TSMC. Mais la Chine est incapable de produire ces puces en masse avec précision si elle ne dispose pas de la dernière technologie d’ASML, qui est désormais interdite dans le pays.

Cette semaine, l’auteur du présent article a interviewé la secrétaire d’État américaine au commerce, Gina Raimondo, qui supervise à la fois les nouveaux contrôles à l’exportation des puces et les 52,7 milliards de dollars que l’administration Biden vient d’obtenir pour soutenir la recherche américaine sur les semi-conducteurs de nouvelle génération, et pour ramener la fabrication de puces avancées aux États-Unis. Gina Raimondo réfute toute idée qui voudrait que les nouvelles réglementations s’apparentent à un acte de guerre.

« Les États-Unis sont dans une position intenable », a-t-elle dit. « Aujourd’hui, nous achetons 100 % de nos puces logiques avancées à l’étranger – 90 % à TSMC à Taïwan et 10 % à Samsung en Corée. » «  Nous ne fabriquons aux États-Unis aucune des puces dont nous avons besoin pour l’intelligence artificielle, pour notre armée, pour nos satellites, pour nos programmes spatiaux », sans parler de la myriade d’applications non militaires qui font tourner notre économie. La récente loi sur les CHIPS, a-t-elle déclaré, est notre « initiative offensive », elle a pour but de renforcer l’ensemble de notre écosystème d’innovation afin que davantage des micropuces les plus sophistiquées soient fabriquées aux États-Unis.

Imposer à la Chine les nouveaux contrôles à l’exportation des technologies avancées de fabrication de puces, a-t-elle déclaré, « était notre stratégie défensive. La Chine a une stratégie de fusion militaro-civile » et Pékin a clairement indiqué « que la Chine a l’intention de devenir totalement autosuffisante dans les technologies les plus avancées » pour dominer à la fois les marchés commerciaux civils et les champs de bataille du XXIe siècle. « Nous ne pouvons pas ignorer les intentions de la Chine. »

Voilà pourquoi, pour nous protéger et protéger nos alliés – et toutes les technologies que nous avons inventées individuellement et collectivement -, a-t-elle ajouté, « ce que nous avons fait était l’étape logique suivante, pour empêcher la Chine de passer elle-même à l’étape suivante. » Les États-Unis et leurs alliés conçoivent et fabriquent « les puces de supercalculateurs les plus avancées, et nous ne voulons pas qu’elles tombent entre les mains de la Chine et soient utilisées à des fins militaires. »

Notre principal objectif, a conclu Mme Raimondo, « est de passer à l’offensive, d’innover plus vite que les Chinois. Mais dans le même temps, nous allons répondre à la menace croissante qu’ils représentent en protégeant ce qui doit l’être. Il est important que nous désamorcions la situation là où nous le pouvons et que nous fassions des affaires là où nous le pouvons. Nous ne voulons pas d’un conflit. Mais nous devons nous protéger en gardant les yeux bien ouverts. »

Le journal d’État chinois Global Times a estimé dans son éditorial que l’interdiction ne ferait que « renforcer la volonté et la capacité de la Chine à se débrouiller seule en matière de science et de technologie ». Bloomberg a cité un analyste chinois anonyme qui a affirmé : « Toute réconciliation est exclue. »

NB Ce texte est adapté de L’Usine Nouvelle https://www.usinenouvelle.com/article/les-etats-unis-font-de-leur-plan-chips-for-america-une-arme-contre-la-chine.N2041407

16/11/22 Un missile présumé russe en Pologne, deux morts civils. Cent missiles déclarés russes en Ukraine. Combien de morts civils ?

Chacun connaît les faits. Un missile a tué deux personnes dans un village polonais proche de la frontière ukrainienne, le jour même où la Russie a lancé une centaine de missiles sur l’Ukraine, faisant au moins un mort à Kyiv. Varsovie parle d’un « projectile de fabrication russe », Moscou dément avoir frappé la Pologne, membre de l’Otan.

Nous n’avons pas pour notre part d’explications à avancer concernant le missile tombé en Pologne, autres qu’a relater les nombreuses et contradictoires sources qui dès l’annonce de l’événement ont su à qui l’attribuer et les objectifs que visaient les envoyeurs

Quant à la centaine de missiles lancés par la Russie ce même jour sur l’Ukraine, nous aurions au contraire beaucoup de questions à poser, mais apparemment nous ne sommes pas nombreux :

Que visaient ces cent missiles russes ? Moscou a mentionné des équipements industriels ukrainiens stratégiques. Mais ceux-ci étaient-ils installés dans une sorte de désert périurbain ?

Les machines en quoi consistaient en partie ces équipements fonctionnaient elles seules ? La question peut se poser puisque un mort à Kyiv a été déclaré à la suite du lancement de ces cent missiles. S’agissait-il d’une victime civile ? Il est vrai que si des victimes civiles avaient été enregistrées, la Russie aurait pu être poursuivie. Rappelons la Convention de Genève relative à la protection des personnes civiles en temps de guerre.

De quel type étaient ces cent missiles ? Pouvaient-ils eux mêmes contrôler leur trajectoire au dessus de l’Ukraine. Des contrôleurs de vol russes humains existaient-ils ? Si oui, où étaient-ils localisés ?

Pour mise à jour, voir

https://www.i24news.tv/fr/actu/conflit-en-ukraine/1668530143-la-russie-a-tire-environ-100-missiles-sur-l-ukraine-armee-de-l-air-ukrainienne#:~:text=multiples%20frappes%20russes-,La%20Russie%20a%20tir%C3%A9%20%22environ%22%20100%20missiles%20sur%20l’,arm%C3%A9e%20de%20l’air%20ukrainienne.

2 https://www.courrierinternational.com/article/guerre-en-ukraine-que-reste-t-il-de-la-flotte-russe-en-mer-noire

15/11/22. Le vide interstellaire

Le vide interstellaire, que ce soit au sein d’une galaxie ou entre galaxies, n’est pas complètement vide. Une galaxie est une structure cosmique formée par le rassemblement sous l’effet de la gravitation d’étoiles et de leurs planètes éventuelles, de particules glacées, de poussière interstellaire et de gaz, sans doute même de la matière invisible dite noire, et contenant souvent un trou noir supermassif en son centre.

Les gaz et les glaces dans un tel ensemble s’y répartissent selon une logique stricte dépendant des capacités d’absorption ou de désabsorption des gaz par les particules de matière en contact. Selon les mesures faites en laboratoire, les capacités d’absorption des gaz dépendent du caractère de la surface d’absorption.

Si celle-ci est plate (lisse), la capacité d’absorption est égale à l’unité pour la plupart des gaz. Mais l’étude référencée ci-dessous a montré qu’en ce qui concerne l’eau H2O et le Gaz carbonique CO2 elle diminuait brutalement dans le cas de substrats analogues à de la poussière cosmique, tels des particules sub-micrométriques de carbone ou d’olivine.

Ceci résulte de la courbure des grains de matière. Le phénomène peut s’étendre à des structures beaucoup plus importantes telles que les disques circumstellaires. Il est apparu par ailleurs que les conditions de libération de l’H2O n’était pas modifiées par la taille des grains

Référence

Laboratory-based sticking coefficients for ices on a variety of small-grain analogues

Nature Astronomy 

volume5, pages 445–450 (2021)

Abundances and the partitioning between ices and gases in gas–grain chemistry are governed by adsorption and desorption on grains. Understanding of astrophysical observations relies on laboratory measurements of adsorption and desorption rates on dust grains analogues. On flat surfaces, gas adsorption probabilities (or sticking coefficients) have been found to be close to unity for most gases1,2,3. Here we report a strong decrease in the sticking coefficients of H2O and CO2 on substrates more akin to cosmic dust, such as submicrometre-sized particles of carbon and olivine, bare or covered with ice. This effect results from the local curvature of the grains, and then extends to larger grains made of aggregated small particles, such as fluffy or porous dust in more evolved media (for example, circumstellar disks). The main astrophysical implication is that accretion rates of gases are reduced accordingly, slowing the growth of cosmic ices. Furthermore, volatile species that are not adsorbed on a grain at their fourre-tout temperature will persist in the gas phase, which will impact gas–ice partitions. We also found that thermal desorption of H2O is not modified by grain size, and thus the temperature of snowlines should be independent of the dust size distribution.

Pour en savoir plus

Smith, RS & Kay, BD Études par faisceaux moléculaires des processus cinétiques dans les films d’eau à l’échelle nanométrique. Le surf. Rév. Lett. 4 , 781–797 (1997).

Chaabouni, H. et al. Coefficient d’adhérence de l’hydrogène et du deutérium sur les silicates en conditions interstellaires. Astre. Astrophyse. 358 , A128 (2012).

J., Acharyya, K. & Vidali, G. Collage de molécules sur de la glace d’eau amorphe non poreuse. Astrophyse. J. 823 , 56 (2016).

Weingartner, JC & Draine, BT Répartition et extinction de la taille des grains de poussière dans la Voie Lactée, le Grand Nuage de Magellan et le Petit Nuage de Magellan. Astrophyse. J. 548 , 296–309 (2001).

14/11/22. Les éléments nécessaires à la vie sont apparus très tôt dans l’histoire de l’univers

L’univers initial était essentiellement composé de nuages de gaz d’atomes d’hydrogène et d’hélium. Ceux-ci sont encore les éléments les plus répandus dans l’Univers. Les observations actuelles suggèrent que les premières étoiles se sont formées à partir de tels nuages de gaz environ 150 à 200 millions d’années après le Big Bang.

https://fr.wikipedia.org/wiki/Histoire_et_chronologie_de_l%27Univers

L’hydrogène est l’élément le plus abondant de l’Univers : 75 % en masse et 92 % en nombre d’atomes. Il est présent en grande quantité dans les étoiles et les planètes gazeuses ; il est également le composant principal des nébuleuses et du gaz interstellaire.

Dans la croûte terrestre, l’hydrogène ne représente que 0,22 % des atomes, loin derrière l’oxygène (47 %) et le silicium (27 %)7. Il est rare également dans l’atmosphère terrestre, puisqu’il ne représente en volume que 0,55 ppm des gaz atmosphériques. Sur Terre, la source la plus commune d’hydrogène est l’eau, dont la molécule est constituée de deux atomes d’hydrogène et d’un atome d’oxygène ; l’hydrogène est surtout le principal constituant (en nombre d’atomes) de toute matière vivante, associé au carbone dans tous les composés organiques. Par exemple, l’hydrogène représente 63 % des atomes et 10 % de la masse du corps humain. Sous de très faibles pressions, comme celles qui existent dans l’espace, l’hydrogène a tendance à exister sous forme d’atomes individuels car il n’entre pas en collision avec d’autres atomes pour se combiner. Les nuages d’hydrogène sont à la base du processus de la formation des étoiles.

Des molécules, précurseurs de la vie, tôt dans l’histoire du cosmos ?

https://www.futura-sciences.com/sciences/actualites/astronomie-eau-decouverte-univers-il-y-13-milliards-annees-17769/

Un nouveau record vient d’être atteint à ce sujet par une équipe internationale travaillant avec le réseau de radiotélescope Atacama Large Millimeter/submillimeter Array (Alma) (Voir un article repris ci-dessous et publié dans The Astrophysical Journal  en accès libre sur arXiv.

Il expose des observations faites avec Alma concernant une paire de galaxies en interaction appelée SPT0311-58 dont le décalage spectral vers le rouge indique qu’elle est vue alors que le cosmos observable était âgé d’environ 780 millions d’années, et plus précisément il y a 12,88 milliards d’années. Elles ont été commentées en ces termes par un des auteurs de la découverte, Sreevani Jarugula :

« Nous avons détecté à la fois des molécules d’eau et de monoxyde de carbone dans la plus grande des deux galaxies. L’oxygène et le carbone, en particulier, sont des éléments de première génération et, sous les formes moléculaires du monoxyde de carbone et de l’eau, ils sont essentiels à la vie telle que nous la connaissons. Cette galaxie est la galaxie la plus massive actuellement connue à haut décalage spectral vers le rouge, c’est-à-dire à l’époque où l’Univers était encore très jeune. Elle contient plus de gaz et de poussière que les autres galaxies de l’Univers primitif, ce qui nous offre de nombreuses opportunités d’observer des molécules abondantes et de mieux comprendre comment ces éléments créateurs de vie ont eu un impact sur le développement de l’Univers primitif ».

L’astrophysicienne poursuit ses commentaires dans un communiqué du National Radio Astronomy Observatory ( Observatoire national de radioastronomie, un centre de recherche situé aux États-Unis) en expliquant que « cette étude fournit non seulement des réponses sur les lieux et les distances où de l’eau peut exister dans l’Univers, mais a également donné lieu à une grande question : comment tant de gaz et de poussière se sont-ils assemblés pour former des étoiles et des galaxies si tôt dans l’Univers ? La réponse nécessite une étude plus approfondie de ces galaxies formatrices d’étoiles et d’autres similaires pour mieux comprendre la formation et l’évolution des structures dans l’Univers primitif ».

Références

Molecular Line Observations in Two Dusty Star-Forming Galaxies at z = 6.9

Sreevani JarugulaJoaquin D.VieiraAxel WeißJustin S. SpilkerManuel AravenaMelanie ArchipleyMatthieu Béthermin, …etc

SPT0311-58 is the most massive infrared luminous system discovered so far during the Epoch of Reionization (EoR). In this paper, we present a detailed analysis of the molecular interstellar medium at z = 6.9, through high-resolution observations of the CO(6-5), CO(7-6), CO(10-9), [CI](2-1), and p-H2O(211-202) lines and dust continuum emission with the Atacama Large Millimeter/submillimeter Array (ALMA). The system consists of a pair of intensely star-forming gravitationally lensed galaxies (labelled West and East). The intrinsic far-infrared luminosity is (16 ± 4)×1012 L⊙ in West and (27 ± 4)×1011 L⊙ in East. We model the dust, CO, and [CI] using non-local thermodynamic equilibrium radiative transfer models and estimate the intrinsic gas mass to be (5.4 ± 3.4)×1011 M⊙ in West and (3.1 ± 2.7)×1010 M⊙ in East. We find that the CO spectral line energy distribution in West and East are typical of high-redshift sub-millimeter galaxies (SMGs). The CO-to-H2 conversion factor (αCO) and the gas depletion time scales estimated from the model are consistent with the high-redshift SMGs in the literature within the uncertainties. We find no evidence of evolution of depletion time with redshift in SMGs at z > 3. This is the most detailed study of molecular gas content of a galaxy in the EoR to-date, with the most distant detection of H2O in a galaxy without any evidence for active galactic nuclei in the literature.

arXiv:2108.11319 [astro-ph.GA]
 (or arXiv:2108.11319v1 [astro-ph.GA] for this version)
 https://doi.org/10.48550/arXiv.2108.11319
Related DOI:https://doi.org/10.3847/1538-4357/ac21db