18/11/2023. Est-il prudent de rapporter sur terre pour étude des échantillons du sol martien ?

La recherche de la présence de vie sur d’autres planètes constitue le principal objectif des missions spatiales déjà conduites ou envisagées. Mais comment procéder à cette recherche, surtout s’il s’agit d’une flore microbienne ou virale nécessitant des analyses de laboratoires que des rovers tels que l’actuel Perseverence ne sont pas équipés pour faire ?

La Nasa, associée à l’Esa pour le compte des Européens, a étudié un projet dit Mars Sample Return (MSR) mission. Il s’agira de rapporter pour étude sur terre en 2033 500 gr de sol et de rocher martiens prélevés dans des emplacements jugés les plus favorables à contenir des traces d’une vie passée ou actuelle. Une telle mission sera complexe et coûteuse, du fait de la nécessité d’assurer le trajet de retour, qui durerait près de 2 mois, avec plusieurs engins agissant de manière synchronisée, tant sur Mars que dans l’espace et sur terre.

Voir l’animation https://mars.nasa.gov/msr/multimedia/videos/?v=523

Cependant les difficultés budgétaires actuelles de la Nasa ne lui ont pasencore permis d’entreprendre ce projet. Mais un certain nombre de scientifiques ne regrettent pas ce retard. Ils estiment que les précautions nécessaires pour éviter de contaminer la Terre avec des micro-organismes inconnus n’ont pas été prises. Le souvenir de la récente pandémie de Covid 19, qui a tué des millions de malades à la suite d’une fuite survenue dans un laboratoire chinois, ne doit pas être oublié.

Un comité dit International Committee Againt Mars Samples Return (voir https://www.icamsr.org/) vient d’être mis en place pour prévenir le risque de voir un agent pathogène martien s’échapper au retour de la mission et mettre en danger tout l’écosystème terrestre. D’une façon générale, les experts consultés à ce jour constatent que les précautions les plus élémentaires n’avaient pas été envisagées, par exemple le risque de mutation d’un germe martien.

Restera par ailleurs à convaincre le gouvernement chinois, qui met en place sa propre mission, de participer à ces précautions.

18/11/2023. Ukraine, retour au réalisme.

Les jérémiades de l’actuel président de l’Ukraine Volodomir Zelenski n’y pourront rien. L’armée ukrainienne n’a pas les matériels militaires et moins encore les effectifs lui permettant, malgré son courage, de l’emporter sur l’armée russe. Celle-ci, comme l’avait fait l’armée du Czar lors de la campagne de Russie, est en train de se ressaisir et se réorganiser.

Ceci signifie que toutes les provinces russophones de l’Ukraine, les plus riches, pourront sans oppositions se rapprocheront de Moscou et seront soutenues par lui. Il s’agit notamment de ce que l’on appelait du temps des czars les « territoires de la Russie du Sud » comprenant la Novorossiya, le nom historique donné aux régions administratives immédiatement au Nord de la mer Noire et de la Crimée.

Vladimir Poutine l’a bien compris. Lors d’une réunion le 3 novembre dernier à la veille du jour dit de l’Unité Nationale avec les dirigeants fédéraux et régionaux des « chambres civiques », il a répété que la Russie défendait « nos valeurs morales, notre histoire, notre culture, notre langage ». Il a exhorté ses frères et sœurs du Donbass et de la Novorossia à faire de même.

Une personnalité ukrainienne connue, le juriste Vladimir Rogov, lui a répondu qu’après avoir été coupées de leurs racines russes pendant 30 ans, les forces historiques de la Grande Russie ne ménageront aucun effort pour faire revivre un passé glorieux .

Ceci n’a pas échappé aux Etats-Unis. En fait, que la capitale de l’Ukraine ne soit plus Kiev repris par les Russophones mais Lviv bien plus à l’est n’inquiéterait personne. Par ailleurs les personnalités tant Démocrates que Républicains qui préparent à grand frais les élections ont de moins envie de continuer à financer ce gouffre sans fond que leur paraît être l’entourage de Volodomir Zélenski.

17/11/2023 Le continent Antarctique avant la Grande Glaciation du Cénozoique

Un paysage de rivières et de glaciers proche de celui que l’on trouve dans les Pyrénées françaises semble avoir caractérisé l’est du continent Antarctique durant l’Eocène, avant la grande glaciation du Cénozoïque survenue il y a trente millions d’années. Depuis, excepté quelques sommets montagneux émergeant, l’ensemble du continent semble avoir été couvert sans interruption d’un manteau de glace épais de 2.000 mètres ou plus.

Deuxième série du paléogène, succédant au paléocène et précédant l’oligocène, l’éocène se situe au cénozoïque, de – 56 à – 34 millions d’années (durée : 22 millions d’années). 

Aujourd’hui, grâce à des sondages faits au radar satellitaire par des chercheurs de la Durham University (UK), les grandes lignes de ce continent apparaissent, mais les détails demeurent obscurs.

Ils ont notamment révélé une région qui a été nommée Highland A, distincte du paysage environnant.

Cette région, d’une surface de 32.000 km2, est constitué de 3 épaisses langues de terre, séparées par des fjords profonds. Les chercheurs pensent que ces traits décrivent une histoire géologique ayant commencé à la séparation de l’Antarctique d’avec le super-continent Gondwana il y a environ 180 millions d’années. Cette région a été couverte de glace, selon eux, sans interruption depuis 14, sinon 34 millions d’années.

Ces études présentent un intérêt immédiat. Elles devrait montrer comment l’Antarctique réagira lors du grand réchauffement climatique attendu pour la fin de ce siècle.

Observation

Les fossiles présentant certaines des caractéristiques dérivées uniques à Homo sapiens sont datés d’environ 300 000 ans. Puis, des restes d’Homme anatomiquement moderne, ou Homo sapiens, dont nous sommes les descendants, sont mis au jour en Ethiopie, datés entre 195 à 160 000 ans.

Référence

  1. nature communications  
  2. articles  

An ancient river landscape preserved beneath the East Antarctic Ice Sheet

volume14, Article number: 6507 (2023) 

Abstract

The East Antarctic Ice Sheet (EAIS) has its origins ca. 34 million years ago. Since then, the impact of climate change and past fluctuations in the EAIS margin has been reflected in periods of extensive vs. restricted ice cover and the modification of much of the Antarctic landscape. Resolving processes of landscape evolution is therefore critical for establishing ice sheet history, but it is rare to find unmodified landscapes that record past ice conditions. Here, we discover an extensive relic pre-glacial landscape preserved beneath the central EAIS despite millions of years of ice cover. The landscape was formed by rivers prior to ice sheet build-up but later modified by local glaciation before being dissected by outlet glaciers at the margin of a restricted ice sheet. Preservation of the relic surfaces indicates an absence of significant warm-based ice throughout their history, suggesting any transitions between restricted and expanded ice were rapid.

Glaciation of Antarctica was triggered by global climatic cooling over the Cenozoic Era (Fig. 1). During the Eocene, glaciation was likely restricted to ephemeral ice masses and small-scale mountain glaciers in regions of high topography1,2. However, a step-change in ice extent and volume occurred at the Eocene-Oligocene transition (EOT; ca. 34.0–33.5 Ma; Fig. 1) when the first widespread Antarctic glaciation was recorded in marine sediment records3,4. This transition to a glaciated Antarctica was potentially caused by a combination of CO2 dropping below a key threshold5, associated feedbacks within the carbon cycle6,7, and the opening/deepening of circum-Antarctic ocean gateways8. In East Antarctica, the ice sheet likely nucleated on the high topography of the Gamburtsev Subglacial Mountains, Transantarctic Mountains, and Dronning Maud Land2,5,9 (Fig. 1). Expansion and coalescence of independent ice masses on these highlands led to the growth of the continental-scale EAIS5,10.

17/11/2023. Un nouveau calculateur quantique de plus de 1000 qubits

La société californienne Atom Computing vient de présenter un calculateur quantique doté de plus de 1000 bits quantiques (qubits). Elle double ainsi les records précédemment détenus par IBM et Google avec quelques 400 qubits.

Le nombre des qubits n’augmente pas nécessairement les capacités de calcul d’un calculateur quantique, comme il le fait dans le cas des supercalculateurs classiques. Il augmente la capacité de contrôle des erreurs qui est nécessaire dans le cas des calculateurs quantiques. Plus ceux-ci ont de qubits leur permettant de procéder à des calculs complexes, plus ils font d’erreurs. Il est indispensable d’éliminer celles-ci si l’on veut continuer à calculer.

D’où proviennent ces erreurs ?

Les ordinateurs quantiques manipulent les qubits selon une méthode appelée « algorithmes quantiques ». Le taux d’erreurs de celle-ci est encore trop important

La difficulté réside dans le fait que les qubits sont si sensibles que même la lumière peut provoquer des erreurs de calcul, un risque qui augmente à mesure que l’ordinateur quantique grossit . La correction des erreurs quantiques consiste à protéger l’information en la codant à l’aide de plusieurs qubits physiques formant un « qubit logique ». Il faut donc réaliser des opérations au moyen de qubits logiques plutôt que des qubits individuels. En codant un grand nombre de qubits physiques sur un processeur quantique de sorte à créer un qubit logique, on peut réduire le taux d’erreur et ainsi ouvrir la voie à des algorithmes quantiques utiles.

L’une des solutions pour créer un qubit consiste à élaborer un « point quantique » qui est fondamentalement un électron piégé dans une cage d’atomes à très basse température, performance technique qui est aujourd’hui accessible aux laboratoires de Bell ou d’IBM par exemple qui peuvent manipuler des atomes individuellement.

Mais Atoms Computing utilise des atomes neutres enfermés par des lasers dans un réseau (grid) en deux dimensions. L’un des intérêts de cette formule est qu’elle permet facilement d’augmenter le nombre des qubits en service, ce qui sera une nécessité à l’avenir selon Rob Hayes, PDG de Atoms Computer

https://news.mit.edu/2023/engineers-discover-new-way-control-atomic-nuclei-qubits-0215

Référence

nature  

  1. nature communications  
  2. articles  

Assembly and coherent control of a register of nuclear spin qubits

Nature Communications 

volume13, Article number: 2779 (2022) 

Abstract

The generation of a register of highly coherent, but independent, qubits is a prerequisite to performing universal quantum computation. Here we introduce a qubit encoded in two nuclear spin states of a single 87Sr atom and demonstrate coherence approaching the minute-scale within an assembled register of individually-controlled qubits. While other systems have shown impressive coherence times through some combination of shielding, careful trapping, global operations, and dynamical decoupling, we achieve comparable coherence times while individually driving multiple qubits in parallel. We highlight that even with simultaneous manipulation of multiple qubits within the register, we observe coherence in excess of 105 times the current length of the operations, with  seconds. We anticipate that nuclear spin qubits will combine readily with the technical advances that have led to larger arrays of individually trapped neutral atoms and high-fidelity entangling operations, thus accelerating the realization of intermediate-scale quantum information processors.

16/11/2023 Incendies de forêts et santé publique

En Amérique du nord, Etats-Unis et Canada, les conséquences catastrophiques des incendies de forêt pour la santé publique ne cessent de croître.

Les incendies seront les premier effets du réchauffement climatique en cours. Il s’agira en premier lieu des incendies de forêts. D’une superficie totale d’un peu plus de 4 milliards d’hectares, les forêts du monde couvrent actuellement le tiers de la surface terrestre mondiale, d’après les derniers chiffres de l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO) . En Amérique du Nord les forêts occupent environ 40% du territoire.

De toutes les substances polluantes contenues dans la fumée des feux de forêt, ce sont les particules fines (PM2,5) qui posent le plus grand risque pour la santé humaine. Le terme PM2,5 renvoie à toutes les particules qui mesurent 2,5 millionièmes de mètre (µm ou microns) ou moins de diamètre.

Les forêts sont par nature extrêmement combustibles. Il suffit d’une légère diminution de leur irrigation, ou d’une légère augmentation de leur ensoleillement, pour qu’elles se dessèchent et meurent, laissant place à des savanes sans intérêt économique et le plus souvent à des terres désertiques analogues à celles du Sahara, dont on sait qu’il fut un temps couvert de forêts prospères.

Or les incendies de forêts, en dehors de leur coûts écologique, ont un coût humain dont on commence à se rendre compte au Canada et aux Etats-Unis. Ils provoquent notamment des concentrations de ce que l’on nomme des particules fines. De toutes les substances polluantes contenues dans la fumée des feux de forêt, ce sont les particules fines (PM2,5) qui posent le plus grand risque pour la santé humaine. Le terme PM2,5 renvoie à toutes les particules qui mesurent 2,5 millionièmes de mètre (µm ou microns) ou moins de diamètre.

Les particules fines, comme toutes particules, sont constituées d’un mélange de différents composés chimiques. Elles sont émises principalement lors des phénomènes de combustion ou formées par réactions chimiques à partir de gaz précurseurs présents dans l’atmosphère. Aux concentrations auxquelles sont exposées la plupart des populations urbaines et rurales des pays développés et en développement, ces particules ont des effets nuisibles sur la santé. L’exposition chronique contribue à augmenter le risque de contracter des maladies cardiovasculaires et respiratoires, ainsi que des cancers pulmonaires.

Les effets sur la santé sont dépendants de la taille des particules. Les particules fines, inférieures à 2.5 µm, touchent à long terme la santé cardiovasculaire. Les particules PM2.5 issues des feux de forets altèrent aussi  la santé neurologique (performances cognitives) et la santé périnatale. Inhalées, elles peuvent pénétrer dans le sang et avoir des effets nuisibles sur tous les organes.

Enfin les fumées résultant des feux de forêts ne restent pas sur place. En Amérique du Nord, emportées par divers phénomènes, dont les vents, elles peuvent parcourir des milliers de kilomètres avant de redescendre. Elles auraient affecté les ¾ des Etats fédérés.

Référence

  • Article
  • Published: 20 September 2023
  • The contribution of wildfire to PM2.5 trends in the USA
  • Nature 
  • volume622,  pages 761–766 (2023)
  • Abstract
  • Steady improvements in ambient air quality in the USA over the past several decades, in part a result of public policy1,2, have led to public health benefits1,2,3,4. However, recent trends in ambient concentrations of particulate matter with diameters less than 2.5 μm (PM2.5), a pollutant regulated under the Clean Air Act1, have stagnated or begun to reverse throughout much of the USA5. Here we use a combination of ground- and satellite-based air pollution data from 2000 to 2022 to quantify the contribution of wildfire smoke to these PM2.5 trends. We find that since at least 2016, wildfire smoke has influenced trends in average annual PM2.5 concentrations in nearly three-quarters of states in the contiguous USA, eroding about 25% of previous multi-decadal progress in reducing PM2.5 concentrations on average in those states, equivalent to 4 years of air quality progress, and more than 50% in many western states. Smoke influence on trends in the number of days with extreme PM2.5 concentrations is detectable by 2011, but the influence can be detected primarily in western and mid-western states. Wildfire-driven increases in ambient PM2.5 concentrations are unregulated under current air pollution law6 and, in the absence of further interventions, we show that the contribution of wildfire to regional and national air quality trends is likely to grow as the climate continues to warm.

16/11/2023 Commander directement son ordinateur à partir d’implants cérébraux dits BCI (brain computer Interface)

Ce pourrait être le rêve de tous ceux qui passent des heures sur le clavier de leur ordinateur pour corriger leurs fautes de frappe avant d’obtenir un texte convenable pour être mis en ligne ou en mémoire. Les manipulations sont si contraignantes qu’ils finissent par oublier momentanément ce qu’ils voulaient écrire.

Le 2 février 2023, Business Insider a rapporté les avancées de l’entreprise Neuralink, fondée par Elon Musk, dans le développement de puces cérébrales, ou BCI, capables de transformer la manière dont nos cerveaux interagissent avec les ordinateurs. Les  BCI pourraient permettre aux humains de contrôler les machines et systèmes informatiques par leur pensée, révolutionnant ainsi notre interaction avec la technologie.

Mais les BCI se révèlent avoir sur le cerveau et le comportent de ceux chez qui elles sont implantées des conséquences inattendues. Elles ont la capacité de changer les personnalités et les comportement des porteurs. Les chercheurs de Neuralink ont ainsi mis en évidence la capacité des BCI  à influencer les modes de pensée et les réponses émotionnelles de ceux-ci. Cette découverte ouvre la voie à des applications potentielles dans le traitement des troubles mentaux, mais soulève également des inquiétudes.

Les effets secondaires des implants cérébraux connectés ont été examinés à la lumière de tests sur des sujets humains volontaires. Certains participants aux tests ont signalé des changements de personnalité et de comportement qui les ont surpris. Si les BCI de Neuralink peuvent potentiellement améliorer la qualité de vie des individus en traitant des affections telles que la dépression ou l’anxiété, ils pourraient également remettre en question leur personnalité profonde et finalement notre conception de l’identité humaine.

Ceci d’autant plus que l’on en sait encore très peu sur les fonctionnalités des neurones dans les aires cérébrales

Les BCI pourraient-elles être utilisés à des fins de manipulation mentale ou de contrôle de la pensée ? Les inquiétudes concernant la protection de la vie privée et la sécurité des données sont également légitimes, car la collecte d’informations directement depuis le cerveau suscite des préoccupations quant à son utilisation criminelle.

Ceci dit, ces questions devront être encore plus souvent évoquées à propos des futurs projets d’ « homme artificiel ».

On pourra lire à ce sujet l’ouvrage récent de Jean-Pierre Changeux, intitulé « L’homme artificiel » https://www.odilejacob.fr/catalogue/sciences/neurosciences/homme-artificiel_9782738120014.php

15/11/2023 Observation du plus ancien FRB (sursaut radio rapide) connu à ce jour.

Des astronomes australiens rapportent avoir observé le plus ancien des Sursauts radio rapides (FRB) connus à ce jour. Il daterait de 8 milliards d’années avant notre ère. C’est aussi le plus énergétique de ceux jamais observés. L’énergie dissipée par lui en quelques secondes est égale à celle que le soleil produit en 30 ans, selon Ryan Shannon, de l’Université de Technologie Swinburne, qui a dirigé l’observation. Le FRB a été nommé FRB 20220610A. Il est 3 fois plus énergétique que ceux déjà identifiés.

L’origine des FRB est mal connue.

Il ne faut pas confondre les FRB avec les Sursaut de rayons gamma (GRB). Par une étrange coïncidence, en 2022, des astronomes chinois ont observé en provenance de l’espace profond un sursaut de rayons gamma GRB (https://fr.wikipedia.org/wiki/Sursaut_gamma) plus lumineux que tout ce qui avait été observé jusque là. Ils ont estimé par comparaison avec d’autres sursauts précédemment enregistrés, qu’un tel événement ne devait se produire que tous les 10.000 ans.

Le flash en question, nommé GRB221009A, était faits de photons si énergétiques qu’il n’avait pu être détecté par la plupart des télescopes terrestres. Par contre le Pr Cao Zhen et ses collègues de l’Académie des Sciences de Pékin ont pu observer indirectement des photons extrêmement énergétiques provenant de ce flash en étudiant les nuages de particules émis par de tels photons quand ils entrent dans l’atmosphère terrestre.

15/11/2023. L’Intelligence artificielle sur la planète Mars

L’exploration puis le cas échéant la colonisation de la planète Mars et de ses satellites ne se feront pas initialement par des humains, mais par des robots et des agents intelligents, selon le terme aujourd’hui utilisé par l’Intelligence Artificielle. Ceux-ci auront initialement été préparés dans des environnement terrestres proches de ceux qu’ils trouveront sur ces planètes, mais ils devront être conçus pour s’entretenir et se développer en faisant le moins que possibles appel à l’intervention d’humains – étant entendu cependant que beaucoup de procédures, si elles ne sont pas urgentes, pourront être assistées ou commandées depuis la Terre.

Parmi les défis à relever par les premiers colons martiens, il y aura la nécessité d’avoir de l’oxygène pour respirer ou faire fonctionner certains équipements . Il existe des régions sur Mars avec de l’eau et on peut envisager de l’électrolyser (ce qui donnera du dioxygène O2 et du dihydrogène H2 sous forme gazeuse) avec une électricité produite par des panneaux solaires pendant le jour martien. Toutefois, il faudra un bon rendement, notamment parce que l’ensoleillement est moins bon que sur Terre.

Sur Terre, on utilise des électrodes et des catalyseurs pour obtenir le courant électrique nécessaire à la production d’oxygène. Mais il serait coûteux de faire venir des catalyseurs depuis la Terre.

Une équipe, dirigée par les professeurs Luo Yi, Jiang Jun et Shang Weiwei de l’université des sciences et technologies de Chine (USTC) de l’Académie chinoise des sciences (CAS), s’est demandé s’il n’y avait pas moyen de produire des catalyseurs efficaces à partir du sol martien.

C’est bien le cas, comme ces chercheurs le démontrent dans un article publié chez Nature Synthesis, où ils expliquent qu’ils ont utilisé pour cela des techniques d’intelligence artificielle. On en trouvera ci-dessous les références et l’abstract

Ils ont commencé par se procurer des échantillons de plusieurs météorites de nature différente que l’on sait être d’origine martienne, étant arrivées sur la Terre après avoir fait un voyage de plusieurs millions d’années dans l’espace à la suite à une éjection hors de Mars, lors d’un impact violent d’astéroïdes à la surface de celle-ci. .

Ces échantillons de sol martien ont ensuite vu leur composition chimique analysée en utilisant la technique de laser induced breakdown spectroscopy (LIBS), ou en français la spectrométrie d’émission atomique de plasma induit par laser.

——————————————–

Pour la suite, nous lisons dans Futurascience

Une intelligence artificielle est nourrie de la composition de ces météorites et pilote différentes opérations élémentaires de leur traitement pour en extraire de façon robotisée des hydroxydes métalliques qui seront testés sur des électrodes.

La même intelligence artificielle va alors faire des simulations de chimie quantique et de dynamique moléculaire pour 30 000 mélanges possibles d’hydroxydes. Ces simulations et les résultats possibles concernant l’efficacité d’un catalyseur produit à partir de ces mélanges sont ensuite analysés par un réseau de neurones afin de pouvoir prédire, encore plus efficacement, les propriétés d’un mélange donné d’hydroxydes métalliques tirés du sol martien.

Des tests réels de ces mélanges ont été effectués confirmant que l’on avait trouvé de bons catalyseurs et que la réaction d’électrolyse productrice d’oxygène se faisait efficacement dans les conditions de températures martiennes moyennes d’environ -37 °C, au moins pour l’un de ces catalyseurs.

Référence

  1. nature  
  2. article

Published: 

Automated synthesis of oxygen-producing catalysts from Martian meteorites by a robotic AI chemist
Abstract

Living on Mars requires the ability to synthesize chemicals that are essential for survival, such as oxygen, from local Martian resources. However, this is a challenging task. Here we demonstrate a robotic artificial-intelligence chemist for automated synthesis and intelligent optimization of catalysts for the oxygen evolution reaction from Martian meteorites. The entire process, including Martian ore pretreatment, catalyst synthesis, characterization, testing and, most importantly, the search for the optimal catalyst formula, is performed without human intervention. Using a machine-learning model derived from both first-principles data and experimental measurements, this method automatically and rapidly identifies the optimal catalyst formula from more than three million possible compositions. The synthesized catalyst operates at a current density of 10 mA cm−2 for over 550,000 s of operation with an overpotential of 445.1 mV, demonstrating the feasibility of the artificial-intelligence chemist in the automated synthesis of chemicals and materials for Mars exploration.

14/11/2023 L’espace profond serait-il plus transparent qu’il ne semblait ?

En 2022, des astronomes ont observé en provenance de l’espace profond un sursaut de rayons gamma (https://fr.wikipedia.org/wiki/Sursaut_gamma) plus lumineux que tout ce qui avait été observé jusque là. Ils ont estimé par comparaison avec d’autres sursauts précédemment enregistrés, qu’un tel événement ne devait se produire que tous les 10.000 ans.

Le flash en question, nommé GRB221009A, était faits de photons si énergétiques qu’ils n’ont pas été détectés par la plupart des télescopes terrestres. Par contre Cao Zhen et ses collègues de l’Académie des Sciences de Pékin ont pu observer indirectement des photons extrêmement énergétiques en étudiant les nuages de particules émis par de tels photons quand ils entrent dans l’atmosphère terrestre.

Les photons de rayons gamma sont uniques en ce sens qu’ils peuvent être réfléchis par d’autres photons. C’est pourquoi les photons observés par les chercheurs chinois pourraient remonter à la période de la formation des étoiles dans l’univers primitif.

Ceci étant, ces chercheurs chinois n’excluent pas l’hypothèse selon laquelle les flux de particules observés aujourd’hui ne proviennent pas de collisions entre photons, mais de la rencontre avec des particules très énergétiques dénommées muons. Mais détecter de telles collisions pourrait faire penser que les photons n’ont pas autant d’énergie qu’il semblerait. Ou bien que l’univers serait plus transparent que l’on imagine, avec moins de lumière extragalactique.

Pour résoudre ces contradictions certains chercheurs font appel à de nouvelles hypothèses physiques. Les photons dans leur voyage à travers l’espace pourraient être transformés en de nouvelles particules ultralégères nommées axions qui n’interagiraient pas avec la lumière extragalactique dans leur voyage à travers l’espace. Elles seraient notamment responsables de la matière noire.

L’axion pourrait cependant interagir avec le champ magnétique d’une galaxie telle que la Voie Lactée et se reconvertir en photon une fois la galaxie atteinte.

Ceci dit, de tels phénomènes seraient exceptionnels et il faudra beaucoup de patience avant de pouvoir en observer de nouveaux.

Référence

[Submitted on 13 Oct 2023]

Very high energy gamma-ray emission beyond 10 TeV from GRB 221009A

Zhen Cao, others 

The highest energy photons from gamma-ray bursts (GRBs) have important implications for the physics of particle acceleration and constraints on the extragalactic background light (EBL). Here we report for the first time the detection of photons beyond 10 TeV from the unprecedentedly brightest GRB 221009A by the Large High Altitude Air-shower Observatory (LHAASO). The LHAASO-KM2A detector registered more than 140 photons with energies above 3 TeV from GRB 221009A during 230−900s after the trigger. The intrinsic energy spectrum of gamma-rays can be described by a power-law after correcting for EBL absorption, with the highest energy photon of 13 TeV. Such a hard spectrum challenges the synchrotron self-Compton (SSC) scenario of relativistic electrons for the afterglow emission above several TeV, because the Klein-Nishina effect and the internal γγ absorption within the GRB generally lead to a spectral softening towards high energies. Observations of photons up to 13 TeV from a source with a measured redshift of z=0.151 requires more transparency in intergalactic space than previously expected, in order to avoid an unusual pile-up at the end of the spectrum. Alternatively, one may invoke new physics such as Lorentz Invariance Violation (LIV) or assume an axion origin of very high energy (VHE) signals.

14/11/23 Les agents intelligents de Bill Gates

Dans un article qu’il vient de publier sur son blog GatesNotes, référencé ci-dessous, Bill Gates prévoit que dans cinq ans, des programmes d’ Intelligence Artificielle qu’il nomme des agents intelligents ou plus simplement des assistants personnels pourront considérablement faciliter la vie des humains.

Un assistant personnel alimenté par l’IA,  prendra en charge les tâches quotidiennes. L’utilisateur n’aura qu’à communiquer ses besoins et l’intelligence artificielle s’occupera d’y répondre en quelques secondes seulement. Dans certaines situations, elle pourra proposer des idées, générer des contenus ou participer à des réunions. Ce n’est pas ce que fait un robot qui doit suivre des instructions très détaillées et dont les performances sont limitées. De plus les robots ne répondent qu’aux requêtes de leur utilisateur.

Cependant, un entraînement poussé offert par le machine learning et le deep learning sera nécessaires. Et il faut aussi une technologie avancée pour arriver à cet objectif.

Cette nouvelle forme d’Intelligence artificielle pourra sur le long terme révolutionner les relations entre l’être humain et la haute technologie. De plus, il sera possible de personnaliser le mode de fonctionnement de l’agent intelligent.

Cette innovation aura aussi des impacts considérables sur la vie quotidienne. La transition vers les agents IA demande une implication majeure de la société. En effet, le mode de fonctionnement des salariés, des particuliers et des entreprises entrera dans une nouvelle ère.

Bill Gates ne le dit pas, secret militaire oblige. Mais ses meilleurs client aujourd’hui sont les industriels du secteur militaire. Ils revendiquent même pour leurs automates le droit de tuer sans ordres. C’est ce que l’on nomme l’autonomie des systèmes d’armes létaux.

Reference
https://www.gatesnotes.com/AI-agents

AI is about to completely change how you use computers
And upend the software industry.

By Bill Gates

November 09, 2023