21/11/2023 Le cannabinoid hyperemesis syndrome dit CHS

De plus en plus d’utilisateurs de cannabis, dit aussi marijuana, font état des troubles plus ou graves que provoque chez eux la consommation de cette drogue, même à faible dose. Il s’agit de douleurs stomacales, de vomissements incessants et, plus curieux, du besoin compulsif de prendre quand ils le peuvent des douches chaudes. Parfois ils perdent momentanément conscience. Les médicaments anti-nauséeux classiques n’ont que peu d’effet. Ce trouble a été nommé Cannabis hyperemesis syndrome .

Le CHS n’a été étudié que récemment, à partir de quelques cas cas constatés en Australie au début des années 2000. Il n’existe pas de test sanguin révélant sa présence. Un nouveau terme populaire est utilisé en anglais pour le désigner, scromiting associant douleurs d’estomac et vomissements.

La cause du syndrome est inconnu. Il n’apparaît semble-t-il qu’à l’occasion de consommations prolongées. Bien qu’encore rare cette pathologie est de plus en plus fréquente, notamment dans les pays anglo-saxons.

L’accès libre à la marijuana accroît considérablement les risques.

Références
https://www.cedars-sinai.org/health-library/diseases-and-conditions/c/cannabinoid-hyperemesis-syndrome.html

20/11/2023 « Reprenez vos ferrailles, elles ne sont bonnes à rien ».

C’est ce que vient de dire aux Américains, en termes plus diplomatiques, le porte-parole de l’armée de l’air ukrainienne Yuri Ignat. L’Ukraine demande depuis déjà 2 ans à recevoir des F-16 américains pour contrer les Sukhoi russes Su-30, Su-34 et Su-35 qui l’attaquent en permanence.

Elle vient d’obtenir de Washington l’autorisation de commencer à faire former à l’ouest des équipages susceptibles de prendre en mains les quelques F-16 qu’elle devrait recevoir vers la mi 2024.

Manifestement le premier contact n’à pas été très chaleureux. Les F-16 ont été jugés à peine bons pour se battre contre des drones.

Vladimir Poutine en a conclu que les F-16 américains ne changeront rien dans le rapport des forces. Ils seront détruits comme précédemment les chars Léopard 2 allemands.

20/11/2023. Origine de la vie sur la Terre. De multiples hypothèses, pas encore de réponses

Il y a des milliards de planètes dans l’espace visible. Une soixantaine d’entre elles ont été découvertes ces deux dernières années par le télescope spatial James Webb, qui avait été conçu à cette fin. Beaucoup de ces planètes ne sont pas habitables par la vie telle que nous la connaissons ; trop proches ou trop loin de leur soleil, ou dépourvues d’atmosphères oxygénées. Mais il est statistiquement impossible qu’aucune d’entre elles ne comporte ou ne comportera de vies plus ou moins développées, qu’il s’agisse de simples germes microbiens ou d’êtres encore plus complexes que les êtres humains.

Comme on pouvait s’y attendre les hypothèses scientifiques (theories selon le vocabulaire anglais) sur les origines de la vie (OoL pour Origins of Life) sont nombreuses et diverses. Ainsi un premier colloque interdisciplinaire sur les origines de la vie 1st Interdisciplinary Origin of Life meeting, s’est tenu les 3 -5 août à Montréal (Canada) . Il a réuni les contributions de scientifiques provenant de 5 pays. L’objectif est d’encourager les travaux de jeunes chercheurs sur ce thème .

Voir le programme référencé http://Creativecommons.org/licenses/by-nc/4.0/

La liste est longue des hypothèses individuelles comme des recherches théoriques et expérimentales sur ce thème. Beaucoup sont déjà anciennes et ont du mal à évoluer. Aujourd’hui il semble cependant que de nouvelles synthèses interdisciplinaires soient en cours. Des approche différentes entre disciplines et théories semblent devoir esquisser des vue plus cohérentes, qui encouragera de nouvelles recherches. Les approches bottom up (qu’est ce que la Vie ?) et top-down (ARN world vs. metabolism-first) devraient pouvoir se concilier.

Aujourd’hui, des consensus sont apparus. À ce jourles plus anciennes traces de vie sur Terre remonteraient à 3,8 milliards d’années, comme semblent l’indiquer des restes fossilisés retrouvés dans des roches sédimentaires. La vie était alors exclusivement aquatique et le restera pendant près de 3,4 milliards d’années Par ailleurs les origines de la vie semble résulter de nombreux processus et non dater d’un événement unique, car la complexité des premières cellules n’aurait pas pu apparaître instantanément.

En fait la vie a du résulter de longues séries de processus abiotiques (non vitaux) et non d’un événement unique. Ces processus impliquaient plusieurs sources d’énergie et de matière disponibles sur Terre, carbone, hydrogène, azote, phosphore et soufre dites CHNOPS générant des protométabolismes, de la compartimentalisation et de la reproduction.

Certains chercheurs ont envisagé d ‘autres formes de vie différentes de celles connues sur le Terre, non basées sur des cellules ou sur les matières représentées sous lesigle CNOPS. Rien à priori n’est impossible, Encore faudrait-il démontrer expérimentalement l’existence possible de telles formes de vie différentes.

Aujurd’hui, la première priorité pour les sciences de la vie devrait être de reproduire artificiellement un processus vital compatible avec l’une ou l’autre des formes de vie dont on a pu observer la présence sur la planète Terre. Elles n’y sont pas encore arrivé à ce jour, ce dont se réjouissent les représentants des différentes religions pour qui la vie ne saurait être créée sans l’intervention d’une divinité telle qu’ils se la représentent.

Aujourd’hui certains chercheurs en Intelligence artificielle ne désespèrent pas de pouvoir mettre au point une ou plusieurs formes de vie artificielle. Mais celle-ci ne pourra être nommé Vie que lorsqu’elle montrera qu’elle est capable de se reproduire, non pas immédiatement peut-être avec eux, mais avec une souris ou plus simplement une bactérie.

19/11/2023 La Théorie de l’assemblage

La recherche de la vie extraterrestre a toujours été confrontée à un défi majeur : comment reconnaître la vie sous des formes qui pourraient être radicalement différentes de celles que nous connaissons sur Terre ? Les missions spatiales, notamment celles qui explorent des lunes telles qu’Europe (de Jupiter) et Titan (Saturne), cherchent des signes de vie dans des environnements qui pourraient abriter des formes de vie très différentes de celles basées sur la chimie du carbone et de l’eau, familières sur notre planète.

La théorie de l’assemblage, dans ce contexte, offre une approche inédite pour la détection de la vie extraterrestre. Contrairement aux méthodes traditionnelles qui recherchent des biomarqueurs spécifiques ou des signatures chimiques associées à la vie telle que nous la connaissons, la théorie de l’assemblage adopte une approche « chimiquement agnostique ».

Elle cherche à identifier les molécules ou les assemblages moléculaires qui portent les marques d’une histoire d’assemblage complexe, indépendamment de leur chimie spécifique. Cette approche peut permettre aux scientifiques d’identifier des signes de vie dans des environnements qui étaient auparavant considérés comme trop exotiques ou trop éloignés de la chimie de la vie terrestre pour être compatibles avec l’existence d’entités vivantes.

Elle propose une vision renouvelée de l’émergence de la complexité, en intégrant le temps et l’histoire de l’assemblage moléculaire comme éléments centraux. Elle pourrait orienter de nouveaux projets de recherche de vie extraterrestre. Toutefois, elle se heurte à des défis critiques et suscite un débat animé parmi les scientifiques, oscillant entre scepticisme et curiosité.

L’exploration des mécanismes fondamentaux qui sous-tendent la complexité de la vie et de l’univers a toujours été au cœur des interrogations scientifiques. Aujourd’hui, alors que les missions spatiales scrutent des mondes lointains en quête de signes de vie et que les biologistes sondent les profondeurs de la machinerie moléculaire, une question persiste : comment la complexité émerge-t-elle dans notre univers ?

Récemment, la théorie de l’assemblage, développée par Lee Cronin de l’Université de Glasgow et Sara Walker de l’Arizona State University, propose une nouvelle perspective sur la complexité et l’origine de la vie, en mettant en avant le rôle fondamental du temps et de l’histoire dans la formation des entités complexes. Cette théorie, qui a suscité un intérêt et un scepticisme variés au sein de la communauté scientifique, suggère que la complexité des molécules et des entités vivantes ne peut être comprise qu’en tenant compte de l’ensemble de leur histoire de formation. Les travaux sont publiés dans la revue Nature.

La complexité à travers le temps

La théorie de l’assemblage, mise en avant par les chercheurs Lee Cronin et Sara Walker, introduit une perspective novatrice sur la manière dont les structures complexes, notamment les molécules biologiques, se forment et évoluent. Cette théorie s’écarte de l’idée conventionnelle selon laquelle les molécules complexes peuvent simplement émerger à partir d’un panel de possibilités combinatoires.

Au lieu de cela, Cronin et Walker avancent que l’histoire de l’assemblage des molécules, c’est-à-dire les étapes et les processus par lesquels elles se sont formées, est un élément crucial pour comprendre leur complexité. Ils suggèrent que cette histoire est, d’une certaine manière, « enregistrée » ou encodée dans les molécules elles-mêmes, influençant ainsi leur comportement et leurs interactions futures.

Pour quantifier cette complexité, la théorie introduit le concept d’Indice d’Assemblage (AI). L’AI est calculé en déterminant le nombre minimum d’étapes nécessaires pour assembler un objet ou une structure à partir de ses composants de base. Plus le nombre d’étapes est élevé, plus l’AI est élevé, indiquant une plus grande complexité dans l’histoire de l’assemblage de l’objet. Cette mesure offre une méthode pour évaluer et comparer la complexité des entités moléculaires, en tenant compte non seulement de leur structure actuelle, mais aussi des processus qui les ont formées.

Les univers d’assemblage

La théorie identifie quatre « univers » distincts. Le premier est l’univers de l’Assemblage. Il est envisagé comme un espace conceptuel où tous les assemblages possibles existent, sans égard aux lois physiques ou aux contraintes temporelles, offrant une vue d’ensemble des possibilités infinies dans le domaine de l’assemblage moléculaire. Ensuite, l’Assemblage Possible se réfère à tous les assemblages qui peuvent théoriquement se former en respectant les lois de la physique, servant de pont entre le conceptuel et le réalisable.

L’Assemblage Contingent, quant à lui, prend en compte l’histoire et le contexte spécifique dans lequel l’assemblage se produit, reconnaissant que les voies d’assemblage sont influencées par les conditions initiales et les étapes précédentes dans le processus. Enfin, l’Assemblage Observé est ce que nous pouvons actuellement détecter et étudier, les structures qui ont non seulement été formées en respectant les lois physiques et les contraintes historiques, mais qui sont également accessibles à nos instruments et méthodes d’observation.

univers assemblage(a) Illustration de l’assemblage de trois objets (P1, P2, P3) et de leur espace d’assemblage commun. (b) Représentation de l’expansion de l’univers de l’assemblage, montrant divers aspects de l’assemblage et soulignant la structure imbriquée des espaces, sans indiquer leur taille relative. © A. Sharma et al., 2023

Ces univers, bien que distincts, ne sont pas isolés les uns des autres, mais sont interconnectés, reflétant la transition des entités de l’abstrait vers le concret. En utilisant des concepts tirés de la théorie des graphes, la théorie de l’assemblage tente de cartographier les chemins à travers ces univers.

La professeure Sara Walker explique dans un communiqué : « La théorie de l’assemblage offre une toute nouvelle perspective pour considérer la physique, la chimie et la biologie comme des perspectives différentes de la même réalité sous-jacente ».

La recherche de la vie extraterrestre a toujours été confrontée à un défi majeur : comment reconnaître la vie sous des formes qui pourraient être radicalement différentes de celles que nous connaissons sur Terre ? Les missions spatiales, notamment celles qui explorent des lunes telles qu’Europe (de Jupiter) et Titan (Saturne), cherchent des signes de vie dans des environnements qui pourraient abriter des formes de vie très différentes de celles basées sur la chimie du carbone et de l’eau, familières sur notre planète.

La théorie de l’assemblage, dans ce contexte, offre une approche inédite pour la détection de la vie extraterrestre. Contrairement aux méthodes traditionnelles qui recherchent des biomarqueurs spécifiques ou des signatures chimiques associées à la vie telle que nous la connaissons, la théorie de l’assemblage adopte une approche « chimiquement agnostique ».

Elle cherche à identifier les molécules ou les assemblages moléculaires qui portent les marques d’une histoire d’assemblage complexe, indépendamment de leur chimie spécifique. Cette approche peut permettre aux scientifiques d’identifier des signes de vie dans des environnements qui étaient auparavant considérés comme trop exotiques ou trop éloignés de la chimie de la vie terrestre pour être compatibles avec l’existence d’entités vivantes.

Référence

https://www.researchgate.net/publication/361134768_Assembly_Theory_Explains_and_Quantifies_the_Emergence_of_Selection_and_Evolution

DOI:10.48550/arXiv.2206.02279

Authors:

Abhishek Sharma

Since the time of Darwin, scientists have struggled to reconcile the evolution of biological forms in a universe determined by fixed laws. These laws underpin the origin of life, evolution, human culture and technology, as set by the boundary conditions of the universe, however these laws cannot predict the emergence of these things. By contrast evolutionary theory works in the opposite direction, indicating how selection can explain why some things exist and not others. To understand how open-ended forms can emerge in a forward-process from physics that does not include their design, a new approach to understand the non-biological to biological transition is necessary. Herein, we present a new theory, Assembly Theory (AT), which explains and quantifies the emergence of selection and evolution. In AT, the complexity of an individual observable object is measured by its Assembly Index (a), defined as the minimal number of steps needed to construct the object from basic building blocks. Combining a with the copy number defines a new quantity called Assembly which quantifies the amount of selection required to produce a given ensemble of objects. We investigate the internal structure and properties of assembly space and quantify the dynamics of undirected exploratory processes as compared to the directed processes that emerge from selection. The implementation of assembly theory allows the emergence of selection in physical systems to be quantified at any scale as the transition from undirected-discovery dynamics to a selected process within the assembly space. This yields a mechanism for the onset of selection and evolution and a formal approach to defining life. Because the assembly of an object is easily calculatable and measurable it is possible to quantify a lower limit on the amount of selection and memory required to produce complexity uniquely linked to biology in the universe.


18/11/2023. Est-il prudent de rapporter sur terre pour étude des échantillons du sol martien ?

La recherche de la présence de vie sur d’autres planètes constitue le principal objectif des missions spatiales déjà conduites ou envisagées. Mais comment procéder à cette recherche, surtout s’il s’agit d’une flore microbienne ou virale nécessitant des analyses de laboratoires que des rovers tels que l’actuel Perseverence ne sont pas équipés pour faire ?

La Nasa, associée à l’Esa pour le compte des Européens, a étudié un projet dit Mars Sample Return (MSR) mission. Il s’agira de rapporter pour étude sur terre en 2033 500 gr de sol et de rocher martiens prélevés dans des emplacements jugés les plus favorables à contenir des traces d’une vie passée ou actuelle. Une telle mission sera complexe et coûteuse, du fait de la nécessité d’assurer le trajet de retour, qui durerait près de 2 mois, avec plusieurs engins agissant de manière synchronisée, tant sur Mars que dans l’espace et sur terre.

Voir l’animation https://mars.nasa.gov/msr/multimedia/videos/?v=523

Cependant les difficultés budgétaires actuelles de la Nasa ne lui ont pasencore permis d’entreprendre ce projet. Mais un certain nombre de scientifiques ne regrettent pas ce retard. Ils estiment que les précautions nécessaires pour éviter de contaminer la Terre avec des micro-organismes inconnus n’ont pas été prises. Le souvenir de la récente pandémie de Covid 19, qui a tué des millions de malades à la suite d’une fuite survenue dans un laboratoire chinois, ne doit pas être oublié.

Un comité dit International Committee Againt Mars Samples Return (voir https://www.icamsr.org/) vient d’être mis en place pour prévenir le risque de voir un agent pathogène martien s’échapper au retour de la mission et mettre en danger tout l’écosystème terrestre. D’une façon générale, les experts consultés à ce jour constatent que les précautions les plus élémentaires n’avaient pas été envisagées, par exemple le risque de mutation d’un germe martien.

Restera par ailleurs à convaincre le gouvernement chinois, qui met en place sa propre mission, de participer à ces précautions.

18/11/2023. Ukraine, retour au réalisme.

Les jérémiades de l’actuel président de l’Ukraine Volodomir Zelenski n’y pourront rien. L’armée ukrainienne n’a pas les matériels militaires et moins encore les effectifs lui permettant, malgré son courage, de l’emporter sur l’armée russe. Celle-ci, comme l’avait fait l’armée du Czar lors de la campagne de Russie, est en train de se ressaisir et se réorganiser.

Ceci signifie que toutes les provinces russophones de l’Ukraine, les plus riches, pourront sans oppositions se rapprocheront de Moscou et seront soutenues par lui. Il s’agit notamment de ce que l’on appelait du temps des czars les « territoires de la Russie du Sud » comprenant la Novorossiya, le nom historique donné aux régions administratives immédiatement au Nord de la mer Noire et de la Crimée.

Vladimir Poutine l’a bien compris. Lors d’une réunion le 3 novembre dernier à la veille du jour dit de l’Unité Nationale avec les dirigeants fédéraux et régionaux des « chambres civiques », il a répété que la Russie défendait « nos valeurs morales, notre histoire, notre culture, notre langage ». Il a exhorté ses frères et sœurs du Donbass et de la Novorossia à faire de même.

Une personnalité ukrainienne connue, le juriste Vladimir Rogov, lui a répondu qu’après avoir été coupées de leurs racines russes pendant 30 ans, les forces historiques de la Grande Russie ne ménageront aucun effort pour faire revivre un passé glorieux .

Ceci n’a pas échappé aux Etats-Unis. En fait, que la capitale de l’Ukraine ne soit plus Kiev repris par les Russophones mais Lviv bien plus à l’est n’inquiéterait personne. Par ailleurs les personnalités tant Démocrates que Républicains qui préparent à grand frais les élections ont de moins envie de continuer à financer ce gouffre sans fond que leur paraît être l’entourage de Volodomir Zélenski.

17/11/2023 Le continent Antarctique avant la Grande Glaciation du Cénozoique

Un paysage de rivières et de glaciers proche de celui que l’on trouve dans les Pyrénées françaises semble avoir caractérisé l’est du continent Antarctique durant l’Eocène, avant la grande glaciation du Cénozoïque survenue il y a trente millions d’années. Depuis, excepté quelques sommets montagneux émergeant, l’ensemble du continent semble avoir été couvert sans interruption d’un manteau de glace épais de 2.000 mètres ou plus.

Deuxième série du paléogène, succédant au paléocène et précédant l’oligocène, l’éocène se situe au cénozoïque, de – 56 à – 34 millions d’années (durée : 22 millions d’années). 

Aujourd’hui, grâce à des sondages faits au radar satellitaire par des chercheurs de la Durham University (UK), les grandes lignes de ce continent apparaissent, mais les détails demeurent obscurs.

Ils ont notamment révélé une région qui a été nommée Highland A, distincte du paysage environnant.

Cette région, d’une surface de 32.000 km2, est constitué de 3 épaisses langues de terre, séparées par des fjords profonds. Les chercheurs pensent que ces traits décrivent une histoire géologique ayant commencé à la séparation de l’Antarctique d’avec le super-continent Gondwana il y a environ 180 millions d’années. Cette région a été couverte de glace, selon eux, sans interruption depuis 14, sinon 34 millions d’années.

Ces études présentent un intérêt immédiat. Elles devrait montrer comment l’Antarctique réagira lors du grand réchauffement climatique attendu pour la fin de ce siècle.

Observation

Les fossiles présentant certaines des caractéristiques dérivées uniques à Homo sapiens sont datés d’environ 300 000 ans. Puis, des restes d’Homme anatomiquement moderne, ou Homo sapiens, dont nous sommes les descendants, sont mis au jour en Ethiopie, datés entre 195 à 160 000 ans.

Référence

  1. nature communications  
  2. articles  

An ancient river landscape preserved beneath the East Antarctic Ice Sheet

volume14, Article number: 6507 (2023) 

Abstract

The East Antarctic Ice Sheet (EAIS) has its origins ca. 34 million years ago. Since then, the impact of climate change and past fluctuations in the EAIS margin has been reflected in periods of extensive vs. restricted ice cover and the modification of much of the Antarctic landscape. Resolving processes of landscape evolution is therefore critical for establishing ice sheet history, but it is rare to find unmodified landscapes that record past ice conditions. Here, we discover an extensive relic pre-glacial landscape preserved beneath the central EAIS despite millions of years of ice cover. The landscape was formed by rivers prior to ice sheet build-up but later modified by local glaciation before being dissected by outlet glaciers at the margin of a restricted ice sheet. Preservation of the relic surfaces indicates an absence of significant warm-based ice throughout their history, suggesting any transitions between restricted and expanded ice were rapid.

Glaciation of Antarctica was triggered by global climatic cooling over the Cenozoic Era (Fig. 1). During the Eocene, glaciation was likely restricted to ephemeral ice masses and small-scale mountain glaciers in regions of high topography1,2. However, a step-change in ice extent and volume occurred at the Eocene-Oligocene transition (EOT; ca. 34.0–33.5 Ma; Fig. 1) when the first widespread Antarctic glaciation was recorded in marine sediment records3,4. This transition to a glaciated Antarctica was potentially caused by a combination of CO2 dropping below a key threshold5, associated feedbacks within the carbon cycle6,7, and the opening/deepening of circum-Antarctic ocean gateways8. In East Antarctica, the ice sheet likely nucleated on the high topography of the Gamburtsev Subglacial Mountains, Transantarctic Mountains, and Dronning Maud Land2,5,9 (Fig. 1). Expansion and coalescence of independent ice masses on these highlands led to the growth of the continental-scale EAIS5,10.

17/11/2023. Un nouveau calculateur quantique de plus de 1000 qubits

La société californienne Atom Computing vient de présenter un calculateur quantique doté de plus de 1000 bits quantiques (qubits). Elle double ainsi les records précédemment détenus par IBM et Google avec quelques 400 qubits.

Le nombre des qubits n’augmente pas nécessairement les capacités de calcul d’un calculateur quantique, comme il le fait dans le cas des supercalculateurs classiques. Il augmente la capacité de contrôle des erreurs qui est nécessaire dans le cas des calculateurs quantiques. Plus ceux-ci ont de qubits leur permettant de procéder à des calculs complexes, plus ils font d’erreurs. Il est indispensable d’éliminer celles-ci si l’on veut continuer à calculer.

D’où proviennent ces erreurs ?

Les ordinateurs quantiques manipulent les qubits selon une méthode appelée « algorithmes quantiques ». Le taux d’erreurs de celle-ci est encore trop important

La difficulté réside dans le fait que les qubits sont si sensibles que même la lumière peut provoquer des erreurs de calcul, un risque qui augmente à mesure que l’ordinateur quantique grossit . La correction des erreurs quantiques consiste à protéger l’information en la codant à l’aide de plusieurs qubits physiques formant un « qubit logique ». Il faut donc réaliser des opérations au moyen de qubits logiques plutôt que des qubits individuels. En codant un grand nombre de qubits physiques sur un processeur quantique de sorte à créer un qubit logique, on peut réduire le taux d’erreur et ainsi ouvrir la voie à des algorithmes quantiques utiles.

L’une des solutions pour créer un qubit consiste à élaborer un « point quantique » qui est fondamentalement un électron piégé dans une cage d’atomes à très basse température, performance technique qui est aujourd’hui accessible aux laboratoires de Bell ou d’IBM par exemple qui peuvent manipuler des atomes individuellement.

Mais Atoms Computing utilise des atomes neutres enfermés par des lasers dans un réseau (grid) en deux dimensions. L’un des intérêts de cette formule est qu’elle permet facilement d’augmenter le nombre des qubits en service, ce qui sera une nécessité à l’avenir selon Rob Hayes, PDG de Atoms Computer

https://news.mit.edu/2023/engineers-discover-new-way-control-atomic-nuclei-qubits-0215

Référence

nature  

  1. nature communications  
  2. articles  

Assembly and coherent control of a register of nuclear spin qubits

Nature Communications 

volume13, Article number: 2779 (2022) 

Abstract

The generation of a register of highly coherent, but independent, qubits is a prerequisite to performing universal quantum computation. Here we introduce a qubit encoded in two nuclear spin states of a single 87Sr atom and demonstrate coherence approaching the minute-scale within an assembled register of individually-controlled qubits. While other systems have shown impressive coherence times through some combination of shielding, careful trapping, global operations, and dynamical decoupling, we achieve comparable coherence times while individually driving multiple qubits in parallel. We highlight that even with simultaneous manipulation of multiple qubits within the register, we observe coherence in excess of 105 times the current length of the operations, with  seconds. We anticipate that nuclear spin qubits will combine readily with the technical advances that have led to larger arrays of individually trapped neutral atoms and high-fidelity entangling operations, thus accelerating the realization of intermediate-scale quantum information processors.

16/11/2023 Incendies de forêts et santé publique

En Amérique du nord, Etats-Unis et Canada, les conséquences catastrophiques des incendies de forêt pour la santé publique ne cessent de croître.

Les incendies seront les premier effets du réchauffement climatique en cours. Il s’agira en premier lieu des incendies de forêts. D’une superficie totale d’un peu plus de 4 milliards d’hectares, les forêts du monde couvrent actuellement le tiers de la surface terrestre mondiale, d’après les derniers chiffres de l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO) . En Amérique du Nord les forêts occupent environ 40% du territoire.

De toutes les substances polluantes contenues dans la fumée des feux de forêt, ce sont les particules fines (PM2,5) qui posent le plus grand risque pour la santé humaine. Le terme PM2,5 renvoie à toutes les particules qui mesurent 2,5 millionièmes de mètre (µm ou microns) ou moins de diamètre.

Les forêts sont par nature extrêmement combustibles. Il suffit d’une légère diminution de leur irrigation, ou d’une légère augmentation de leur ensoleillement, pour qu’elles se dessèchent et meurent, laissant place à des savanes sans intérêt économique et le plus souvent à des terres désertiques analogues à celles du Sahara, dont on sait qu’il fut un temps couvert de forêts prospères.

Or les incendies de forêts, en dehors de leur coûts écologique, ont un coût humain dont on commence à se rendre compte au Canada et aux Etats-Unis. Ils provoquent notamment des concentrations de ce que l’on nomme des particules fines. De toutes les substances polluantes contenues dans la fumée des feux de forêt, ce sont les particules fines (PM2,5) qui posent le plus grand risque pour la santé humaine. Le terme PM2,5 renvoie à toutes les particules qui mesurent 2,5 millionièmes de mètre (µm ou microns) ou moins de diamètre.

Les particules fines, comme toutes particules, sont constituées d’un mélange de différents composés chimiques. Elles sont émises principalement lors des phénomènes de combustion ou formées par réactions chimiques à partir de gaz précurseurs présents dans l’atmosphère. Aux concentrations auxquelles sont exposées la plupart des populations urbaines et rurales des pays développés et en développement, ces particules ont des effets nuisibles sur la santé. L’exposition chronique contribue à augmenter le risque de contracter des maladies cardiovasculaires et respiratoires, ainsi que des cancers pulmonaires.

Les effets sur la santé sont dépendants de la taille des particules. Les particules fines, inférieures à 2.5 µm, touchent à long terme la santé cardiovasculaire. Les particules PM2.5 issues des feux de forets altèrent aussi  la santé neurologique (performances cognitives) et la santé périnatale. Inhalées, elles peuvent pénétrer dans le sang et avoir des effets nuisibles sur tous les organes.

Enfin les fumées résultant des feux de forêts ne restent pas sur place. En Amérique du Nord, emportées par divers phénomènes, dont les vents, elles peuvent parcourir des milliers de kilomètres avant de redescendre. Elles auraient affecté les ¾ des Etats fédérés.

Référence

  • Article
  • Published: 20 September 2023
  • The contribution of wildfire to PM2.5 trends in the USA
  • Nature 
  • volume622,  pages 761–766 (2023)
  • Abstract
  • Steady improvements in ambient air quality in the USA over the past several decades, in part a result of public policy1,2, have led to public health benefits1,2,3,4. However, recent trends in ambient concentrations of particulate matter with diameters less than 2.5 μm (PM2.5), a pollutant regulated under the Clean Air Act1, have stagnated or begun to reverse throughout much of the USA5. Here we use a combination of ground- and satellite-based air pollution data from 2000 to 2022 to quantify the contribution of wildfire smoke to these PM2.5 trends. We find that since at least 2016, wildfire smoke has influenced trends in average annual PM2.5 concentrations in nearly three-quarters of states in the contiguous USA, eroding about 25% of previous multi-decadal progress in reducing PM2.5 concentrations on average in those states, equivalent to 4 years of air quality progress, and more than 50% in many western states. Smoke influence on trends in the number of days with extreme PM2.5 concentrations is detectable by 2011, but the influence can be detected primarily in western and mid-western states. Wildfire-driven increases in ambient PM2.5 concentrations are unregulated under current air pollution law6 and, in the absence of further interventions, we show that the contribution of wildfire to regional and national air quality trends is likely to grow as the climate continues to warm.

16/11/2023 Commander directement son ordinateur à partir d’implants cérébraux dits BCI (brain computer Interface)

Ce pourrait être le rêve de tous ceux qui passent des heures sur le clavier de leur ordinateur pour corriger leurs fautes de frappe avant d’obtenir un texte convenable pour être mis en ligne ou en mémoire. Les manipulations sont si contraignantes qu’ils finissent par oublier momentanément ce qu’ils voulaient écrire.

Le 2 février 2023, Business Insider a rapporté les avancées de l’entreprise Neuralink, fondée par Elon Musk, dans le développement de puces cérébrales, ou BCI, capables de transformer la manière dont nos cerveaux interagissent avec les ordinateurs. Les  BCI pourraient permettre aux humains de contrôler les machines et systèmes informatiques par leur pensée, révolutionnant ainsi notre interaction avec la technologie.

Mais les BCI se révèlent avoir sur le cerveau et le comportent de ceux chez qui elles sont implantées des conséquences inattendues. Elles ont la capacité de changer les personnalités et les comportement des porteurs. Les chercheurs de Neuralink ont ainsi mis en évidence la capacité des BCI  à influencer les modes de pensée et les réponses émotionnelles de ceux-ci. Cette découverte ouvre la voie à des applications potentielles dans le traitement des troubles mentaux, mais soulève également des inquiétudes.

Les effets secondaires des implants cérébraux connectés ont été examinés à la lumière de tests sur des sujets humains volontaires. Certains participants aux tests ont signalé des changements de personnalité et de comportement qui les ont surpris. Si les BCI de Neuralink peuvent potentiellement améliorer la qualité de vie des individus en traitant des affections telles que la dépression ou l’anxiété, ils pourraient également remettre en question leur personnalité profonde et finalement notre conception de l’identité humaine.

Ceci d’autant plus que l’on en sait encore très peu sur les fonctionnalités des neurones dans les aires cérébrales

Les BCI pourraient-elles être utilisés à des fins de manipulation mentale ou de contrôle de la pensée ? Les inquiétudes concernant la protection de la vie privée et la sécurité des données sont également légitimes, car la collecte d’informations directement depuis le cerveau suscite des préoccupations quant à son utilisation criminelle.

Ceci dit, ces questions devront être encore plus souvent évoquées à propos des futurs projets d’ « homme artificiel ».

On pourra lire à ce sujet l’ouvrage récent de Jean-Pierre Changeux, intitulé « L’homme artificiel » https://www.odilejacob.fr/catalogue/sciences/neurosciences/homme-artificiel_9782738120014.php