13/01/2024 Les Kinzhaïl fâcheuses surprises du Pentagone

Il y a eu une troisième attaque russe massive le 8 janvier (après le 29 décembre et le 2 janvier) contre des objectifs industriels et militaires majeurs de l’Ukraine. On peut considérer ces trois attaques comme faisant partie d’un plan politique et stratégique cohérent des Russes, ayant plusieurs objectifs en complément des objectifs opérationnels.

Ces attaques ont pour particularité d’employer comme arme centrale le missile hypersonique Kinzhal’, dont plus d’une centaine ont été utilisés à cette occasion. On observera d’abord avec quelle vitesse et en quelle quantité les Russes ont produit ce missile. Il n’avait fait de sorties qu’en quelques exemplaires et était resté quasiment inaperçu du renseignement militaire américain.

Au printemps 2018 dès l’apparition de l’hypersonique en mars 2018 à la suite du discours de Vladimir Poutine, le général Michael Hayden, alors chef de la NSA, avait eu cette réponse:

«Nous n’avons aucune défense contre l’emploi d’une telle arme contre nous, aussi notre riposte ne pourrait être que l’emploi de notre force de dissuasion, c’est-à-dire la triade de nos capacités stratégiques nucléaires au plus haut niveau.»

On rappellera que l’essentiel de la défense aérienne ukrainienne est constitué du système de défense Patriot réinstallé dans un nouvel ensemble complexe (postes de commandement, de communication, radars de détection et de guidage, un certain nombre de batteries par système elles-mêmes équipées d’un certain nombre de missiles) Ainsi sont articulées toutes les défenses aériennes sous contrôle américaine, en Europe contre la Russie et en Asie contre la Chine.

Peut-on en conclure que la guerre était entrée dans l’ère de l’hypersonique sans que Washington s’en soit rendu compte ? A quoi bon alors disposer de systèmes de renseignements qui font l’admiration du monde libre

12/01/2024. Les cordes cosmiques et la gravité quantique

Nous avons constaté précédemment que les cordes cosmiques, si leur existence était confirmée, émettraient aussi des ondes gravitationnelles. Celles-ci résulteraient de leur tension et flexions continues. Mais elles seraient très faibles, difficiles à distinguer du bruit de fond continu émis par les collisions entre trous noirs supermassifs principaux responsables de la création des ondes gravitationnelles.

Si cependant les expérimentalistes pouvaient réussir à les mesurer, ils en tireraient un test incomparable concernant l’unité des forces de la nature pouvant conduire à préciser ce que serait la théorie de la gravité quantique. Celle-ci vise a remplacer sous une formulation unique la Théorie de la gravité d’Einstein et les principes de la physique quantique découverte dans la 1ere moitié du 20e siècle.

Dans un article dont on trouvera-ci-dessous les références la physicienne Astrid Eichhorn de l’Université du Danemark a découvert qu’une certaine classe de théories de la gravité quantique, dite « asymptotically safe » ne pouvait pas être compatible avec les cordes cosmiques dérivées du modèle standard des particules. Les théoriciens préfèrent cela car cette présentation leur évite de faire appel au concept d’infini. 

Référence

Subjects: High Energy Physics – Theory (hep-th); General Relativity and Quantum Cosmology (gr-qc); High Energy Physics – Phenomenology (hep-ph)[7] arXiv:2306.17718 [pdfother]

From quantum gravity to gravitational waves through cosmic strings

Astrid EichhornRafael R. Lino dos SantosJoão Lucas Miqueleto

Comments: 21 pages + appendix, 6 figures

Subjects: General Relativity and Quantum Cosmology (gr-qc); High Energy Astrophysical Phenomena (astro-ph.HE); High Energy Physics – Theory (hep-th)

11/01/2024 Il n’y a que deux façons pour limiter l’actuel réchauffement climatique

Il n’y a que deux façons pour limiter l’actuel réchauffement climatique. L’une est d’augmenter la quantité de chaleur provenant de la surface de la Terre et qui se dissipe dans l’espace. L’autre est d’augmenter la quantité de chaleur provenant du soleil et qui est réfléchie dans l’espace avant d’atteindre la surface de la Terre

De même, il y a globalement deux méthodes pour atteindre ce double objectif. Tout ce qui réduira la quantité de gaz à effet de serre dans l’atmosphère laissera davantage de chaleur terrestre s’échapper vers l’espace. Tout ce qui pourrait rendre la Terre ou son atmosphère plus réfléchissante limitera la quantité de chaleur atteignant la Terre et la renverra vers l’espace.

Réduire la production de gaz à effet de serre est déjà engagé et semble globalement accepté, même dans des pays grands producteurs comme la Chine et l’Inde.

Par contre la deuxième méthode sera d’un coût considérable en l’état actuel des techniques. Elle pourrait avoir des effets secondaires mal acceptés. Ainsi en serait-il de refroidir l’Arctique ou assombrir le ciel en y envoyant des quantités massives de particules réfléchissantes.

La principale différence entre ces deux méthodes sera cependant leur temps de réponse, c’est-à-dire le temps qui leur faudra pour atteindre l’objectif de limiter à 1° 5 la hausse annuelle des températures à la surface de la Terre.

La méthode consistant à réduire la production des gaz à effet de serre sera nécessairement longue parce que difficile à appliquer. Toute l’humanité ou presque sera concernée.

La méthode alternative consistant à rendre la Terre plus réfléchissante consisterait en fait à ne rien faire  Il suffirait de laisser se poursuivre les rythmes et méthodes de production actuelle . Ainsi il vient d’être constaté que les efforts actuellement engagés par l’Organisation Maritime Internationale pour réduire les taux de pollution résultant de l’activité de l’industrie du transport maritime se traduiront par une meilleure transparence de l’air océanique c’est à dire une meilleure capacité pout réchauffer la mer et les côtes.

Est-ce ainsi que l’on luttera pour rendre la Terre plus réfléchissante? Réfléchissons-y.

08/01/2024 La théorie des cordes cosmiques (cosmic strings theory)

Cet article reprend en les traduisant et les simplifiant les principaux passages de Cosmic threads de Dan Falk, New Scientist 30 december 2023

Une corde cosmique (cosmic string dite aussi cosmic thread) serait un objet hypothétique présent dans tout l’univers. Elle serait semblable à une corde, d’où son nom. Sa longueur pourrait être supérieure à celle de l’univers observable. Son épaisseur serait celle d’une particule subatomique telle que le proton. Elle se déplacerait dans l’univers à une vitesse proche de celle de la lumière. Elle serait animée par une énergie proche celle qui animait l’univers immédiatement après le Big Bang dont elle serait issue

Pour certains cosmologues, dont Neil Turok de l’Université d’Edimbourg, les cordes cosmiques sont la meilleure preuve des « théories unifiées ». Celles-ci considèrent que les forces fondamentales de la nature étaient unifiées dans l’univers primitif précédant le Big Bang. Elles ont divergé ensuite après le Big Bang.

L’existence des cordes cosmiques reste à prouver. Depuis un certain temps cependant les astronomes ont découvert un certain nombre d’anomalies difficilement explicables si l’on ne fait pas appel à elles.. C’est le cas de galaxies anormalement grandes ou d’amas de galaxies aux formes étranges, allongées comme des sandwichs.

Comprendre la raison de l’existence de ces énigmatiques cordes cosmiques devrait permettre à la cosmologie toute entière de faire un pas en avant considérable. Selon Joseph Conlon de l’Université d’Oxford, les théoriciens devraient enfin pouvoir trancher entre les diverses hypothèses intéressant le début et la fin de l’Univers. Il s’agirait d’une véritable révolution.

L’actuel Modèle Standard de la physique des particules ne mentionne pas les cordes cosmique. Il en résulte que la matière noire qui semble indispensable à l’attraction dont ont besoin les galaxies pour ne pas se disperser sous l’effet de la force centrifuge ou bien le comportement des encore mystérieux neutrinos restent inexplicables. Ces lacunes ont conduit les théoriciens à rechercher une extension du Modèle.

Aujourd’hui des théories alternatives supposent qu’au début de l’univers, les trois forces fondamentales étudiées aujourd’hui, l’électromagnétisme et les forces nucléaires faible et forte, ne constituaient qu’une seule force. Avec le refroidissement du cosmos, ces forces se séparèrent. Dans le processus dit de transition de phase s’en étant suivi, elles laissèrent apparaître des fractures qui ont pris la forme des cordes cosmiques d’aujourd’hui.

Ces cordes cosmiques ne doivent pas confondues avec les cosmic superstrings que prévoit la théorie de la gravité quantique visant à fusionner le théorie de la Gravité d’Einstein et la physique quantique. Ces dernières sont de minuscules entités unidimensionnelles vibrantes. Pourtant, certaines d’entre elles auraient pu devenir des cordes cosmiques en s’agrandissant brusquement lors de l’expansion de l’univers.

Des étrangetés galactiques

Avec tant d’hypothèses concernant les cordes cosmiques, comment pourrait on se représenter la forme qu’elles auraient aujourd’hui ? Certaines pourraient être assez longues pour s’étendre à travers l’univers tout entier, en comportant des sursauts d’énergie voyageant au long d’elles à une vitesse proche de celle de la lumière. Ce faisant, elles pourraient se rencontrer en créant un réseau enchevêtré. Elles formeraient alors des boucles grandes ou petites qui ajouteraient à la complexité du réseau.

Si un tel réseau existait, il devrait laisser sa marque dans le cosmos en attirant à lui tout ce qui possède une masse. Cette hypothèse permettrait de comprendre comment se sont formés les amas de galaxies et les galaxies dans l’univers primitif, alors que la matière émergeait et s’agglomérait en grands ensembles.

Cependant au début des années 1990, les théoriciens se désintéressèrent de l’hypothèse des cordes cosmiques. Quand ils mesurèrent le Cosmic Microwave Background CMB, ils constatèrent qu’il était presque homogène d’une partie du ciel à l’autre. Cela ne correspondait pas à l’idée que les cordes cosmiques étaient responsables de la quasi-totalité de l’énergie de l’univers. Tout au plus, un dixième de celle-ci seulement était impliqué par ces structures.

Pour le cosmologue Jim Pebbles, de l’Université de Princeton, les cordes peuvent néanmoins être détectables du fait des déformations qu’elles imposent encore à certains amas de galaxies. C’est ainsi que l’amas de galaxies qui comprend la Voie lactée a pris la forme d’un sandwich. Il est 30 fois plus long que large.

Ceci ne veut pas dire que les cordes cosmiques auraient été responsables à elles seules de la formation des galaxies. Mais elles pourraient cependant être encore présentes et détectables avec des moyens suffisamment puissants.

Dans un article publié en décembre 2023, Flat patterns in cosmic structure  Jim Peebles considère que ces déformations méritent d’être étudiées
https://academic.oup.com/mnras/article/526/3/4490/7296159

Pour Jim Peebles, ces déformations sont difficilement compatibles avec le Lamba CDM model désignant la force censée accélérer l’expansion de l’univers
https://fr.wikipedia.org/wiki/Mod%C3%A8le_%CE%9BCDM Si cela était le cas, les cordes cosmiques devraient être vues comme des rayons froids et presque droits.

De nouvelles observations des galaxies les plus anciennes semblent justifier l’existence des cordes cosmiques Leur capacité à rassembler et déplacer de la matière pourrait expliquer la formation rapide de ces galaxies En février 2024 le nouveau James Webb Space Telescope avait observé  quelques unes des galaxies massives qui s’étant formées 500 à 800 d’années après le Big Bang.

La rapidité de leur apparition impliquait que les cordes cosmiques n’avaient pas été directement responsables de leur formation. Néanmoins, celles-ci pouvaient y avoir participé par des apports de matière . Les théoriciens spécialistes des cordes cosmiques considèrent qu’elles auraient eu leur plus grande influence sur la formation des structures juste après le Big Bang.

Robert Brandenberger de l’Université Mac Gill à Montréal a prévu d’étudier les cordes cosmiques via l’importance des ondes radio provenant des plus anciennes de ces galaxies, dites radiation de 21cm. émises 50 millions d’années après le Big Bang.

Les astronomes pensent avoir eu une autre preuve de la présence des cordes cosmiques quand deux galaxies leur apparurent être comme dans un miroir l’exacte image l’une de l’autre. En fait il s’agissait d’une seule galaxie, dont l’image aurait été dupliquée par le passage lointain supposée d’une corde cosmique entre cette galaxie et la Terre. Mais tous ne sont pas convaincus.

Une nouvelle occasion sera bientôt offertes pour vérifier l’éventuelle présence d’une corde cosmique. Il s’agira de l’étude des ondes gravitationnelles conduite par la collaboration internationale fondée à cette fin. Les spécialistes considèrent que la présence de cordes cosmiques pourraient avoir une influence sur certaines ondes gravitationnelles.

Que serait la relation entre les cordes cosmiques et les ondes gravitationnelles ? Celles-ci sont supposées résulter entre autres raisons de la collision entre les innombrables trous noirs supermassifs que comprend l’univers. Les cordes cosmiques qui vibrent constamment du fait de leurs tensions pourraient aussi émettre des ondes gravitationnelles. Celles-ci seraient cependant très faibles et difficiles à détecter. Il faudrait encore une décennie de données pour espérer y voir plus clair; A cette fin le North American Nanohertz Observatory for Gravitational Waves pourrait être mis à contribution.

Note
Flat patterns in cosmic structure 

P J E Peebles

Monthly Notices of the Royal Astronomical Society, Volume 526, Issue 3, December 2023, Pages 4490–4501, https://doi.org/10.1093/mnras/stad3051

Published:

06 October 2023

ABSTRACT

It is natural to wonder how far the flat pattern in the distribution of galaxies and clusters of galaxies around the de Vaucoueurs Local Supercluster extends, and whether there are other similarly extended flat patterns in the large-scale structure of the Universe. I present evidence of two extended flat and thin sheet-like patterns in the distributions of galaxies and clusters detected at redshift z < 0.021. Sheet A contains our position and is tilted 11° from the supergalactic pole, meaning the Local Supercluster is a moderately bent part of the more extended Sheet A. The continuation of this sheet is detected in the disjoint sample of galaxies at redshifts 0.021 < z < 0.041 and again in the disjoint samples of galaxies and clusters of galaxies at 0.042 < z < 0.085. Sheet B is 15 Mpc from us at its closest point. It is detected at z < 0.021 and at 0.021 < z < 0.041. These results make a serious case for the reality of signatures of close to flat and thin extended sheet-like patterns in cosmic structure, and an interesting challenge for the lambda-cold dark matter cosmology.

07/01/2024 Le coeur des étoiles à neutrons pourrait être fait de quarks libres

Malgré leur petit diamètre, d’environ 20 kilomètres, les étoiles à neutrons ont une masse près de 1,5 fois supérieure à celle du soleil. Elles sont donc extrêmement denses. L’équivalent en taille d’un morceau de sucre terrestre qui serait constitué d’une matière provenant d’étoile à neutrons pèserait environ cent millions de tonnes sur Terre.

Rappelons qu’au centre d’un atome terrestre se trouve un noyau fait de protons et de neutrons. Ce noyau est entouré d’électrons. Les protons et les neutrons sont constitués de particules élémentaires appelées quarks. Les particules élémentaires sont les plus petits constituants de la matière. Un quark est une particule élémentaire et un constituant de la matière observable. Les quarks s’associent entre eux pour former des hadrons, particules composites, dont les protons et les neutrons sont des exemples connus, parmi d’autres. En raison d’une propriété dite de confinement, les quarks ne peuvent être isolés, et n’ont pas pu être observés directement ; tout ce que l’on sait des quarks provient donc indirectement de l’observation des hadrons.

Les quarks s’attirent entre eux par une force fondamentale, l’interaction forte. Celle-ci est réalisée par un échange de particules électriquement neutres nommées gluons.

La densité des étoiles à neutrons est telle qu’elle provoque la combinaison des protons et des électrons composant la matière ordinaire en neutrons, d’où leur nom. La composition des centres ou noyaux de ces étoiles est inconnue, mais il pourrait être constitué d’un superfluide de neutrons ou d’un état de matière inconnu.

Les étoiles à neutrons exercent une attraction gravitationnelle extrêmement forte, bien supérieure à celle de la Terre. Cette force est particulièrement impressionnante si on la rapporte à la petite taille de ces étoiles. Lorsqu’elles se forment, les étoiles à neutrons tournent dans l’espace. Au fur et à mesure qu’elles se compriment et se rétrécissent, cette rotation s’accélère en raison de la conservation du moment cinétique.

 Ces étoiles ralentissent progressivement au fil des temps, mais elles tournent encore assez rapidement pour émettre un rayonnement qui, depuis la Terre, semble clignoter, comme le faisceau d’un phare maritime. Cette apparente pulsation donne à certaines étoiles à neutrons le nom de pulsars.

Après avoir tourné pendant plusieurs millions d’années, les pulsars se vident de leur énergie et deviennent des étoiles à neutrons normales. Parmi les étoiles à neutrons connues, peu sont des pulsars. On n’a identifié dans l’univers visible qu’un millier de pulsars, mais il pourrait se trouver des centaines de millions d’anciennes étoiles à neutrons dans la seule Voie Lactée.

Les pressions qui existent au cœur des étoiles à neutrons peuvent être similaires à celles qui existaient au moment du Big Bang, mais ces états ne peuvent être simulés sur Terre.

Les étoiles à neutrons sont issus d’étoiles qui ont atteint quatre à huit fois la taille de notre soleil avant d’exploser en supernovae. Après une telle explosion, les couches extérieures de l’étoile sont projetées dans l’espace mais le noyau demeure, sans toutefois produire de fusion nucléaire. Sans la pression vers l’extérieur de la fusion pour contrebalancer l’attraction de la gravité vers l’intérieur, l’étoile se condense et s’effondre sur elle-même.

Le cœur des étoiles à neutrons demeure un mystère. Une nouvelle analyse par superordinateur suggère que ces étoiles mortes pourraient contenir un noyau rempli de quarks libres formant ainsi une matière exotique appelée « matière de quarks froids ».

Le processus de formation des étoiles à neutrons commence avec une étoile 10 à 20 fois plus massive que le Soleil provenant de fusions dans son noyau. Cette fusion produit une force qui équilibre la pression gravitationnelle vers l’intérieur de l’étoile, maintenant ainsi sa stabilité.

Une fois que l’étoile a épuisé son stock de combustible nucléaire, cette force de pression n’est plus suffisante pour compenser la gravité qui attire la matière vers le centre de l’étoile. Celle-ci entre alors dans une phase d’effondrement gravitationnel.

Dans le cas des étoiles dont la masse est comprise entre dix et vingt fois celle du Soleil, cet effondrement gravitationnel peut être si intense que les protons et les électrons, qui constituent normalement la matière ordinaire, fusionnent pour former des neutrons. C’est ainsi que naissent les étoiles à neutrons. Ces objets extrêmement denses ont une taille d’environ vingt kilomètres, mais leur masse est équivalente à une à deux fois celle du Soleil.

Ce processus est assez bien compris. Cependant, la composition interne de ces étoiles à neutrons est toujours un sujet d’interrogation

Les résultats de l’analyse ont révélé une forte probabilité que l’intérieur des étoiles à neutrons soit constitué de ce qu’on appelle de la « matière de quarks froids ». Il s’agit d’une forme exotique de matière qui diffère de la matière nucléaire classique composée de protons et de neutrons.

Pour comprendre cela, on peut imaginer que la matière nucléaire classique soit comme des briques de construction qui permettent de construire des atomes, lesquels forment la base de toute la matière que nous connaissons, comme les étoiles, les planètes et même nous-mêmes. Dans le cas de la matière de quarks froids, il semblerait que ces  briques  conventionnelles (protons et neutrons) soient remplacées par des composants plus fondamentaux faits de quarks dits libres qui existent librement sans former les briques habituelles.

Cette découverte suggère que l’intérieur des étoiles à neutrons pourrait être bien plus étrange et exotique que ce que l’on avait initialement imaginé. Cette hypothèse pourrait être confirmée à l’avenir grâce à des améliorations dans l’observation des ondes gravitationnelles provenant de collisions d’étoiles à neutrons. Cependant, la confirmation nécessitera des calculs intensifs sur des superordinateurs et des observations plus précises.

Référence

  1. Nature co mmmunications  
Strongly interacting matter exhibits deconfined behavior in massive neutron stars

Nature Communications 

volume 14, Article number: 8451 (2023) 

  • Abstract

Neutron-star cores contain matter at the highest densities in our Universe. This highly compressed matter may undergo a phase transition where nuclear matter melts into deconfined quark matter, liberating its constituent quarks and gluons. Quark matter exhibits an approximate conformal symmetry, predicting a specific form for its equation of state (EoS), but it is currently unknown whether the transition takes place inside at least some physical neutron stars. Here, we quantify this likelihood by combining information from astrophysical observations and theoretical calculations. Using Bayesian inference, we demonstrate that in the cores of maximally massive stars, the EoS is consistent with quark matter. We do this by establishing approximate conformal symmetry restoration with high credence at the highest densities probed and demonstrating that the number of active degrees of freedom is consistent with deconfined matter. The remaining likelihood is observed to correspond to EoSs exhibiting phase-transition-like behavior, treated as arbitrarily rapid crossovers in our framework.

06/01/2024 Le syndrome CKM, un nouveau type de maladie de cœur de plus en plus fréquent

source
https://www.scientificamerican.com/podcast/episode/a-new-type-of-heart-disease-is-on-the-rise1

NB. Nous laissons aux auteurs de cet article l’entière responsabilité de leurs propos. Europesolidaire.eu

Le syndrome CKM apparaît lorsqu’un patient présente à la fois des troubles cardiovasculaires, des atteintes au foie et des maladies du métabolisme tels que le diabète de type 2 et l’obésité. Consulter séparément des spécialistes dans ces trois types de pathologie ne permet pas de mettre en évidence le syndrome CKM.

Selon l’American Heart Association, un tiers des adultes américains présentent des facteurs de risque concernant ce syndrome Ceux-ci accroissent significativement leurs taux de décès.

C’est l’obésité qui est la cause première du syndrome. Les cellules graisseuses secrètent des produits qui entraînent de l’inflammation. Celle-ci attaque les vaisseaux sanguins et réduit le taux d’insuline laquelle combat l’importance du sucre dans la circulation. Davantage de sucre dans le sang et moins de sucre dans les cellules caractérise le diabète.

Les cardiologues sont les premiers à avoir pris conscience de cette question. Mais ils ont beaucoup tardé à l’aborder. Ceci peut s’expliquer parce que les traitements recommandés sont contradictoires. Bénéfiques dans certains cas, ils sont à éviter dans d’autres. Aujourd’hui cependant sont apparues des thérapies efficaces dans le traitement du diabète qui ont aussi des effets cardioprotecteurs ainsi que dans le traitement du foie.

Ces thérapies à base d’agonistes de la  Glucagon-like peptide-1 tels que Ozempic et Wegovy utilisés pour le traitement du diabète et de l’obésité peuvent aussi protéger dans le domaine des troubles cardiovasculaires et rénaux.

Ces médicaments ne doivent pas être utilisés seuls, mais en accompagnement de changements de mode de vie, tels que prendre d’avantage d’exercice. C’est le patient tout entier qui doit être traité. Cette approche globale est nécessaire pour apprécier les risques de celui-ci en matière de syndrome CKM.

Celle-ci se fait dès que le consultant a atteint 30 ans et non 40 ans comme précédemment.

Référence

Cardiovascular-Kidney-Metabolic Health: A Presidential Advisory From the American Heart Association

https://www.ahajournals.org/doi/10.1161/CIR.0000000000001184

Chiadi E. Ndumele,,

 … See all authors 

Originally published 9 Oct 2023

Abstract

Cardiovascular-kidney-metabolic health reflects the interplay among metabolic risk factors, chronic kidney disease, and the cardiovascular system and has profound impacts on morbidity and mortality. There are multisystem consequences of poor cardiovascular-kidney-metabolic health, with the most significant clinical impact being the high associated incidence of cardiovascular disease events and cardiovascular mortality. There is a high prevalence of poor cardiovascular-kidney-metabolic health in the population, with a disproportionate burden seen among those with adverse social determinants of health. However, there is also a growing number of therapeutic options that favorably affect metabolic risk factors, kidney function, or both that also have cardioprotective effects. To improve cardiovascular-kidney-metabolic health and related outcomes in the population, there is a critical need for (1) more clarity on the definition of cardiovascular-kidney-metabolic syndrome; (2) an approach to cardiovascular-kidney-metabolic staging that promotes prevention across the life course; (3) prediction algorithms that include the exposures and outcomes most relevant to cardiovascular-kidney-metabolic health; and (4) strategies for the prevention and management of cardiovascular disease in relation to cardiovascular-kidney-metabolic health that reflect harmonization across major subspecialty guidelines and emerging scientific evidence. It is also critical to incorporate considerations of social determinants of health into care models for cardiovascular-kidney-metabolic syndrome and to reduce care fragmentation by facilitating approaches for patient-centered interdisciplinary care. This presidential advisory provides guidance on the definition, staging, prediction paradigms, and holistic approaches to care for patients with cardiovascular-kidney-metabolic syndrome and details a multicomponent vision for effectively and equitably enhancing cardiovascular-kidney-metabolic health in the population.

05/01/2023 Evolution de l’univers. Apparition de la vie sur les planètes semblables à la Terre

L’univers visible comprend un nombre incroyablement élevé d’amas de galaxies, de galaxies et dans ces galaxies de systèmes solaires comparables au nôtre.

Depuis quelques dizaines d’années, les astronomes ont été en mesure de détecter des milliers de planètes dites exoplanètes en dehors du Système solaire. Nous connaissons maintenant plus de 5000 exoplanètes et ce nombre ne cesse de croître. Dans ces exoplanètes il n’y a aucune raison de penser que ne trouvent pas des formes de vie semblables à la vie terrestre. Encore faudrait-il que la science puisse en donner la preuve. La première démarche en ce sens sera de reconstituer la vie en laboratoire.

Jusqu’à présent, cela n’avait pas été possible. Cependant le but semble se rapprocher. Différentes formules de vie artificielle sont actuellement à l’étude.

Dans un article dont on trouvera ci-dessous les références et l’abstract, des chercheurs annoncent être sur la voie de réaliser ce que l’on nomme un chemoton artificiel

Selon Wikipedia, le terme de chemoton, raccourci pour chemical automaton, a été introduit par le biologiste hongrois Tibor Gentil en 1952 dans son ouvrage The Principles of Life. Il suggérait que le chemoton était le précurseur de toute forme de vie sur la Planète.

Les auteurs de l’article annoncent avoir réalisé un chemoton prébiotique en faisant appel à une réaction autocatalytique dite de formose. Celle-ci, découverte par le chimiste russe Alexandre Boutlerov en 1861, consiste principalement à polymériser le formaldéhyde pour former des sucres y compris des pentoses (sucres à cinq atomes de carbone). Formose est en l’espèce un mot formé sur les termes formaldéhyde et aldose.

Si cette annonce tenait ses promesses, il s’agirait d’un coup de tonnerre qui ne passerait pas inaperçu.

Référence

Issue 35, 2023
From the journal:
Chemical Science

Towards a prebiotic chemoton – nucleotide precursor synthesis driven by the autocatalytic formose reaction

Abstract

The formose reaction is often cited as a prebiotic source of sugars and remains one of the most plausible forms of autocatalysis on the early Earth. Herein, we investigated how cyanamide and 2-aminooxazole, molecules proposed to be present on early Earth and precursors for nonenzymatic ribonucleotide synthesis, mediate the formose reaction using HPLC, LC-MS and 1H NMR spectroscopy. Cyanamide was shown to delay the exponential phase of the formose reaction by reacting with formose sugars to form 2-aminooxazole and 2-aminooxazolines thereby diverting some of these sugars from the autocatalytic cycle, which nonetheless remains intact. Masses for tetrose and pentose aminooxazolines, precursors for nucleotide synthesis including TNA and RNA, were also observed. The results of this work in the context of the chemoton model are further discussed. Additionally, we highlight other prebiotically plausible molecules that could have mediated the formose reaction and alternative prebiotic autocatalytic systems.

04/01/2024 Le réchauffement climatique actuel est-il linéaire ou exponentiel ?

James Hansen est le climatologue de la NASA qui eut la témérité d’affirmer devant une commission du Sénat des Etats-Unis en 1988 qu’il était quasiment certain que la tendance au réchauffement des températures globales observé depuis quelques années n’avait pas une cause naturelle mais était du à l’augmentation dans l’atmosphère du taux de CO2 du aux activités humaines L’effet de serre est là et bien là, avait-il conclu dans l’incompréhension générale

Michael Mann est aussi un climatologue respecté. Il est directeur du Center for Science, Sustainability & the Media de l’Université de Pennsylvanie. Il a contribué à l’étude du réchauffement des températures observé depuis mille ans. Il a introduit le terme de hookey stick, crosse de hockey, pour illustrer le fait que ce réchauffement avait brutalement augmenté depuis le développement des activités liées à la révolution industrielle.

Dans un article au New York Times souvent cité, il avait reconnu qu’il n’avait pas de preuve indiscutable des causes de l’effet de serre, mais que celui-ci était désormais un fait indiscutable.

Le 2 novembre 2023, dans un nouvel article publié par le journal Oxford Open Climate Change Global warming in the pipeline https://academic.oup.com/oocc/article/3/1/kgad008/7335889, James Hansen et ses collègues confirmèrent que les modèles prédictifs utilisés par l’IPCC (International Panel on Climate Chang) étaient trop optimistes. Ces modèles sous- estimaient le fait qu’il existait depuis bien plus longtemps des facteurs inhérents à l’atmosphère terrestre et aux milieux océaniques qui laissaient prévoir un réchauffement élevé plus proche que celui retenu par l’IPCC.

Leur étude est longue et extrêmement détaillée. Elle prend en compte les températures de la Terre depuis 66 millions d’années, telles qu’elles peuvent être déduites de nombreuses traces géologiques et fossiles. Elle inclut l’analyse d’une époque où le niveau de CO2 était la moitié de celui constaté aujourd’hui, et où la Terre était une véritable « boule de glace » ou frozen ball of ice. L’étude identifie les perturbations naturelles telles que les oscillations de la Terre sur son orbite et l’évolution des taches solaires pouvant expliquer ces phénomènes.

Ceci étant, pour les auteurs de l’étude, le réchauffement observé ou prévu actuellement est bien plus intense et rapide que ceux s’étant produit depuis 66 millions d’années.

Le changement climatique se caractérise par un retard dans les effets et des conséquences amplifiées. Il en résulte une difficulté à renverser les tendances une fois qu’elles se sont manifestées. Les travaux récents ont montré que le climat terrestre était très sensible, bien plus que le pensaient les experts de l’IPCC. Ceci se traduit par le fait qu’une grande quantité de changements climatiques est en attente et se produira nécessairement dans un avenir plus ou moins éloigné.

Des mesures importantes sont donc dès maintenant nécessaires pour réduire le réchauffement futur, et diminuer ses conséquences indésirables pour l’humanité et la nature. Mais que seraient ces mesures, que seraient leurs coûts et leurs conséquences ? 

Hansen et d’autres de ses collègues avaient récemment observé que des mesures destinées à diminuer la pollution atmosphérique avaient l’effet contraire à celui désiré . Ainsi en est-il du géo-engineering.

Cette procédure consistant à pulvériser dans la haute atmosphère du dioxide de soufre destiné à renvoyer vers l’extérieur une partie de la chaleur solaire coûterait des trillions de dollars et auraient des effets désastreux sur les systèmes respiratoires des animaux terrestres.

On notera que la question de la lutte contre le réchauffement climatique n’a pratiquement pas été évoquée lors du dernier COP Summit des Nations Unies à Dubai en décembre 2023

Wikipedia

James Edward Hansen (born March 29, 1941) is an American adjunct professor directing the Program on Climate Science, Awareness and Solutions of the Earth …

Michael Evan Mann is an American climatologist and geophysicist. He is the director of the Center for Science, Sustainability & the Media at the University of Pennsylvania.

Pour en savoir plus voir https://cleantechnica.com/2023/07/20/we-are-damned-fools-james-hansen/

03/01/2024 Reconstitution possible de la couche d’ozone d’ici 2066

Après 38 ans de surveillance et de protection, le trou dans la couche d’ozone semble en bonne voie de rétablissement. Selon le dernier communiqué du conseil scientifique du Protocole de Montréal, il devrait complètement se résorber d’ici 2066.

Placée sous très haute surveillance depuis 1985, l’évolution du trou dans la couche d’ozone semble aller dans la bonne direction, selon le dernier rapport de l’ONU.

« La couche d’ozone nous protège des radiations ultraviolettes C, B et A émises par le Soleil. Les UV C sont les plus énergétiques, et sont complètement filtrés par [la couche d’ozone] », présente Cathy Clerbaux, directrice de recherche du CNRS. « Plus les rayons sont énergétiques, plus ils sont susceptibles d’induire des problèmes. Il n’y aurait pas eu d’émergence de la vie sans cette couche d’ozone. »

Située dans la stratosphère, bien au-dessus des nuages, la couche d’ozone est une strate de gaz de plusieurs kilomètres d’épaisseur. Apparue il y a 3,5 milliards d’années, elle doit son origine à l’oxygène relâché dans l’atmosphère par les tout premiers organismes photosynthétiques.

Apparus sous l’eau, à l’abri des rayons UV, ces organismes primitifs ont permis une modification drastique de la composition de l’atmosphère. Cet apport constant en oxygène a ainsi permis l’apparition d’une couche d’ozone protectrice, puis un changement radical d’une atmosphère réductrice à une atmosphère oxydante.

Cette transition, connue sous le nom de « catastrophe de l’oxygène », a entraîné la disparition d’une grande partie des premiers microorganismes et a permis l’apparition de formes de vie respirant de l’oxygène. Pourtant, après des milliards d’années d’équilibre, une perturbation importante a été enregistrée au niveau du pôle Sud à partir du milieu des années 1980.

Chaque année, en septembre, à la fin de l’hiver polaire, une diminution drastique des niveaux d’ozone atmosphérique engendre un trou dans notre bouclier planétaire. À l’origine de cet accroc : l’utilisation de chlorofluorocarbures (CFC), des gaz très stables utilisés en grande quantité dans de nombreux domaines.

Interdits à l’utilisation en 1985 par le Protocole de Montréal, leur disparition des rayonnages constitue encore aujourd’hui l’un des meilleurs exemples de coordination mondiale en termes de protection de l’environnement.

Cet investissement a par ailleurs été payant, la guérison du trou dans la couche d’ozone étant à présent prévue pour 2066.

03/01/2024 Les apports de l’Intelligence Artificielle (IA) dans la lutte contre le cancer

On trouvera ci-dessous des extraits traduits en français de l’article cité en référence.

Avec 1,2 million de décès en 2020, le cancer est le deuxième tueur dans l’Union européenne. Cependant 40% de ces morts pourraient être évités grâce à un diagnostic précoce.

Le développement futur de l’Intelligence Artificielle IA en cancérologie devrait être une raison d’espérer des progrès dans le diagnostic et le traitement des cancer.

De nombreux articles de recherche montrent que l’IA pourra améliorer la prévention, le diagnostic et la gestion des cancers au sens général, en cardiologie et en ophthalmologie en particulier. La preuve en est la part croissante de l’IA dans les industries de santé. 18 multinationales sur 47 de ce secteur offrent des solutions médicales à base d’IA. 80% de celles-ci concernent le traitement, 20% le mode de vie et les ressources des malades.

L’IA contribue de plus en plus :

  • à la recherche pharmaceutique. Elle permet d’analyser en masse les données intéressant les produits pharmaceutiques et leur utilisation, notamment en ce qui concerne leur efficacité.
  • Au diagnostic médical. Elle permet de même d’analyser rapidement le diagnostic des symptômes, les résultats des radiographies, des examens médicaux, des traitements pharmaceutiques.
  • A l’efficacité chirurgicale. Des robots « intelligents » assisteront de plus en plus les chirurgiens avant, pendant et après les opérations. Ils contribueront aux soins post-opération et aux rétablissements. Voir Artificial Intelligence in Surgical Learning
  • Au suivi des patients. L’IA recueillera et analysera toutes les données vitales des patients. Ceci sera particulièrement bienvenu dans le cas des malades chroniques.
  • A la personnalisation des traitements. L’IA aidera les médecins à personnaliser les traitements compte tenu du profil des malades et plus généralement du profil des consultants : analyse du passé médical, du profil génétique, du mode de vie – le tout en protégeant l’anonymat des données.

Face à ces perspectives il faut constater pour le regretter le sous-équipement actuel des professions médicales et des établissements de santé.

Source

https://theconversation.com/how-ai-could-dramatically-improve-cancer-patients-prognosis-216713

auteur Frédéric Jallat, PhD Professor of Marketing and Academic Director of MSc. in Biopharmaceutical Management, ESCP Business School