26/07/2023 L’Europe se refroidira-t-elle alors que le reste du monde se réchauffera ?

Le courant nord-atlantique dit AMOC (Atlantic meridional overturning circulation ou circulation méridienne de retournement atlantique, dont la branche la plus connue est le Gulf Stream, constitue le plus important courant océanique capable d’influencer le climat mondial, et en particulier celui de l’Europe. Il s’agit d’un courant chaud né dans les tropiques. Il permet à l’Europe atlantique en hiver de conserver un climat tempéré alors que les glaces du pôle nord paralysent une grande partie de la Russie du Nord.

Or, l’AMOC pourrait s’arrêter d’ici 2060 si les émissions actuelles de gaz à effet de serre persistaient. Alors qu’une partie du monde se réchaufferait encore plus, l’Europe se refroidirait jusqu’à atteindre un froid glacial. Ce refroidissement serait alors sans doute le bienvenu en Europe qui pourrait ainsi conserver un climat tempéré dans ses parties cotières .

Telle est la conclusion d’un rapport qui vient d’être publié par l’université de Copenhague dans le journal Nature Communications ce mardi 25 juillet. Nous en donnons ci-dessous les références et l’abstract

Cette université, considérée comme la meilleure des pays scandinaves, jouit d’une réputation prestigieuse en ce qui concerne la recherche scientifique. Or les conclusions de son étude vont complètement à l’inverse de ce que prévoient les derniers rapports du Giec.

Jusqu’à maintenant, toutes les études envisageaient un climat de plus en plus chaud en Europe, la région du monde qui se réchauffe actuellement le plus vite après les pôles. Mais l’institut Niels Bohr de l’université de Copenhague envisage désormais la possibilité d’un continent européen plus froid dans quelques dizaines d’années, et cela en raison de la modification des courants océaniques de l’Atlantique.

Selon les chercheurs de l’Institut, la circulation des courants océaniques de l’Atlantique nord, qui influence les masses d’air chauds et froids dans la zone, va s’arrêter si nos émissions de gaz à effet de serre continuent au même rythme. L’équipe a utilisé des outils statistiques et des relevés de températures sur les 150 dernières années pour comprendre l’évolution de l’Amoc. Selon eux, il y a 95 % de chances pour que celle-ci disparaisse entre 2025 et 2095, avec une probabilité encore plus forte dans 34 ans, soit en 2057.

Ce courant est ce que les spécialistes appelle une boucle de circulation, ou boucle thermohaline, qui brasse les eaux et disperse la chaleur dans chaque hémisphère du Globe. Il joue donc un rôle fondamental dans le fonctionnement du climat. Son bouleversement, ou pire son effondrement, modifierait complètement notre climat, au niveau des températures comme des précipitations.

Concrètement, cela voudrait dire que la majorité de la planète va continuer à se réchauffer encore plus fort, en particulier les Tropiques qui subiront dans ce cas des températures extrêmes. Mais l’inverse se produirait en Europe. Comme le courant circule dans l’Atlantique, proche de notre continent, il réchauffe l’Europe. Son absence dans le Pacifique explique notamment pourquoi l’Alaska est par exemple un pays beaucoup plus froid que ceux de la Scandinavie aux mêmes latitudes.

Si ce courant s’arrêtait, cela plongerait donc une partie de l’Europe dans un froid glacial. Un phénomène difficile à imaginer dans le contexte actuel du réchauffement climatique flagrant en Europe. Parmi les autres conséquences envisagées, la hausse subite du niveau de la mer, qui engloutirait des zones comme la côte est des États-Unis.  

Ajoutons que l’Europe subirait alors l’invasion de milliards de réfugiés climatiques.

Les conclusions de l’université de Copenhague contredisent donc celles du Giec sur l’évolution du courant Amoc : le Giec ne juge pas possible un effondrement du courant d’ici la fin du siècle, et encore moins, un refroidissement de l’Europe.

L’évolution du courant et celle des températures de surface des océans n’est réellement étudiée que depuis une quinzaine d’années. Toutes les recherches effectuées sur le sujet comportent donc encore de nombreux points d’interrogations.

Sur le GIEC

N’étant pas lui-même un organisme de recherche, il fait appel pour la rédaction des rapports à des experts. Ceux-ci font la synthèse des travaux de recherche reconnus, effectués partout dans le monde et publiés dans les revues scientifiques. Pour cela, le Giec est organisé en trois groupes de travail : le premier évalue les données scientifiques sur le climat et son évolution, le deuxième enquête sur la vulnérabilité et l’adaptation des systèmes socio-économiques face aux conséquences du changement climatique, et le troisième envisage des moyens d’atténuer le changement climatique et ses effet

Référence

https://www.nature.com/articles/s41467-023-

Warning of a forthcoming collapse of the Atlantic meridional overturning circulation

Nature Communications 

volume14, Article number: 4254 (2023)is article

  • Abstract

The Atlantic meridional overturning circulation (AMOC) is a major tipping element in the climate system and a future collapse would have severe impacts on the climate in the North Atlantic region. In recent years weakening in circulation has been reported, but assessments by the Intergovernmental Panel on Climate Change (IPCC), based on the Climate Model Intercomparison Project (CMIP) model simulations suggest that a full collapse is unlikely within the 21st century. Tipping to an undesired state in the climate is, however, a growing concern with increasing greenhouse gas concentrations. Predictions based on observations rely on detecting early-warning signals, primarily an increase in variance (loss of resilience) and increased autocorrelation (critical slowing down), which have recently been reported for the AMOC. Here we provide statistical significance and data-driven estimators for the time of tipping. We estimate a collapse of the AMOC to occur around mid-century under the current scenario of future emissions.

27/07/2023 Mystérieux radiosignaux provenant de l’espace profond

Depuis 1988, des signaux radio provenant d’une source extraterrestre lointaine sont enregistrés régulièrement par le radiotélescope Murchison Widefield Array en Australie sans que les chercheurs n’en trouvent la source. C’est ce que rapportent des scientifiques dans une étude publiée le 19 juillet 2023 par la revue Nature dont on trouvera ci-dessous les références et l’abstract. Les chercheurs ne savent pas quel objet envoie ces ondes radio. Elles sont telles qu’elles ne sont conformes à aucun modèle tentant de l’expliquer.

L’équipe scientifique qui a observé ces ondes utilisait le radiotélescope Murchison pour étudier les émission radios provenant de la Voie Lactée. Natasha Hurley Walker, radioastronome à l’Université Curtin en Australie, qui dirigeait la recherche, a précisé que “Presque aussitôt que nous avons commencé à chercher, nous avons trouvé une nouvelle source, dans une autre partie du ciel se répétant cette fois toutes les 22 minutes”

Les scientifiques ont étudié dans les archives les précédentes ondes émises depuis l’univers vers la Terre. C’est là qu’ils ont découvert que l’émission de signaux en question avait débuté il y a trente-cinq ans.

Il faut savoir que la plupart du temps, les signaux radio venant de l’espace proviennent des pulsars, des étoiles à neutrons en rotation . Un pulsar (wikipedia) est un objet astronomique produisant un signal périodique allant de l’ordre de la milliseconde à quelques dizaines de secondes. Ce serait une étoile à neutrons tournant très rapidement sur elle-même (période typique de l’ordre de la seconde, voire beaucoup moins pour les pulsars milliseconde) et émettant un fort rayonnement électromagnétique dans la direction de son axe magnétique. Elles émettent vers la Terre des faisceaux énergétiques qui clignotent lorsqu’ils tournent vers et loin de notre planète.

Ici, les chercheurs ont d’abord pensé que ces les ondes pourraient être émises par des pulsars un peu particuliers appelés magnétars“Dans certains cas, les impulsions radio ont été interprétées comme provenant d’étoiles à neutrons en rotation avec des champs magnétiques extrêmement puissants, appelés magnétars”, précisent-ils dans leur étude. Ces ondes, qui peuvent se retrouver dans les relevés de fréquences radio, sont d’une durée très courte“L’origine d’autres messages transitoires radio, parfois périodiques et moins bien échantillonnés, est encore débattue.”

Or, “si la source était un magnétar, l’émission radio ne devrait être visible que pendant quelques mois à quelques années,  33 ans et plus”, précise Natasha Hurley Walker.

Piste extraterrestre ?

Il serait alors tentant de penser qu’il s’agirait d’un message provenant d’une intelligence extraterrestre située en dehors du système solaire. Le message ne comporterait pas de sens précis, faute d’un interlocuteur identifié. L’intelligence n’espérerait pas de réponse, compte tenu du temps, en année lumière, que prendrait les transmissions. Le sens du message serait cependant profond. Nous le traduirions ainsi : « qui que vous soyez, vous vous demandez sans doute si vous êtes seuls dans l’univers. Eh bien rassurez vous, vous n’êtes pas seuls ».

D’autres recherches sont nécessaires pour confirmer qu’il s’agit de signes de vie extraterrestre. Les auteurs sont en tous cas enthousiastes. La technologie évolue, et l’humain se rapproche peut-être d’une réponse qu’il s’est toujours posée: est-il seul dans l’univers ?

Notons qu’à ce jour, la source est toujours active

Référence

Nature volume619, pages 487–490 (2023)

Abstract

Several long-period radio transients have recently been discovered, with strongly polarized coherent radio pulses appearing on timescales between tens to thousands of seconds1,2. In some cases, the radio pulses have been interpreted as coming from rotating neutron stars with extremely strong magnetic fields, known as magnetars; the origin of other, occasionally periodic and less-well-sampled radio transients is still debated3. Coherent periodic radio emission is usually explained by rotating dipolar magnetic fields and pair-production mechanisms, but such models do not easily predict radio emission from such slowly rotating neutron stars and maintain it for extended times. On the other hand, highly magnetic isolated white dwarfs would be expected to have long spin periodicities, but periodic coherent radio emission has not yet been directly detected from these sources. Here we report observations of a long-period (21 min) radio transient, which we have labelled GPM J1839–10. The pulses vary in brightness by two orders of magnitude, last between 30 and 300 s and have quasiperiodic substructure. The observations prompted a search of radio archives and we found that the source has been repeating since at least 1988. The archival data enabled constraint of the period derivative to <3.6 × 10−13 s s−1, which is at the very limit of any classical theoretical model that predicts dipolar radio emission from an isolated neutron star.

26/07/2023 Un embryon humain synthétique

Il pourrait s’agir d’un premier pas décisif vers l’homme de synthèse. Ce concept ne doit pas être confondu avec celui d’homme artificiel, uniquement composé tel un robot d’aujourd’hui d’éléments mécaniques. Le futur homme de synthèse sera fait d’ éléments prélevés sur des humains ou chez des espèces animales proches, rendus compatibles par diverses procédures telles que l’ingénierie cellulaire ou organique. C’est le cas de l’embryon humain évoqué dans cet article.

Une équipe dirigée par Magdalena Zernicka-Goetz, de l’Université de Cambridge, vient d’annoncer avoir réalisé un embryon humain synthétique composé de cellules-souches . Il a été détruit au bout de 14 jours comme l’impose la législation britannique concernant les embryons humains. Sinon il paraissait capable s’il avait été implanté dans un utérus de se développer normalement. et de produire différent tissus, notamment des précurseur de cellules utilisées dans le sperme et les œufs chez les embryons réels.

De tels embryons seront essentiels pour la recherche scientifique, du fait qu’ils pourraient être produits en nombre illimité, notamment pour étudier les causes d’avortement. Mais les chercheurs impliqués dans ces recherches veulent disposer de plus de temps. Des propositions en ce sens devraient être bientôt soumises à l’ UK Human Fertilisation and Embryology Authority

Source

  • A model of the post-implantation human embryo derived from pluripotent stem cells

Nature (2023)

Abstract

The human embryo undergoes morphogenetic transformations following implantation into the uterus, yet our knowledge of this crucial stage is limited by the inability to observe the embryo in vivo. Stem cell-derived models of the embryo are important tools to interrogate developmental events and tissue-tissue crosstalk during these stages1. Here, we establish a model of the human post-implantation embryo, a human embryoid, comprised of embryonic and extraembryonic tissues. We combine two types of extraembryonic-like cells generated by transcription factor overexpression with wildtype embryonic stem cells and promote their self-organization into structures that mimic several aspects of the post-implantation human embryo. These self-organized aggregates contain a pluripotent epiblast-like domain surrounded by extraembryonic-like tissues. Our functional studies demonstrate that the epiblast-like domain robustly differentiates to amnion, extraembryonic mesenchyme, and primordial germ cell-like cells in response to BMP cues. In addition, we identify an inhibitory role for SOX17 in the specification of anterior hypoblast-like cells2. Modulation of the subpopulations in the hypoblast-like compartment demonstrated that extraembryonic-like cells impact epiblast-like domain differentiation, highlighting functional tissue-tissue crosstalk. In conclusion, we present a modular, tractable, integrated3 model of the human embryo that will allow us to probe key questions of human post-implantation development, a critical window when significant numbers of pregnancies fail.

26/07/27 Le piège des Grands Modèles de Langage (Large Language Models LLM): répéter comme des perroquets

Les Grands Modèles de Langage LLM sont considérés comme des apports de l’Intelligence Artificielle (IA) essentiels à la diffusion des connaissances. Le modèle le plus souvent cité est ChatGPT. Il utilise les innombrables textes désormais contenus sur Internet pour élaborer un modèle statistique du langage humain. Cela lui permet de prédire quels mots succéderont probablement à un autre dans une phrase donnée.

Concrètement, ChatGPT est dit réseau neuronal transformer-based. Comme les autres, il utilise l’IA générative (et plus précisément le Deep Learning) pour le traitement du langage naturel (NLP) et la génération de langage naturel (NLG).

L’objectif des Large Language Models étant d’apprendre la complexité du langage humain, ils sont pré-entraînés sur une grande quantité de données (textes, images, vidéos, discours et autres contenus structurées…). Plus un LLM utilise de paramètres, meilleures sont ses performances. À ce titre, les grands modèles linguistiques nécessitent des ressources importantes en termes de données, de calcul et d’ingénierie.

C’est le cas en particulier lors de la phase de pré-entraînement. À ce stade, les LLM doivent apprendre les tâches et fonctions linguistiques de base. Dès lors que le modèle d’apprentissage est pré-entraîné, il peut être alimenté avec de nouvelles données spécifiques. L’objectif est d’affiner ses capacités pour des cas d’utilisation particuliers. On parle alors de méthode fine tuning. Cette phase de l’apprentissage nécessite moins de données et d’énergie.

Ceci paraît satisfaisant. Mais à terme il en résulte qu’Internet est inondé, non de textes résultant d’un travail original, mais de textes reproduisant les contenus de travaux précédents. Il y a plus grave. Zakhar Shumaylov et une équipe de l’Université d’Oxford ont montré (références et abstract ci-dessous), que ce processus finit par aboutir à des contenus soit erronés, soit simplistes, soit déconnectés de la réalité.

Ceci pourrait s’expliquer aisément.

Chacun a pu constater par exemple que quand ChatGPT utilise les contenus d’autres LLM, il se limite en général à reprendre ceux qu’il rencontre le plus fréquemment. Il ne cherche pas à actualiser les contenus ni a corriger les erreurs. On a parlé d’effondrement du modèle (model collapse).

On retrouve là un processus qui est la plaie des médias d’information, presse et télévision. Pour gagner du temps, chacun se limite à reproduire sans valeur ajouté ce qu’ont déjà publié les médias précédents;

Référence

The Curse of Recursion: Training on Generated Data Makes Models Forget

Ilia ShumailovZakhar ShumaylovYiren ZhaoYarin GalNicolas PapernotRoss Anderson

Stable Diffusion revolutionised image creation from descriptive text. GPT-2, GPT-3(.5) and GPT-4 demonstrated astonishing performance across a variety of language tasks. ChatGPT introduced such language models to the general public. It is now clear that large language models (LLMs) are here to stay, and will bring about drastic change in the whole ecosystem of online text and images. In this paper we consider what the future might hold. What will happen to GPT-{n} once LLMs contribute much of the language found online? We find that use of model-generated content in training causes irreversible defects in the resulting models, where tails of the original content distribution disappear. We refer to this effect as Model Collapse and show that it can occur in Variational Autoencoders, Gaussian Mixture Models and LLMs. We build theoretical intuition behind the phenomenon and portray its ubiquity amongst all learned generative models. We demonstrate that it has to be taken seriously if we are to sustain the benefits of training from large-scale data scraped from the web. Indeed, the value of data collected about genuine human interactions with systems will be increasingly valuable in the presence of content generated by LLMs in data crawled from the Internet.

Subjects:Machine Learning (cs.LG); Artificial Intelligence (cs.AI); Computation and Language (cs.CL); Cryptography and Security (cs.CR); Computer Vision and Pattern Recognition (cs.CV)
Cite as:arXiv:2305.17493 [cs.LG]
 (or arXiv:2305.17493v2 [cs.LG] for this version)
 https://doi.org/10.48550/arXiv.2305.17493 Focus to learn more

25/07/2023 Dans le Pacifique, il faudra choisir, du manganèse ou des poissons

Des sociétés minières américaines ont l’intention de chercher avant de les remonter des nodules de manganèse, nickel et cuivre qui se trouvent à des profondeurs de plus de 4.000 mètres dans la Clarion Clipperton Zone (CCZ) une zone de Fracture de l’Océan Pacifique deux fois plus étendue que l’Inde

La zone peut être divisée en quatre parties distinctes :

  • La première, 127°-113° O, est une large ceinture basse de quelque 1448 km, avec un creux central de 16 à 48 km de large.
  • La seconde, 113°-107° O, est une crête enrichie de volcans, large de 97 km et longue de 531 km.
  • La troisième, 107°-101° O, est une cuvette basse avec un creux central de 366-731 mètre de profondeur qui traverse le plateau Albatros.
  • La quatrième, 101°-96° O, contient la dorsale de Tehuantepec qui s’étend sur 400 miles vers le nord-est jusqu’à la marge continentale.

La fosse de Nova-Canton est souvent considérée comme une extension de la fracture.

La zone qui est administrée par l’Autorité internationale des fonds marins (AIFM), contient des nodules constitués de divers éléments de terres rares dont on dit qu’ils jouent un rôle essentiel dans la transition énergétique vers une économie à faible émission de carbone. La zone a été divisée en 16 concessions minières couvrant environ 1 000 000 de kilomètres carrés. Neuf autres zones, couvrant chacune 160 000 kilomètres carrés, ont été mises en réserve pour la conservation.

L’Autorité internationale des fonds marins estime que la quantité totale de nodules dans la zone de Clarion Clipperton dépasse 21 milliards de tonnes (Bt), contenant environ 5,95 Bt de manganèse, 0,27 Bt de nickel, 0,23 Bt de cuivre et 0,05 Bt de cobalt. L’ISA a délivré 19 licences pour l’exploration minière en eaux profondes dans cette zone.

Les opérations d’exploration et d’extraction à grande échelle devaient commencer à la fin de 2021, mais cette date a pris un peu de retard. L’ISA devait publier le code d’exploitation minière en eaux profondes en juillet 2023, mais elle ne respectera pas ce délai. Les licences commerciales seront acceptées pour examen par la suite.

Les micronodules seront ensemencés par des processus biologiques. Ils seront ensuite agrégés et regroupés pour former des touffes destinées à être récoltées par dragage .

Or les fonds marins de la zone de fracture qui ont fait l’objet d’un permis d’exploitation minière abritent une diversité de xénophyophores  d’eaux profondes, une étude de 2017 ayant trouvé 34 espèces nouvelles pour la science dans cette zone. Les xénophyophores sont difficiles à étudier en raison de leur très grande fragilité. Les spécimens récoltés sont toujours endommagés et ne peuvent être valablement observés en culture. C’est la raison pour laquelle on ne sait que peu de choses sur leur mode de vie. Leur abondance dans tous les océans pourraient en faire des organismes indispensables au maintien de la biodiversité des écosystèmes benthiques.

Les xénophyophores sont des organismes essentiellement détritivores qui s’incrustent dans le sédiment boueux du plancher océanique. Ils sécrètent une substance visqueuse lorsqu’ils s’alimentent, formant un mucus qui peut recouvrir des surfaces importantes dans les zones où ils sont abondants. Ils semblent se nourrir de la même façon que les amibes, en émettant des pseudopodes autour des particules à absorber. Leur régime alimentaire pourrait également être riche en bactéries, comme le laisse penser la teneur élevée en lipides de leur cytoplasme

Les xénophyophores  étant très sensibles aux perturbations humaines, l’exploitation minière en eaux profondes peut avoir des effets néfastes sur ce groupe. De plus, comme ils jouent un rôle clé dans les écosystèmes benthiques, leur disparition pourrait avoir des conséquences écologiques graves. Des recherches sont menées par différents organismes de recherche, dont le Massachusetts Institute of Technology et l’Université technique de Delft, qui ont le statut d’observateur auprès de l’Autorité internationale des fonds marins, afin d’étudier en détail l’impact potentiel 

Il est prévisible que, quel que soit cet impact, la récolte des nodules se poursuivra. Il en résultera à terme des pertes considérables dans les espèces de poissons faisant l’objet de pêches industrielles. Or celles-ci se raréfient de plus en plus du faite de la surpèche.

Pour plus de détails, voir

Current Biology
DOI:https://doi.org/10.1016/j.cub.2023.04.052

Highlights
• We provide the first checklist for the Clarion Clipperton Zone (CCZ) metazoan fauna
• 5,142 unnamed species (informal names) are recorded from the CCZ
• Total estimates of species richness range from >6,000–>8,000
• An estimated 88%–92% of species in the CCZ region in total are undescribed

Summary

The global surge in demand for metals such as cobalt and nickel has created unprecedented interest in deep-sea habitats with mineral resources. The largest area of activity is a 6 million km2 region known as the Clarion-Clipperton Zone (CCZ) in the central and eastern Pacific, regulated by the International Seabed Authority (ISA). Baseline biodiversity knowledge of the region is crucial to effective management of environmental impact from potential deep-sea mining activities, but until recently this has been almost completely lacking. The rapid growth in taxonomic outputs and data availability for the region over the last decade has allowed us to conduct the first comprehensive synthesis of CCZ benthic metazoan biodiversity for all faunal size classes. Here we present the CCZ Checklist, a biodiversity inventory of benthic metazoa vital to future assessments of environmental impacts. An estimated 92% of species identified from the CCZ are new to science (436 named species from a total of 5,578 recorded). This is likely to be an overestimate owing to synonyms in the data but is supported by analysis of recent taxonomic studies suggesting that 88% of species sampled in the region are undescribed. Species richness estimators place total CCZ metazoan benthic diversity at 6,233 (+/−82 SE) species for Chao1, and 7,620 (+/−132 SE) species for Chao2, most likely representing lower bounds of diversity in the region. Although uncertainty in estimates is high, regional syntheses become increasingly possible as comparable datasets accumulate. These will be vital to understanding ecological processes and risks of biodiversity loss.

25/07/2022 Les thérapies à ARN messager, mRNA, sauveront-elles le monde ?

Le terme de sauver le monde est excessif, encore que lors de la récente pandémie due au Covid 19, les « vaccins à ARN messager » ont sauvé des dizaines de millions de personne. 1)

Le 19 mai 2023, Moderna a annoncé que 16 malades âgés de plus d’un an atteint d’une maladie grave dite propionic acidemia ont vu leur état amélioré à la suite d’un traitement à base d’ARN messager injecté dans leur sang sous la protection d’une globule de graisse. L’ARN messager a fusionné avec des cellules du foie des malades qui l’ont utilisé pour fabriquer des enzymes (protéines) manquantes à la suite de l’infection

https://www.clinicaltrialsarena.com/news/moderna-interim-data-mrna-therapy

Cette information devrait avoir un certain retentissement dans le monde médical. Aujourd’hui la plupart des médicaments (drugs) sont de petites molécules bon marché qui diffusent dans le sang à partir du système gastro-intestinal puis dans les cellules à travers leurs membranes.

L’inconvénient de leur petite taille est qu’elles s’attachent souvent à des sites sans rapport avec le traitement. Elles peuvent y avoir des effets négatifs. Ce n’est pas le cas des grandes molécules mais celles-ci sont plus coûteuses à fabriquer et souvent refusent de diffuser dans le sang.

Les réultats des tests de Moderna référencés ci-dessus n’ont pas convaincu l’ensemble de la profession médicale mais selon Anna Blakney de l’Université de la Colombie britannique, l’enjeu est tel qu’ils doivent être poursuivis

Note

source Vaccinationq Info-service.Fr

Sur les vaccins contre le Covid, rappelons que les « vaccins à ARN messager », comme ceux de BioNTech-Pfizer, Moderna ou CureVac, consistent à injecter dans l’organisme non pas le virus mais des molécules d’« ARN messager », fabriqué en laboratoire. Cet ARN, encapsulé dans des particules de lipides, sans adjuvant chimique, ordonne aux cellules au niveau du site d’injection (principalement les cellules musculaires et les cellules du système immunitaire) de fabriquer une protéine spécifique du virus responsable de la COVID, ce qui activera une réponse immunitaire. Il est ensuite rapidement éliminé. L’ARN messager ne pénètre jamais dans le noyau de la cellule et n’a aucune action sur le génome.

Les vaccins développés par AstraZeneca et par Janssen reposent quant à eux sur un « vecteur viral non réplicatif » : un virus inoffensif qui ne peut se reproduire dans les cellules est utilisé pour transporter le matériel génétique du coronavirus, fabriquant la protéine qui enclenchera une réponse immunitaire.

Les « vaccins à virus inactivé », les plus couramment utilisés, reposent sur une injection du virus entier ou d’une partie de virus préalablement rendu inoffensif afin de déclencher une réponse immunitaire en cas d’infection : il contient des nanoparticules de glycoprotéines Spike . Il contient également un « adjuvant » une substance qui aide à renforcer les réponses immunitaires au vaccin. Il ne contient pas de virus.

Le vaccin développé par Novavax est basé sur une technologie différente. Il s’agit d’un vaccin à protéine recombinante qui utilise la protéine Spike du SARS-CoV-2 associée à un adjuvant, substance qui aide à renforcer les réponses immunitaires au vaccin. Cet adjuvant est composé de saponine (extraite de l’arbre Quillaja saponaria ou « bois de Panama »), de cholestérol et de phospholipides. C’est une technologie comparable à celle utilisée pour les vaccins contre l’hépatite B et la coqueluche.

24/07/2023. La Théorie de l’Information Intégrée

La Théorie de l’Information Intégrée (ITT) vise à fournir un cadre permettant d’expliquer pourquoi certains systèmes physiques tels que les cerveaux humains sont conscients, pourquoi ils ressentent les choses d’une certaine façon particulière dans certains états particuliers, et ce qui serait nécessaire pour que d’autres systèmes physiques le soient. Les animaux sont-ils conscients ? L’Univers entier pourrait-il être conscient ?

En principe, une fois que la théorie aura été précisée et testée suffisamment dans des conditions contrôlées, elle devrait fournir des raisons précisant comment un système physique pourrait être conscient, jusqu’où il l’est et quelle expérience personnelle il en a.

Dans l’ITT la capacité de conscience d’un système est considérée comme proportionnelle aux propriétés physiques causales le rendant objectivement capable de conscience. C’est pourquoi il devrait être possible au cas par cas de mesurer le degré de ses prises de conscience en évaluant l’importance de ces causes.

L’ITT a été proposée par le neuroscientifique Giulio Tononi in 2004. La dernière version, datée de 2014, est nommée IIT 3.0. .; La théorie est toujours en développement

Updated

Integrated information theory of consciousness: an updated account.

23/07/2023 Court extrait d’analyses britanniques concernant la guerre en Ukraine

Traduction

Le discours occidental concernant les forces armées russes a tendance à les présenter comme incapables en matière de tactique, déficientes techniquement et brisées moralement. Ces critiques dans certains cas ne sont pas inexacte mais elles ne peuvent pas être appliquées à l’ensemble de l’armée russe. Celle-ci, tout d’abord, a démontré que son matériel est efficace et hautement léthal comme le montre les statistiques militaires ukrainiennes concernant ses propres morts, blessés et prisonniers.

Les faiblesses russes à ce jour sont apparues dans la conduite des opérations offensives. L’infanterie manque d’effectifs suffisants et bien entraînés. Au contraire de l’artillerie en arrière plan, elle manque également de puissance de feu. Plus généralement elle est incapable d’anticiper les nouvelles menaces. Beaucoup de ses adaptations sont réactives. Il n’est pas certain qu’elle deviendront des acquis définitifs de l’armée russe.

Ainsi dans la défense antiaérienne toute innovation ukrainienne, résultant notamment de l’introduction d’armements américains, cause de trop longues périodes de troubles et de tirs amis. Les réserves massives de munitions dont disposaient initialement l’armée ont été utilisées inefficacement faute de pouvoir être remplacées rapidement.

Les troupes ukrainiennes, de leur côté, auront de plus en plus de mal à maintenir leur supériorité, notamment du fait de la complexité des fortifications construites par les russes dans les zones urbaines qu’ils ont occupées.

Source

Royal United Services Institute for Defence and Security Studies

Meatgrinder: Russian Tactics in the Second Year of Its Invasion of Ukraine
https://static.rusi.org/403-SR-Russian-Tactics-web-final.pdf
Special Report 19 May 2023

Contents
Executive Summary
Introduction 1 Infantry 3 Engineers 9 Artillery 11 Armour 15 Electronic Warfare 18 Air Defence 20 Aviation 22 Command and Control 24 Priority Assistance for the Armed Forces of Ukraine 25 Conclusions

 

23/07/2023 Gaz de schiste américain ou fusion nucléaire à la française

Depuis quelques mois, des rapports américains préviennent du fait que ce qui avait été nommé l’ US shale revolution, la révolution du gaz de schiste ne pourra plus dans la quinzaine d’années prochaines soutenir la croissance comme cela avait été le cas dans les quinze dernières années.

Voir du Wall Street Journal “US Shale Boom Shows Signs of Peaking as Big Oil Well Disappear” ou Bloomberg. https://www.latestly.com/socially/business/the-specter-of-peak-oil-that-haunted-global-energy-markets-during-the-first-decade-of-the-latest-tweet-by-bloomberg-4922112.html

En fait, on peut penser que le peak oil surviendra plus tôt, dans deux à cinq ans. Mais il est surprenant de constater combien ces avertissements impactent peu le débat public. Jusqu’à présent l’opinion la plus répandue était qu’aux rythmes actuels de forage, les réserves pourraient durer au moins un siècle. Comme manifestement ce ne pourra pas être le cas, on se demande sur quoi comptent les investisseurs américains pour maintenir un taux suffisant d’activité dans l’économie, ceci afin en priorité d’éviter des crises sociales.

Dans l’immédiat, ils comptent sur les 25 milliards minimum annuels d’aide américaine à l’Ukraine pour faire fonctionner à plein régime les industries militaires américaines. Plus généralement le budget militaire américain, qui est approximativement de 615 milliards de dollars, aura son rôle pour maintenir l’activité aux Etats-Unis eux-mêmes comme dans les Etats satellites.

Mais si les intérêts pétroliers américains n’étaient pas si puissants, Washington devrait sans attendre investir comme le fait la France à Cadarache dans la fusion nucléaire. Si tout ce passait bien en ce domaine, le pétrole de schiste américain perdrait plus vite que l’on ne croit tout intérêt.

22/07/2023 La desalination de l’eau de mer

Actuellement l’humanité consomme globalement 4.000 Km2 d’eau douce pour ses divers besoins. Ceci devrait augmenter avec le réchauffement climatique L’eau douce devrait devenir une ressource rare et par conséquent de plus en plus coûteuse. Pourquoi dans ce cas ne pas consommer davantage d’eau de mer desalinée ?

Le problème est que la desalination de l’eau de mer est actuellement trop coûteuse pour être rentable. Le sel se dissout très facilement dans l’eau mais ce faisant il forme des liens chimiques difficiles à rompre. L’énergie et les technologies nécessaires sont d’un prix élevé.

Il est difficile d’évaluer exactement les coûts de la desalination. Ils varient beaucoup selon les pays, en fonction des prix de l’énergie, de la main d’oeuvre, des terrains et de l’accès à la mer. Mais ils sont relativement élevés. Il y a encore peu d’usines de desalination dans le monde.

Selon l’ International Desalination Association (IDA | The Global Desalination and Water Reuse Community ) il y a environ 13.000 usines de desalination dans le monde. La plupart sont situées dans des Etats pétroliers où l’énergie est bon marché et l’eau douce rare.

Rappelons qu’il y a deux méthodes pour désaliner l’eau de mer, la distillation thermique et l’osmose inverse. La première nécessite de la chaleur pour faire bouillir l’eau, la seconde utilise des membranes semi-perméables. L’eau salée est obligée de les traverser afin d’y perdre l’essentiel de ses sels. Cette technologie nécessitant moins d’énergie que la distillation sera de plus en plus fréquemment utilisée.

Ces deux méthodes présentent des coûts écologiques. Avec l’eau de mer sont pompées et détruites de nombreuses créatures marines. Le rejet d’eaux supersalées a le même effet.

Ceci dit, l’eau douce sera de plus en plus rares. Les nappes souterraines sont en voie d’asséchement de même que la plupart des rivières, il n’est plus possible de construire de nouveaux barrages ; l’enneigement des massifs montagneux diminue chaque année.