13/01/23. Faut-il avoir peur du chat ?

Nous lisons ce qui suit dans un article consacré aux dangers pour l’expression créatrice que pourrait avoir une utilisation intensive du logiciel ChatGPT.

A la question  Qui êtes vous ? celui-ci aurait répondu :« Je suis un modèle de langage informatique conçu par OpenAI. Mon but est de pouvoir répondre aux questions et fournir de l’aide aux utilisateurs en utilisant mon apprentissage automatique et mes connaissances en langage naturel. J’essaie de fournir des réponses précises et utiles aux utilisateurs. Je suis un outil de traitement de langage naturel et je n’ai pas d’opinions personnelles ni de préférences« 

Le principe est simple, précise l’auteur de l’article. L’utilisateur pose une question et l’intelligence conversationnelle tente d’y répondre avec ses connaissances acquises. Une réponse plus ou moins détaillée est générée, dans un langage quasi-identique à celui d’un humain. C’est toute la force de ce nouveau service : être capable de formuler une réponse de la même façon que le ferait un proche.

Devrions-nous en conclure que tout outil langagier, qu’il utilise ou non l’intelligence artificielle, serait un danger pour l’expression créatrice du fait qu’il permettrait aux créateurs de formuler de nouveaux jugements sans recourir à toutes les connaissances et jugements accumulées sur Internet ? Ces connaissances et jugements s’expriment par de nouveaux langages, langages philosophiques ou langages scientifiques, qu’il faut connaître pour accéder à ces nouveaux contenus.

L’intérêt de ChatGPT, sauf erreur, sera de faciliter à l’utilisateur l’apprentissage puis la pratique des nouveaux langages. Cela lui permettra d’inventer de nouveaux contenus sans être obligé de se limiter à ceux déjà produits.

C’est pour cette raison que dans l’enseignement jusqu’ici pratiqué, la première chose à faire est d’apprendre aux jeunes enfants à marcher, puis à parler. Mais la seconde chose à faire est de les inciter à découvrir l’univers au delà de leur chambre et à utiliser le langage qu’ils connaissent déjà pour tenter de décrire à leur entourage cet au- delà de la chambre. L’entourage corrigera de lui-même et les enfants accéderont ainsi à de nouvelles connaissances liés à ces nouveaux langages.

Référence
https://fr.wikipedia.org/wiki/ChatGPT

13/OI/2023 Editorial. Faudra-t-il en revenir à l’âge de pierre?

Nous lisons ce qui suit dans un article consacré aux dangers pour l’expression créatrice que pourrait avoir une utilisation intensive du logiciel ChatGPT.

A la question  Qui êtes vous ? celui-ci aurait répondu :« Je suis un modèle de langage informatique conçu par OpenAI. Mon but est de pouvoir répondre aux questions et fournir de l’aide aux utilisateurs en utilisant mon apprentissage automatique et mes connaissances en langage naturel. J’essaie de fournir des réponses précises et utiles aux utilisateurs. Je suis un outil de traitement de langage naturel et je n’ai pas d’opinions personnelles ni de préférences« 

Le principe est simple, précise l’auteur de l’article. L’utilisateur pose une question et l’intelligence conversationnelle tente d’y répondre avec ses connaissances acquises. Une réponse plus ou moins détaillée est générée, dans un langage quasi-identique à celui d’un humain. C’est toute la force de ce nouveau service : être capable de formuler une réponse de la même façon que le ferait un proche.

Devrions-nous en conclure que tout outil langagier, qu’il utilise ou non l’intelligence artificielle, serait un danger pour l’expression créatrice du fait qu’il permettrait aux créateurs de formuler de nouveaux jugements sans recourir à toutes les connaissances et jugements accumulées sur Internet ? Ces connaissances et jugements s’expriment par de nouveaux langages, langages philosophiques ou langages scientifiques, qu’il faut connaître pour accéder à ces nouveaux contenus.

L’intérêt de ChatGPT, sauf erreur, sera de faciliter à l’utilisateur l’apprentissage puis la pratique des nouveaux langages. Cela lui permettra d’inventer de nouveaux contenus sans être obligé de se limiter à ceux déjà produits. C’est pour cette raison que dans l’enseignement jusqu’ici pratiqué, la première chose à faire est d’apprendre aux jeunes enfants à marcher, puis à parler.

Mais la seconde chose à faire est de les inciter à découvrir l’univers au delà de leur chambre et à utiliser le langage qu’ils connaissent déjà pour tenter de décrire à leur entourage cet au- delà de la chambre. L’entourage corrigera de lui-même et les enfants accéderont ainsi à de nouvelles connaissances liés à ces nouveaux langages.

L’Internet est trop riche en nouveaux contenus pour pouvoir de passer de nouveaux langages d’accès

Editorial au 11/01/2023. Le projet Time man. Comprendre les raisons de la tectonique des plaques

Le présent texte n’est pas un éditorial mais la réédition d’un texte scientifique présentant les résultats d’une recherche qui vient de faire l’objet d’un article dans Nature dont nous publions in fine les références et l’abstract

La tectonique des plaques qui caractérise la dynamique de notre planète est difficile à dater mais elle existerait depuis au moins 2 milliards d’années. Le supercontinent appelé Gondwana qui s’est formé il y a 600 millions d’années aurait commencé à se fracturer au Jurassique (il y a 160 millions d’années).

Les Pyrénées, montagne jeune, ne datent que d’environ 40 millions d’années. Comment appréhender ces durées, nous pauvres humains, pour qui passer 100 ans à la surface de la Terre représente déjà un fort long séjour ? C’est la science et ses outils observationnels, analytiques et conceptuels qui ont permis de dépasser les mythes et qui aboutit à ces nombres qui donnent le tournis. Nous sommes donc un peu comme des éphémères, ces insectes qui ne vivent qu’un jour ou deux, qui tenteraient de comprendre les saisons, les années…

La science, c’est aussi l’expérimentation. Mais là encore, comment reproduire des phénomènes qui se déroulent sur des durées bien plus longues que celles de nos vies ?

Prenons la dynamique de notre planète. La tectonique des plaques est le cadre conceptuel qui, depuis les années 60, rassemble et unifie les descriptions des grandes manifestations géologiques ayant façonné la surface de la Terre. Mais son origine est plus profonde. Le déplacement des plaques résulte de vastes mouvements de convection  qui animent le manteau terrestre et permettent à la Terre d’évacuer sa chaleur interne. Car la Terre est encore une planète chaude, d’où son activité. Plus de 98 % du volume de notre planète est à des températures supérieures à 1000 °C et le noyau est aussi chaud que la surface du soleil.

Cette chaleur interne à plusieurs origines : une part de chaleur primordiale (vestige de la formation de notre planète par accrétion), une autre qui est extraite du noyau en partie due à la cristallisation de la graine (partie solide, centrale, du noyau), et enfin une autre qui provient de la désintégration radioactive d’éléments (uranium, potassium, thorium) présents en faible quantité dans les roches du manteau. C’est donc par transport de matière du bas (où les températures sont les plus élevées) vers le haut (où elles sont les plus froides) que cette chaleur est transportée. La particularité de ce phénomène convectif (bien connu dans les liquides, on fait d’ailleurs souvent l’analogie avec la casserole d’eau sur le feu) est que dans le manteau terrestre constitué de roches solides, il est porté par la déformation de ces roches et des minéraux qui les constituent. Ce sont donc ces déformations qu’il nous faut étudier si l’on veut comprendre et modéliser la dynamique de notre planète. Mais cette quête est parsemée de difficultés. Listons-en quelques-unes.

Des conditions de pression et de température extrêmes dans le manteau

Le manteau terrestre est cette enveloppe de roches, nous l’avons dit, qui s’étend jusqu’à près de 2900 km sous nos pieds. Les conditions de pression et température qui y règnent y sont extrêmes. En particulier, sous le poids des roches, la pression augmente fortement avec la profondeur pour atteindre quelque 135 GPa (1,35 milliard de fois la pression atmosphérique) à l’approche du noyau. Les roches qui sont présentes à ces profondeurs ne sont pas celles que l’on rencontre à la surface de la Terre. Sous l’influence de la pression, elles sont constituées de minéraux plus compacts, plus denses. Pendant la seconde moitié du XXe siècle, des efforts importants ont été déployés pour réaliser des expériences permettant de reproduire les conditions de pression et de température de l’intérieur de la Terre.

Elles ont permis d’étudier la manière dont les minéraux se densifient sous pression et de proposer un modèle minéralogique du manteau terrestre correspondant à ce que l’on pense être sa composition chimique (notamment par comparaison avec les météorites considérées comme les briques du système solaire). Plusieurs stades de compressions des minéraux sont identifiés pour finir, à partir de 670 km de profondeur et presque jusqu’au noyau, par former un assemblage assez simple constitué de trois minéraux principaux.

Le plus important (en volume : près de 80 %) d’entre eux est un silicate de magnésium et de fer (contenant également un peu d’aluminium) de structure perovskite appelé bridgmanite (en l’honneur de Percy Bridgman, physicien américain lauréat du prix Nobel de physique en 1946 pour ses travaux sur les hautes pressions). Le calcium, présent dans le manteau supérieur dans les grenats et les pyroxènes, serait hébergé par un autre silicate, présentant la même structure perovskite : la davemaoite. Enfin le magnésium en excès est exprimé sous la forme d’un oxyde (contenant aussi un peu de fer) : le ferropericlase.

Des conditions difficiles à reproduire en laboratoire

C’est donc la manière dont se déforme cet assemblage minéralogique qui constitue la clé de la dynamique du manteau. Pour étudier ce phénomène au laboratoire, il faut réaliser des expériences de déformation tout en appliquant les très fortes pressions qui permettent de stabiliser ces minéraux. De nouveaux développements technologiques ont donc été nécessaires et en 2016, une équipe  de l’université de Yale (USA) ont réussi la première expérience de déformation d’un assemblage de bridgmanite et de ferropericlase dans les conditions de pressions et de températures correspondant à peu près à 700 km de profondeur.

Ces expériences ont montré ce que l’on pressentait : le silicate (la bridgmanite) est bien plus dur que l’oxyde (le ferropericlase). Ils observent en effet que le ferropericlase encaisse quasiment toute la déformation et se retrouve fortement étiré dans une matrice de bridgmanite quasi rigide. Un tel comportement peut avoir des conséquences importantes sur la manière dont le manteau peut se déformer.

Thielmann et ses collègues, de l’université de Bayreuth en Allemagne, ont utilisé des modèles numériques pour pousser plus loin la déformation d’un tel assemblage. Ils montrent que selon la manière dont le ferropericlase est distribué dans la roche, les propriétés mécaniques (et donc la capacité du manteau à se déformer et à évacuer la chaleur) ne sont pas les mêmes. Si la phase « molle », le ferropericlase forme des couches continues, elle peut « lubrifier » la déformation et rendre la roche beaucoup moins visqueuse.

Mais ces expériences et les conclusions que l’on peut en tirer se heurtent à d’autres difficultés. Reproduire les pressions et les températures de l’intérieur de la Terre constitue déjà un défi, mais le surmonter ne suffit pas. Il faut en effet se rappeler que les déformations du manteau sont lentes, très lentes et s’échelonnent sur des centaines de millions d’années. Étudier ces phénomènes au laboratoire nécessite de les accélérer considérablement : plus de 100 millions de fois ! Les mécanismes activés lors de ces expériences sont-ils les mêmes que ceux qui opèrent dans la nature ? Les résultats des expériences de laboratoire peuvent-ils être simplement extrapolés aux conditions naturelles ?

Un nouveau modèle

C’est à répondre à cette question que se consacre le projet TimeMan financé par le Conseil Européen de la Recherche (ERC) et que je dirige à l’Université de Lille en collaboration avec les universités d’Anvers et de Louvain-la-Neuve en Belgique.

Son originalité ? Ne pas chercher à simplement extrapoler, mais s’appuyer sur une compréhension la plus détaillée possible de la physique, des mécanismes de déformation de ces minéraux dans les conditions de pression et de température du manteau. Revenons aux expériences de Girard et de ses collaborateurs. Leurs mesures montrent que des contraintes très élevées sont nécessaires pour déformer leurs échantillons aux vitesses du laboratoire.

Nos modèles permettent de reproduire les résultats de ces expériences. Ils montrent qu’ils résultent de l’activation du glissement de défauts cristallins, les dislocations qui, sous l’influence de ces fortes contraintes, cisaillent les cristaux. Mais dans le manteau, les contraintes sont beaucoup plus faibles et nos modèles montrent que d’autres mécanismes doivent prendre le relai.

A haute température et sous faibles contraintes, les mécanismes de déformation de la matière solide font intervenir la migration des ions qui diffusent lentement vers les dislocations pour leur donner un degré de mobilité supplémentaire que l’on appelle la montée. C’est donc cette étape de diffusion qui contrôle la cinétique de la déformation. Or elle est lente, très lente. Particulièrement dans l’oxyde de magnésium où c’est le gros ion oxygène qui a le plus de mal à se déplacer, surtout lorsque la pression rend la structure de plus en plus compacte. Le ferropericlase se déforme donc plus lentement que la bridgmanite dans ce régime de déformation impossible à reproduire aux échelles de temps du laboratoire. C’est ce résultat contre-intuitif que nous décrivons dans l’article qui parait ce mercredi 11 janvier 2023 dans la revue Nature. Il remet en question les débats sur l’influence de la répartition du ferropericlase dans la matrice.

Si l’on fait l’analogie avec le beurre de cacahuète, on peut dire que les modèles classiques faisaient jouer au ferropériclase le rôle de la phase huileuse qui rendait la pâte plus fluide. Nos résultats le voient plutôt comme les particules rigides du beurre de cacahuète « crunchy », sans influence notable sur la rhéologie de l’ensemble. Nous concluons donc que la bridgmanite est la seule phase minérale à considérer pour modéliser la déformation du manteau dans les conditions naturelles, si lentes qu’elles échappent à notre perception sensible, mais pas à nos modèles !

Référence

Published: 11 January 2023

Periclase deforms more slowly than bridgmanite under mantle conditions

Nature  volume  613,  pages 303–307 (2023)

Abstract

Transport of heat from the interior of the Earth drives convection in the mantle, which involves the deformation of solid rocks over billions of years. The lower mantle of the Earth is mostly composed of iron-bearing bridgmanite MgSiO3 and approximately 25% volume periclase MgO (also with some iron). It is commonly accepted that ferropericlase is weaker than bridgmanite1. Considerable progress has been made in recent years to study assemblages representative of the lower mantle under the relevant pressure and temperature conditions2,3. However, the natural strain rates are 8 to 10 orders of magnitude lower than in the laboratory, and are still inaccessible to us. Once the deformation mechanisms of rocks and their constituent minerals have been identified, it is possible to overcome this limitation thanks to multiscale numerical modelling, and to determine rheological properties for inaccessible strain rates. In this work we use 2.5-dimensional dislocation dynamics to model the low-stress creep of MgO periclase at lower mantle pressures and temperatures. We show that periclase deforms very slowly under these conditions, in particular, much more slowly than bridgmanite deforming by pure climb creep. This is due to slow diffusion of oxygen in periclase under pressure. In the assemblage, this secondary phase hardly participates in the deformation, so that the rheology of the lower mantle is very well described by that of bridgmanite. Our results show that drastic changes in deformation mechanisms can occur as a function of the strain rate.

Published: 11 January 2023

11/01/22. Le SU 57 russe Felon

On parle assez peu actuellement du rôle que jouent lors des affrontements entre la Russie et l’Ukraine les avions de combat utilisés par les Russes. Mais ce rôle est important, selon les agents de l’Intelligence Service britannique utilisés par le ministère de la Défense. Si l’on en croit le magazine britannique The War zone en date du 9 janvier 2023, généralement bien informé, selon l’expression

«Depuis au moins juin 2022, les forces aérospatiales russes (VKS) ont avec une quasi-certitude utilisé le Su-57 Felon pour mener des missions contre l’Ukraine, a déclaré le ministère de la Défense dans un communiqué publié le 9 janvier. Felon est l’avion de combat supersonique de cinquième génération le plus moderne de Russie, utilisant des technologies furtives et une avionique très avancée».

https://www.thedrive.com/the-war-zone/su-57-felon-fighters-are-flying-ukraine-combat-missions-uk-intel

L’avion de chasse, qui a effectué son premier vol en 2010 et qui est entré officiellement en service en 2020 au sein des forces russes, n’aurait pas directement survolé le territoire ukrainien. «Ces missions se sont probablement limitées à lancer depuis le territoire russe des missiles air-sol ou air-air à longue portée en Ukraine», écrivent les Britanniques. En cause notamment, le risque pour les Russes de voir le fleuron de leur aviation abattu par les Ukrainiens, ce qui affecterait gravement leur réputation. «La priorité pour la Russie est très probablement d’éviter les atteintes à la réputation de son aviation, à la réduction des perspectives d’exportation et à la compromission des technologies sensibles qui découleraient de la perte de Felon en Ukraine»

Editorial au 09/01/2023 Les chimistes du projet Gavo s’attaquent aux virus

20.05.2021, par Martin Koppe
https://lejournal.cnrs.fr/articles/les-chimistes-du-projet-gavo-sattaquent-aux-virus

Pour élargir la diffusion de cet article important du CNRS, nous en publions ici une version un peu allégée. JPB
________________________

Comme les virus ne peuvent répliquer leur matériel génétique qu’en détournant la machinerie cellulaire, cibler cette étape cruciale peut stopper l’infection. Des chercheurs d’universités françaises et du CNRS se sont rassemblés au sein du projet Gavo, afin de synthétiser des molécules susceptibles de bloquer la réplication des virus à ARN comme celui du Covid-19.

Si de nombreux vaccins ont été proposés pour se protéger du Covid-19, nous manquons encore de médicaments adaptés pour guérir les patients déjà contaminés. SARS-CoV-2, comme tous les virus, est incapable de s’autorépliquer et a donc absolument besoin d’infecter un hôte et d’en détourner la machinerie cellulaire à son profit. Les cellules infectées se mettent alors à produire de nouveaux virus au détriment de leurs fonctions vitales. Si ce mode d’action fait la spécificité des virus, il représente également un point faible ciblé par les chercheurs : affecter ce processus freine, voire stoppe, la propagation des virus dans l’organisme.

Une piste prometteuse pour traiter plusieurs maladies

« Lorsqu’un virus entre dans une cellule, il y déverse les matériaux de base nécessaires à sa réplication, explique Jacques Lebreton, professeur à l’université de Nantes et membre du laboratoire Chimie et interdisciplinarité : synthèse, analyse, modélisation (Ceisam). Les virus à ARN libèrent ainsi des segments d’ARN qui sont ensuite traduits en protéines par les ribosomes de la cellule hôte. » Ces séquences d’ARN sont une succession de nucléotides, des molécules formées par l’association d’un sucre, d’un phosphate et d’une des quatre bases azotées propres à l’ARN : adénine, guanine, cytosine et uracile.

« Pour combattre les virus, on peut tenter de bloquer la polymérase virale chargée de la réplication du matériel génétique du virus en incorporant à l’ARN viral un analogue de nucléosides (association d’un sucre et d’une base azotée) poursuit Jacques Lebreton. Bien choisie, la molécule factice empêche d’accrocher de nouveaux nucléosides au brin d’ARN, et donc de terminer la réplication du virus. Environ la moitié des médicaments contre des pathologies virales sont basés sur des dérivés de nucléosides. »

Les virus à ARN sont impliqués dans de nombreuses maladies : Ebola, hépatite C, poliomyélite, dengue, chikungunya, Zika mais aussi le Covid-19. L’emploi d’analogues de nucléosides est ainsi une des pistes les plus prometteuses pour des traitements ciblant le SARS-CoV-2. Pour plus d’efficacité, ces molécules doivent cependant être adaptées aux caractéristiques du virus. Chacun utilise en effet ses propres enzymes, appelées ARN polymérases, pour détourner la machinerie cellulaire. Si cela est parfois possible, il ne suffit pas toujours de piocher dans les molécules déjà connues, même si elles agissent contre d’autres pathologies.

Le programme Gavo, pour Génération d’Anti-Viraux Originaux, a ainsi été bâti pour découvrir de futurs médicaments basés sur des nucléosides. Dans le contexte actuel, l’accent est mis sur le Covid-19, toutefois ces travaux concerneront plus généralement les virus à ARN et certains cancers. Le projet est porté par Jacques Lebreton et son collègue Arnaud Tessier, chargé de recherche CNRS au Ceisam.

« La France a eu par le passé un incroyable savoir-faire dans la chimie des nucléosides, et nous trouvions dommage qu’il se perde, regrette Jacques Lebreton. Pendant le premier confinement, nous avons contacté Jacques Maddaluno, directeur de l’Institut de chimie du CNRS, pour fédérer les équipes françaises travaillant dans ce domaine. Le ministère de l’Enseignement supérieur,  de la Recherche et de l’innovation nous a ensuite soutenus financièrement pour mettre en place le programme Gavo. »

Synthèse et modélisation, deux approches complémentaires

Le projet réunit donc des chercheurs du Ceisam à Nantes, mais également d’autres laboratoires : l’Institut des biomolécules Max Mousseron à Montpellier, l’Institut de chimie organique et analytique à Orléans et le Laboratoire de physique et chimie théoriques à Nancy. Ces divers talents permettent de combiner deux approches en parallèle. 

La première consiste à synthétiser un grand nombre de dérivés de nucléosides pour constituer une véritable bibliothèque de molécules, dont les propriétés biologiques seront, dans la foulée, évaluées par ViroCrib à Montpellier. Cette plateforme, mise en place par le CNRS via l’Institut des sciences biologiques, va tester l’activité antivirale de ces analogues sur un large panel de virus.

La seconde approche se base sur la modélisation, à l’échelle moléculaire, des processus impliqués dans la réplication de l’ARN viral, afin de prédire la structure des composés aptes à perturber, voire inhiber, le phénomène. Ce procédé offre alors des pistes aux chimistes, qui peuvent ensuite synthétiser ces molécules originales susceptibles de bloquer la réplication du virus.

« Notre expert en modélisation a par exemple analysé comment le remdesivir, un analogue de nucléosides breveté par Gilead Sciences contre le virus Ebola, s’accroche à la polymérase de SARS-CoV-2 en l’empêchant de glisser le long du brin d’ARN et donc de le reproduire, ajoute Jacques Lebreton. La modélisation permet de comprendre pourquoi un composé donné peut bloquer l’action d’un enzyme et comment la structure de ce dernier pourrait être modifiée pour en augmenter l’efficacité. 

Cela revient à trouver la bonne clé pour une serrure donnée. Notre collègue conçoit de manière rationnelle, et in silico, des solutions que nous essayons ensuite de synthétiser. Avec nos moyens limités par rapport aux géants pharmaceutiques, nous devons être astucieux pour identifier des molécules efficaces et spécifiques. »

Les chercheurs ont besoin d’être guidés dans le choix des transformations chimiques les plus pertinentes à réaliser, impliquant une expertise à la croisée de la chimie des sucres et de celle des hétérocycles. Les nucléosides sont en effet une classe de molécules complexes, offrant une quasi-infinité de modifications chimiques et leurs combinaisons.

 Le criblage des molécules, anciennes ou nouvelles, est ainsi crucial pour identifier une activité biologique donnée dans une telle multitude. L’AZT (Retrovir®), synthétisé et breveté en 1964 comme anticancéreux, avait par exemple été oublié du fait de piètres résultats. Vingt ans plus tard, cet analogue nucléosidique est revenu sur le devant de la scène quand son effet contre le VIH a été découvert lors d’une vaste campagne de criblage. « Avec tous les analogues de nucléosides qui ont été synthétisés depuis ces dernières décennies, nous pouvions penser trouver rapidement une solution thérapeutique efficace contre le Covid-19, rappelle Jacques Lebreton. Ça n’a malheureusement pas été le cas, même si le remdesivir a un temps apporté une lueur d’espoir. »

La synthèse de nouveaux analogues de nucléosides doit donc se poursuivre.

Dans le cadre du projet Gavo, cette mission est renforcée par la présence d’experts en chimie en flux du laboratoire Chimie organique, bio-organique : réactivité et analyse à Rouen. Cette technologie récente permet de préparer en continu des molécules inédites, avec une grande variété de conditions opératoires. Curieusement, cette approche a jusqu’à présent été très peu utilisée pour la synthèse de nucléosides, alors qu’elle offre la possibilité d’aller au-delà des structures déjà connues. La chimie en flux tend également à être plus rapide que les méthodes conventionnelles.

Avec la mise en commun de leurs compétences, les chercheurs du programme Gavo vont pouvoir travailler en synergie. La modélisation guide les chimistes pour l’élaboration de molécules nucléosidiques originales et appropriées pour bloquer la réplication virale. Ces molécules seront testées contre le Covid-19 mais aussi sur d’autres virus connus ou émergents. Reste à attendre les premiers résultats. ♦

Editorial au 08/01/2022. Avec ou sans Poutine, quelles solutions?

On peut supposer que dans l’esprit de Vladimir Poutine, envahir et annexer l’Ukraine le 24 février 2022 aurait signifié au monde que la Russie sous son autorité était redevenue l’ex-Empire soviétique effondré en 1991. Il aurait montré que l’Amérique était un tigre de papier incapable de s’opposer malgré l’aide militaire de l’Union européenne à ce que la Russie devienne, avec l’appui éventuel de la Chine, le leader d’un nouvel ordre international dans un monde devenu multipolaire.

Les événements n’ont en rien démontré cela. L’armée ukrainienne s’est révélée avec il est vrai les milliards de dollars de l’aide occidentale, capable de s’opposer à des forces russes précédemment présentées par Moscou comme imbattables et qui ont au contraire montré leur peu d’organisation et de volonté de se battre. La défaite militaire russe apparait aujourd’hui comme inéluctable. Mais quelle forme prendrait-t-elle ?

Trois scénarios sont évoqués actuellement, dont les conséquences seraient différentes. Dans le premier et le plus improbable, Moscou reconnaîtrait sa défaite. Il se bornerait à vouloir conserver sa souveraineté sur la Crimée et négocierait des concessions dans tous les autres domaines. Il n’exclurait pas cependant la possibilité d’incursions militaires ultérieures, notamment si l’Otan continuait à approvisionnes l’Ukraine en armes du dernier modèle. Ce scénario entraînerait vraisemblablement la mise à l’écart des responsables politiques partisans d »une ligne dure, y compris sans doute de Poutine lui-même.

Le second scenario intéressant une défaite russe ferait appel à des bombardements et des actes de sabotage russes dans les pays européens tels que la Pologne qui aident Kiev et l’Ukraine. La perspective d’une frappe nucléaire de faible intensité serait évoquée. L’Otan à son plus niveau serait obligée d’intervenir. La Russie baisserait le ton, mais elle se retirerait avec les honneurs de la guerre.

Le troisième scénario repose sur un effondrement du régime russe, les batailles décisives se tenant non pas en Ukraine mais dans les rues de Moscou et dans les couloirs du Kremlin. La question fondamentale resterait posée. Qui prendrait le contrôle de l’armement nucléaire russe ?

Pour en savoir plus, voir

https://www.foreignaffairs.com/russian-federation/putin-last-stand-russia-defeat

Editorial au 07/01/2022. La dronisation navale prend du retard dans la marine nationale française

Moins coûteux à l’achat et à l’utilisation que des unités navales dotées d’un équipage embarqué, les drones navals connaissent aujourd’hui un fort développement. Dans leurs composantes aéronavales, mais aussi de surface et sous-marine, ils font office de multiplicateur de force. Si les États-Unis et la Chine les intègrent dans leurs stratégies d’équipements, des acteurs plus modestes comme la Turquie, la Corée du Sud et Israël s’y intéressent également, avec une orientation vers l’export.

La Marine nationale doit faire face au renouvellement de ses capacités sous- marines et aéronavales avec un budget limité, alors même que la France réaffirme ses ambitions en Indo-Pacifique. Face à ce dilemme, la dronisation partielle peut contribuer au maintien de certaines capacités tout en accroissant l’efficacité des unités de premier rang

__________________________________________________

Rappelons qu’à l’été 2022, des prototypes de drones navals de l’US Navy prirent part à l’exercice interallié RIMPAC (Rim of the Pacific), mené par le commandement américain pour le Pacifique. Chargés d’accomplir des missions logistiques ou de reconnaissance, ces systèmes ont illustré une dynamique de plus en plus affirmée de dronisation des flottes de combat dans leurs composantes aéronavale, mais aussi de surface et sous-marine, en agissant comme un multiplicateur de force.

Si les États-Unis et la Chine disposent d’une avance en la matière, des acteurs plus modestes comme la Turquie, la Corée du Sud ou le Royaume-Uni s’y intéressent également. Des dizaines de programmes de drones de surface, aériens navalisés et sous-marins sont aujourd’hui en développement, les tout premiers systèmes ayant vu le jour dès la fin des années 1990. Moins coûteux à l’achat et à l’utilisation que des unités habitées en raison de l’absence de systèmes de survie et de protection complexes, les drones navals sont attractifs tant pour des flottes en forte croissance que pour celles aux moyens plus limités.

La Chine y voit un moyen de développer ses capacités plus rapidement, tandis que les États-Unis cherchent à maintenir un nombre d’unités satisfaisant à budget égal, alors que le coût croissant des navires de combat modernes contraint le format des flottes. En France, la Marine nationale subit la hausse du coût des navires habités, alors même que le remplacement à venir du porte-avions Charles de Gaulle la contraint à prévoir de nouvelles économies. Cependant, Paris annonce son souhait de réinvestir en IndoPacifique et de développer de nouvelles capacités vis-à-vis de la surveillance des grands fonds et de la protection des câbles sous-marins.

Face à cette tension entre les objectifs et les moyens, une politique de dronisation partielle pourrait comme un multiplicateur de force. À plus long terme, de futures unités de premier rang pourraient évoluer comme des systèmes de systèmes, articulés autour d’une plateforme habitée et de plus petites unités dronisées portant capteurs et effecteurs. De même, des systèmes dronisés, moins coûteux que des unités habitées mais capables de remplir des missions en autonomie permettraient à la Marine de retrouver une efficacité qui lui fait aujourd’hui de plus en plus défaut.

En dépit de ces perspectives, l’investissement militaire français en la matière est encore timide dans ses moyens comme dans son ambition, cantonnant ses futurs drones à un panel limité de missions. Alors que la France a déjà accusé un retard dans le domaine des drones aériens, quelle dronisation permettrait à la Marine nationale de préparer sa flotte à l’horizon 2050 ?

Editorial au 07/01/2022; Certains ancêtres des Américains modernes auraient vécu en Ethiopie

Aujourd’hui, au moment où pèse la menace d’une guerre entre les Etats Unis et la Chine, une étude scientifique récente montre que des fossiles trouvés en 1989 en Chine ont enfin pu être identifiés comme appartenant aux ancêtres des premiers Américains.

C’est en 1989 que des restes humains ont été découverts dans une grotte de la province chinoise de Yunnan, au sud-ouest du pays. Selon une première datation au radiocarbone, cet os de cuisse et une partie d’un crâne ont pu être datés à 14.000 ans, soit une période où l’Homo sapiens commençait sa migration à travers le monde.

Mais si la période de ces fossiles était connue, certaines caractéristiques inhabituelles des os laissaient un doute sur l’espèce humaine à laquelle ils appartenaient. Si certains scientifiques ont d’abord pensé à une espèce hybride entre l’homme moderne dit homo sapins sapiens et une autre espèce plus archaïque, ce groupe nommé « Red Deer People » ou « Red Dear Cave People « a pu finalement être identifié par un séquençage ADN effectué par des scientifiques chinois.

Ce génome complète une pièce manquante très importante de l’histoire globale concernant la façon dont les humains sont arrivés en Amérique. De nombreux travaux ont été consacrés à l’autre branche de l’ascendance des Amérindiens – les Sibériens – mais on ne savait pas grand-chose, jusqu’à cet article, des ancêtres des Amérindiens originaires d’Asie de l’Est. Or cette branche représente la majorité des ancêtres des Amérindiens. »

ref Hunter-gatherer genomes reveal diverse demographic trajectories during the rise of farming in Eastern Africa
https://www.cell.com/current-biology/pdfExtended/S0960-9822(22)00314-1

In brief Using new genotype data, Gopalan et al. show that the Chabu people of Southwest Ethiopia are closely related to ancient people who lived in the region prior to the rise of farming. The Chabu population has declined sharply over the past 1,400 years. However, this trend is not universal among Ethiopian hunter-gatherer descendants

Editorial au 04/01/23. Les êtres vivants comprennent-ils le monde plus en profondeur que nos cerveaux ne l’imaginent ?

Cette question est souvent posée par les scientifiques constatant que les êtres vivants les plus élémentaires, tels que les bactéries, ont pour s’adapter au monde et y survivre la capacité de résoudre des problèmes devant lesquels malgré la puissance des connaissances scientifiques accumulées depuis des années, restent encore sans réponses.

Les végétaux, faciles à observer dès qu’ils ont une taille suffisante, montrent des facilités à résister aux agressions extérieures dont les humains semblent dépourvus. Non seulement ils résistent mais ils acquièrent ce faisant de nouvelles capacités pour conquérir de nouveaux milieux et s’y développer.

On explique qu’il s’agit là de l’application des mécanismes élémentaires de la sélection naturelle. Les principes s’y retrouvent dans tous les organismes. Tout structure évolutive, biologique ou non, rencontrant des difficulté à survivre dans son milieu origine, y réagit en générant de nouvelles versions dont certaines avec un peu de chance peuvent se révéler mieux adaptées.

Il va de soi que le fonctionnement des cerveaux, y compris celui du cortex supérieur générant les idées complexes qui sont à la base de toute connaissance se voulant scientifique, obéit à ces règles de la sélection naturelle. Il semble que le cerveau produise en permanence des représentations du monde mais qu’il Il ne conserve que celles se révélant les plus efficaces dans la vie des sujets.

Ceci dit, vers quel âge cette capacité s’acquiert-elle ? Des expériences récentes ont montré que des nouveaux nés humains, quelques heures après leur naissance, peuvent distinguer non seulement des personnes mais des objets, sur la base de leur nombre. Existe-t-il dans leur cerveau des systèmes de représentation ayant un contenu mathématique présents avant tout apprentissage formel.

A partir de 2008, des expériences ont montré que cela était le cas chez des nouveaux nés âgés de 7 à 100 heures. Ils étaient capables d’établir des liens positifs entre des éléments présentant une caractéristique identique.

Ces expériences permettent aussi de démontrer que sous une forme un peu différente ces capacités se rencontrent chez des animaux possédant un cerveau moins complexe que le cerveau humain. Ainsi des poulpes qui ne possèdent pas de cerveaux à proprement parler ont montré les mêmes capacités.