15/01/2023 Armes hypersoniques. Pourquoi ce retard américain persistant ?

Disposer d’armes hypersoniques représente un réel avantage pour les forces armées. Ce type d’armement se déplace en effet à des vitesses très rapides – supérieures à Mach 5, soit 6.174 km/h –, à des altitudes plus basses que les missiles balistiques et peuvent également manœuvrer pour échapper aux systèmes de défense antimissile. Des avantages qui font des missiles hypersoniques des armes redoutables, car plus difficilement détectables.

Noua avions indiqué précédemment à propos des armes de nouvelles générations développés par la Russie, que 2 ou 3 des missiles de type Avangard russes lancées en essaim sur un porte-avion américain pourraient le mettre hors service en quelques minutes. Or le coût moyen d’un tel porte avion, sans mentionner celui de ses avions, serait comme pour le dernier-né des porte-avions américain (classe Gérald Ford) de 11,7 milliards d’euros.

On aurait pu penser que le Pentagone, conscient de son retard, aurait considérablement investi pour le combler. Or ce ne semble pas être encore le cas. Le Pentagone a en effet indiqué que les derniers tests hypersoniques militaires n’avaient pas été concluants et ce, malgré de premiers essais réussis.

Pour en savoir plus

https://fr.businessam.be/dans-la-course-aux-armes-hypersoniques-les-etats-unis-font-moins-bien-que-la-russie-et-la-chine/

14/01/2023. Renforcement de la collaboration diplomatique voire militaire entre Washington et Tokyo

Le temps n’est plus où pendant la seconde guerre mondiale les forces japonaises avaient failli éliminer la présence militaire américaine du Pacifique sud. Aujourd’hui le Japon est un fidèle second de l’armée américaine face aux menaces chinoises dans cette même partie du monde

C’est ainsi que le premier ministre japonais Fumio Kishida vient d’entreprendre une tournée en Europe et en Amérique du Nord destinée à renforcer les liens militaires. Il se rendra en Grande-Bretagne et en Italie, partenaires d’un accord conclu le mois dernier pour la construction de nouveaux avions de combat avancés. Il devrait également signer en Grande-Bretagne un accord visant à établir le cadre des visites des forces militaires de l’autre pays.

La dernière étape de Kishida sera les États-Unis, où il s’entretiendra avec Joe Biden à la Maison-Blanche pour discuter de la collaboration militaire, de l’achat par le Japon de missiles américains et des efforts qui visent à bloquer l’accès de la Chine aux semi-conducteurs avancés produits par les firmes japonaises.

Dans le cadre de la guerre économique des États-Unis contre la Chine, Biden a imposé une série d’interdictions sur la vente à la Chine de puces informatiques de la dernière génération ou des machines nécessaires à leur design et à leur fabrication. Les ministres japonais de la Défense et des Affaires étrangères tiendront une série de discussions sur ces sujets avec leurs homologues américains à Washington.

Dans le même temps, les États-Unis s’apprêtent à effectuer un voyage officiel provocateur à Taïwan, une île qu’ils reconnaissent de facto, dans le cadre de la politique de la Chine unique, comme faisant partie de la Chine et dont Pékin se dit le gouvernement légitime. Terry McCartin, le principal responsable américain du commerce avec la Chine, doit arriver à Taipei à la tête d’une délégation qui comprendra des fonctionnaires d’autres agences gouvernementales.

Le Japon suivra attentivement tous ces contacts qui pourraient se traduire par une demande américaine d’appui diplomatique voire militaire.

13/01/2023. Fusion nucléaire. Le NIF, un concurrent pour Iter

Pour la première fois, un système de fusion nucléaire a produit plus d’énergie qu’il n’en a consommé pour ce faire. Autrement dit la fusion nucléaire paraît sur la voie de réussir le pari entrepris depuis plusieurs années par des centaines d’ingénieurs, fournir à l’humanité l’énergie de fusion nucléaire capable de se substituer dans de bien meilleures conditions à l’énergie de fission désormais produite par une centaine de centrales répartie dans le mon entier

Le principal inconvénient de la fission, qui se fait entre deux atomes lourds tels que ceux l’uranium, est qu’elle produit des déchets radioactifs extrêmement virulents. De plus l’uranium qu’elle utilise se fait relativement rare et devient un enjeu géopolitique mondial.

 La fusion est le rapprochement de deux noyaux atomiques légers de deutérium et de tritium pour donner un atome d’hélium, qui est le noyau léger le plus stable de l’Univers et qui n’est pas radioactif . Par contre la fusion se fait à des conditions de température et de pressions supérieures à celles du soleil. Une fois lancée, elle peut s’autoentretenir .

L’objectif principal d’Iter est de générer des « plasmas en combustion » et d’en comprendre le comportement. Dans un plasma en combustion, l’énergie libérée par le noyau d’hélium issu de la réaction de fusion deutérium-tritium est suffisante pour entretenir la température du milieu, réduisant ainsi, voire supprimant totalement le besoin de recourir à des systèmes de chauffage externes.

Iter doit également mettre en œuvre et assurer l’intégration de l’ensemble des technologies essentielles au fonctionnement d’un réacteur de fusion industriel (aimants supraconducteurs, télémanipulation en milieu extrême, extraction de puissance, etc.). Le programme doit en outre valider les différents concepts de « modules tritigènes » qui permettront aux futurs réacteurs de produire au sein même de la machine le tritium indispensable à leur fonctionnement.

Aux Etats-Unis, pour produire l’énergie nécessaire, outre une participation comme le font une cinquantaine d’ Etats à Iter, les chercheurs utilisent les services du National Ignition Facility, ou NIF ; Ceui-ci est un laser de recherche extrêmement énergétique, construit au sein du laboratoire national Lawrence Livermore, à Livermore (Californie)

Le National Ignition Facility utilise la technique du confinement inertiel pour permettre aux scientifiques d’étudier la fusion nucléaire et les autres domaines d’utilisation des plasmas extrêmement denses. La mise en œuvre de ce concept dans le NIF utilise 192 faisceaux laser de grande puissance, qui, après un parcours d’environ 300 mètres, sont focalisés sur une cible située au centre d’une « chambre d’expériences », sphère métallique de dix mètres de diamètre. La cible, constituée d’une capsule recouverte de béryllium renfermant un mélange de deutérium et de tritium servant de combustible de fusion, est ainsi comprimée jusqu’à des densités de 900 kg/dm3, soit environ six fois la densité du centre du Soleil.

L’ensemble développera une puissance de 500 térawatts (mille fois la puissance électrique produite à tout instant par les États-Unis, en 2010), mais pendant une période de quelques nanosecondes (milliardièmes de seconde) seulement, pour parvenir à l’effet désiré. Le résultat espéré est la réalisation de réactions de fusion nucléaire auto-entretenues.

La fin de la construction du NIF était prévue pour 2009, la première ignition étant planifiée pour 2010. Dans la proposition d’origine, au début des années 1990, le coût d’un « super laser » avait été estimé à moins de 700 millions de dollars. En 2009, l’évaluation du coût total de l’installation est comprise entre 3,5 et 6 milliards de dollars.

Fusion réalisée le 5 décembre 2022

Lors d’un test opérationnel, le 8 août 2021, il a semblé que la fusion ait été réalisée, produisant une énergie égale à 70 % de l’énergie laser mise en jeu et émettant un excès de neutrons compatible avec une réaction en chaîne. On a utilisé du diamant comme conteneur de la cible

Près d’un an plus tard, les tentatives pour reproduire la quasi-fusion réalisée en août 2021 ayant échoué, les responsables du programme ont décidé de chercher à augmenter l’énergie du laser et à accroître l’efficacité de la cible.

Le résultat a été positif. Le 5 décembre 2022, le NIF a atteint le seuil où l’énergie produite est supérieure à l’énergie consommée : ses 192 lasers ont concentré 2,05 MJ sur la cible, qui en fusionnant a dégagé 3,15 MJ ; mais l’expérience a nécessité d’emprunter à peu près 300 MJ du réseau général. Il faudra encore quelques années pour parvenir à la fusion commerciale.

Cependant le résultat a été jugé tellement important qu’il a été annoncé par la secrétaire américaine à l’Energie Jennifer Granholm, depuis Washington : « C’est un exploit historique pour les chercheurs du NIF  qui ont consacré leur carrière à rendre possible l’ignition par fusion, une étape majeure qui suscitera sans doute encore plus de découvertes. » 

Cela faisait 70 ans, en effet, que la communauté scientifique cherchait à produire en laboratoire et de manière contrôlée un tel phénomène.

13/01/23. Faut-il avoir peur du chat ?

Nous lisons ce qui suit dans un article consacré aux dangers pour l’expression créatrice que pourrait avoir une utilisation intensive du logiciel ChatGPT.

A la question  Qui êtes vous ? celui-ci aurait répondu :« Je suis un modèle de langage informatique conçu par OpenAI. Mon but est de pouvoir répondre aux questions et fournir de l’aide aux utilisateurs en utilisant mon apprentissage automatique et mes connaissances en langage naturel. J’essaie de fournir des réponses précises et utiles aux utilisateurs. Je suis un outil de traitement de langage naturel et je n’ai pas d’opinions personnelles ni de préférences« 

Le principe est simple, précise l’auteur de l’article. L’utilisateur pose une question et l’intelligence conversationnelle tente d’y répondre avec ses connaissances acquises. Une réponse plus ou moins détaillée est générée, dans un langage quasi-identique à celui d’un humain. C’est toute la force de ce nouveau service : être capable de formuler une réponse de la même façon que le ferait un proche.

Devrions-nous en conclure que tout outil langagier, qu’il utilise ou non l’intelligence artificielle, serait un danger pour l’expression créatrice du fait qu’il permettrait aux créateurs de formuler de nouveaux jugements sans recourir à toutes les connaissances et jugements accumulées sur Internet ? Ces connaissances et jugements s’expriment par de nouveaux langages, langages philosophiques ou langages scientifiques, qu’il faut connaître pour accéder à ces nouveaux contenus.

L’intérêt de ChatGPT, sauf erreur, sera de faciliter à l’utilisateur l’apprentissage puis la pratique des nouveaux langages. Cela lui permettra d’inventer de nouveaux contenus sans être obligé de se limiter à ceux déjà produits.

C’est pour cette raison que dans l’enseignement jusqu’ici pratiqué, la première chose à faire est d’apprendre aux jeunes enfants à marcher, puis à parler. Mais la seconde chose à faire est de les inciter à découvrir l’univers au delà de leur chambre et à utiliser le langage qu’ils connaissent déjà pour tenter de décrire à leur entourage cet au- delà de la chambre. L’entourage corrigera de lui-même et les enfants accéderont ainsi à de nouvelles connaissances liés à ces nouveaux langages.

Référence
https://fr.wikipedia.org/wiki/ChatGPT

13/OI/2023 Editorial. Faudra-t-il en revenir à l’âge de pierre?

Nous lisons ce qui suit dans un article consacré aux dangers pour l’expression créatrice que pourrait avoir une utilisation intensive du logiciel ChatGPT.

A la question  Qui êtes vous ? celui-ci aurait répondu :« Je suis un modèle de langage informatique conçu par OpenAI. Mon but est de pouvoir répondre aux questions et fournir de l’aide aux utilisateurs en utilisant mon apprentissage automatique et mes connaissances en langage naturel. J’essaie de fournir des réponses précises et utiles aux utilisateurs. Je suis un outil de traitement de langage naturel et je n’ai pas d’opinions personnelles ni de préférences« 

Le principe est simple, précise l’auteur de l’article. L’utilisateur pose une question et l’intelligence conversationnelle tente d’y répondre avec ses connaissances acquises. Une réponse plus ou moins détaillée est générée, dans un langage quasi-identique à celui d’un humain. C’est toute la force de ce nouveau service : être capable de formuler une réponse de la même façon que le ferait un proche.

Devrions-nous en conclure que tout outil langagier, qu’il utilise ou non l’intelligence artificielle, serait un danger pour l’expression créatrice du fait qu’il permettrait aux créateurs de formuler de nouveaux jugements sans recourir à toutes les connaissances et jugements accumulées sur Internet ? Ces connaissances et jugements s’expriment par de nouveaux langages, langages philosophiques ou langages scientifiques, qu’il faut connaître pour accéder à ces nouveaux contenus.

L’intérêt de ChatGPT, sauf erreur, sera de faciliter à l’utilisateur l’apprentissage puis la pratique des nouveaux langages. Cela lui permettra d’inventer de nouveaux contenus sans être obligé de se limiter à ceux déjà produits. C’est pour cette raison que dans l’enseignement jusqu’ici pratiqué, la première chose à faire est d’apprendre aux jeunes enfants à marcher, puis à parler.

Mais la seconde chose à faire est de les inciter à découvrir l’univers au delà de leur chambre et à utiliser le langage qu’ils connaissent déjà pour tenter de décrire à leur entourage cet au- delà de la chambre. L’entourage corrigera de lui-même et les enfants accéderont ainsi à de nouvelles connaissances liés à ces nouveaux langages.

L’Internet est trop riche en nouveaux contenus pour pouvoir de passer de nouveaux langages d’accès

Editorial au 11/01/2023. Le projet Time man. Comprendre les raisons de la tectonique des plaques

Le présent texte n’est pas un éditorial mais la réédition d’un texte scientifique présentant les résultats d’une recherche qui vient de faire l’objet d’un article dans Nature dont nous publions in fine les références et l’abstract

La tectonique des plaques qui caractérise la dynamique de notre planète est difficile à dater mais elle existerait depuis au moins 2 milliards d’années. Le supercontinent appelé Gondwana qui s’est formé il y a 600 millions d’années aurait commencé à se fracturer au Jurassique (il y a 160 millions d’années).

Les Pyrénées, montagne jeune, ne datent que d’environ 40 millions d’années. Comment appréhender ces durées, nous pauvres humains, pour qui passer 100 ans à la surface de la Terre représente déjà un fort long séjour ? C’est la science et ses outils observationnels, analytiques et conceptuels qui ont permis de dépasser les mythes et qui aboutit à ces nombres qui donnent le tournis. Nous sommes donc un peu comme des éphémères, ces insectes qui ne vivent qu’un jour ou deux, qui tenteraient de comprendre les saisons, les années…

La science, c’est aussi l’expérimentation. Mais là encore, comment reproduire des phénomènes qui se déroulent sur des durées bien plus longues que celles de nos vies ?

Prenons la dynamique de notre planète. La tectonique des plaques est le cadre conceptuel qui, depuis les années 60, rassemble et unifie les descriptions des grandes manifestations géologiques ayant façonné la surface de la Terre. Mais son origine est plus profonde. Le déplacement des plaques résulte de vastes mouvements de convection  qui animent le manteau terrestre et permettent à la Terre d’évacuer sa chaleur interne. Car la Terre est encore une planète chaude, d’où son activité. Plus de 98 % du volume de notre planète est à des températures supérieures à 1000 °C et le noyau est aussi chaud que la surface du soleil.

Cette chaleur interne à plusieurs origines : une part de chaleur primordiale (vestige de la formation de notre planète par accrétion), une autre qui est extraite du noyau en partie due à la cristallisation de la graine (partie solide, centrale, du noyau), et enfin une autre qui provient de la désintégration radioactive d’éléments (uranium, potassium, thorium) présents en faible quantité dans les roches du manteau. C’est donc par transport de matière du bas (où les températures sont les plus élevées) vers le haut (où elles sont les plus froides) que cette chaleur est transportée. La particularité de ce phénomène convectif (bien connu dans les liquides, on fait d’ailleurs souvent l’analogie avec la casserole d’eau sur le feu) est que dans le manteau terrestre constitué de roches solides, il est porté par la déformation de ces roches et des minéraux qui les constituent. Ce sont donc ces déformations qu’il nous faut étudier si l’on veut comprendre et modéliser la dynamique de notre planète. Mais cette quête est parsemée de difficultés. Listons-en quelques-unes.

Des conditions de pression et de température extrêmes dans le manteau

Le manteau terrestre est cette enveloppe de roches, nous l’avons dit, qui s’étend jusqu’à près de 2900 km sous nos pieds. Les conditions de pression et température qui y règnent y sont extrêmes. En particulier, sous le poids des roches, la pression augmente fortement avec la profondeur pour atteindre quelque 135 GPa (1,35 milliard de fois la pression atmosphérique) à l’approche du noyau. Les roches qui sont présentes à ces profondeurs ne sont pas celles que l’on rencontre à la surface de la Terre. Sous l’influence de la pression, elles sont constituées de minéraux plus compacts, plus denses. Pendant la seconde moitié du XXe siècle, des efforts importants ont été déployés pour réaliser des expériences permettant de reproduire les conditions de pression et de température de l’intérieur de la Terre.

Elles ont permis d’étudier la manière dont les minéraux se densifient sous pression et de proposer un modèle minéralogique du manteau terrestre correspondant à ce que l’on pense être sa composition chimique (notamment par comparaison avec les météorites considérées comme les briques du système solaire). Plusieurs stades de compressions des minéraux sont identifiés pour finir, à partir de 670 km de profondeur et presque jusqu’au noyau, par former un assemblage assez simple constitué de trois minéraux principaux.

Le plus important (en volume : près de 80 %) d’entre eux est un silicate de magnésium et de fer (contenant également un peu d’aluminium) de structure perovskite appelé bridgmanite (en l’honneur de Percy Bridgman, physicien américain lauréat du prix Nobel de physique en 1946 pour ses travaux sur les hautes pressions). Le calcium, présent dans le manteau supérieur dans les grenats et les pyroxènes, serait hébergé par un autre silicate, présentant la même structure perovskite : la davemaoite. Enfin le magnésium en excès est exprimé sous la forme d’un oxyde (contenant aussi un peu de fer) : le ferropericlase.

Des conditions difficiles à reproduire en laboratoire

C’est donc la manière dont se déforme cet assemblage minéralogique qui constitue la clé de la dynamique du manteau. Pour étudier ce phénomène au laboratoire, il faut réaliser des expériences de déformation tout en appliquant les très fortes pressions qui permettent de stabiliser ces minéraux. De nouveaux développements technologiques ont donc été nécessaires et en 2016, une équipe  de l’université de Yale (USA) ont réussi la première expérience de déformation d’un assemblage de bridgmanite et de ferropericlase dans les conditions de pressions et de températures correspondant à peu près à 700 km de profondeur.

Ces expériences ont montré ce que l’on pressentait : le silicate (la bridgmanite) est bien plus dur que l’oxyde (le ferropericlase). Ils observent en effet que le ferropericlase encaisse quasiment toute la déformation et se retrouve fortement étiré dans une matrice de bridgmanite quasi rigide. Un tel comportement peut avoir des conséquences importantes sur la manière dont le manteau peut se déformer.

Thielmann et ses collègues, de l’université de Bayreuth en Allemagne, ont utilisé des modèles numériques pour pousser plus loin la déformation d’un tel assemblage. Ils montrent que selon la manière dont le ferropericlase est distribué dans la roche, les propriétés mécaniques (et donc la capacité du manteau à se déformer et à évacuer la chaleur) ne sont pas les mêmes. Si la phase « molle », le ferropericlase forme des couches continues, elle peut « lubrifier » la déformation et rendre la roche beaucoup moins visqueuse.

Mais ces expériences et les conclusions que l’on peut en tirer se heurtent à d’autres difficultés. Reproduire les pressions et les températures de l’intérieur de la Terre constitue déjà un défi, mais le surmonter ne suffit pas. Il faut en effet se rappeler que les déformations du manteau sont lentes, très lentes et s’échelonnent sur des centaines de millions d’années. Étudier ces phénomènes au laboratoire nécessite de les accélérer considérablement : plus de 100 millions de fois ! Les mécanismes activés lors de ces expériences sont-ils les mêmes que ceux qui opèrent dans la nature ? Les résultats des expériences de laboratoire peuvent-ils être simplement extrapolés aux conditions naturelles ?

Un nouveau modèle

C’est à répondre à cette question que se consacre le projet TimeMan financé par le Conseil Européen de la Recherche (ERC) et que je dirige à l’Université de Lille en collaboration avec les universités d’Anvers et de Louvain-la-Neuve en Belgique.

Son originalité ? Ne pas chercher à simplement extrapoler, mais s’appuyer sur une compréhension la plus détaillée possible de la physique, des mécanismes de déformation de ces minéraux dans les conditions de pression et de température du manteau. Revenons aux expériences de Girard et de ses collaborateurs. Leurs mesures montrent que des contraintes très élevées sont nécessaires pour déformer leurs échantillons aux vitesses du laboratoire.

Nos modèles permettent de reproduire les résultats de ces expériences. Ils montrent qu’ils résultent de l’activation du glissement de défauts cristallins, les dislocations qui, sous l’influence de ces fortes contraintes, cisaillent les cristaux. Mais dans le manteau, les contraintes sont beaucoup plus faibles et nos modèles montrent que d’autres mécanismes doivent prendre le relai.

A haute température et sous faibles contraintes, les mécanismes de déformation de la matière solide font intervenir la migration des ions qui diffusent lentement vers les dislocations pour leur donner un degré de mobilité supplémentaire que l’on appelle la montée. C’est donc cette étape de diffusion qui contrôle la cinétique de la déformation. Or elle est lente, très lente. Particulièrement dans l’oxyde de magnésium où c’est le gros ion oxygène qui a le plus de mal à se déplacer, surtout lorsque la pression rend la structure de plus en plus compacte. Le ferropericlase se déforme donc plus lentement que la bridgmanite dans ce régime de déformation impossible à reproduire aux échelles de temps du laboratoire. C’est ce résultat contre-intuitif que nous décrivons dans l’article qui parait ce mercredi 11 janvier 2023 dans la revue Nature. Il remet en question les débats sur l’influence de la répartition du ferropericlase dans la matrice.

Si l’on fait l’analogie avec le beurre de cacahuète, on peut dire que les modèles classiques faisaient jouer au ferropériclase le rôle de la phase huileuse qui rendait la pâte plus fluide. Nos résultats le voient plutôt comme les particules rigides du beurre de cacahuète « crunchy », sans influence notable sur la rhéologie de l’ensemble. Nous concluons donc que la bridgmanite est la seule phase minérale à considérer pour modéliser la déformation du manteau dans les conditions naturelles, si lentes qu’elles échappent à notre perception sensible, mais pas à nos modèles !

Référence

Published: 11 January 2023

Periclase deforms more slowly than bridgmanite under mantle conditions

Nature  volume  613,  pages 303–307 (2023)

Abstract

Transport of heat from the interior of the Earth drives convection in the mantle, which involves the deformation of solid rocks over billions of years. The lower mantle of the Earth is mostly composed of iron-bearing bridgmanite MgSiO3 and approximately 25% volume periclase MgO (also with some iron). It is commonly accepted that ferropericlase is weaker than bridgmanite1. Considerable progress has been made in recent years to study assemblages representative of the lower mantle under the relevant pressure and temperature conditions2,3. However, the natural strain rates are 8 to 10 orders of magnitude lower than in the laboratory, and are still inaccessible to us. Once the deformation mechanisms of rocks and their constituent minerals have been identified, it is possible to overcome this limitation thanks to multiscale numerical modelling, and to determine rheological properties for inaccessible strain rates. In this work we use 2.5-dimensional dislocation dynamics to model the low-stress creep of MgO periclase at lower mantle pressures and temperatures. We show that periclase deforms very slowly under these conditions, in particular, much more slowly than bridgmanite deforming by pure climb creep. This is due to slow diffusion of oxygen in periclase under pressure. In the assemblage, this secondary phase hardly participates in the deformation, so that the rheology of the lower mantle is very well described by that of bridgmanite. Our results show that drastic changes in deformation mechanisms can occur as a function of the strain rate.

Published: 11 January 2023

11/01/22. Le SU 57 russe Felon

On parle assez peu actuellement du rôle que jouent lors des affrontements entre la Russie et l’Ukraine les avions de combat utilisés par les Russes. Mais ce rôle est important, selon les agents de l’Intelligence Service britannique utilisés par le ministère de la Défense. Si l’on en croit le magazine britannique The War zone en date du 9 janvier 2023, généralement bien informé, selon l’expression

«Depuis au moins juin 2022, les forces aérospatiales russes (VKS) ont avec une quasi-certitude utilisé le Su-57 Felon pour mener des missions contre l’Ukraine, a déclaré le ministère de la Défense dans un communiqué publié le 9 janvier. Felon est l’avion de combat supersonique de cinquième génération le plus moderne de Russie, utilisant des technologies furtives et une avionique très avancée».

https://www.thedrive.com/the-war-zone/su-57-felon-fighters-are-flying-ukraine-combat-missions-uk-intel

L’avion de chasse, qui a effectué son premier vol en 2010 et qui est entré officiellement en service en 2020 au sein des forces russes, n’aurait pas directement survolé le territoire ukrainien. «Ces missions se sont probablement limitées à lancer depuis le territoire russe des missiles air-sol ou air-air à longue portée en Ukraine», écrivent les Britanniques. En cause notamment, le risque pour les Russes de voir le fleuron de leur aviation abattu par les Ukrainiens, ce qui affecterait gravement leur réputation. «La priorité pour la Russie est très probablement d’éviter les atteintes à la réputation de son aviation, à la réduction des perspectives d’exportation et à la compromission des technologies sensibles qui découleraient de la perte de Felon en Ukraine»

Editorial au 10/01/2023. Voici de nouveau les OVNIS

Nous lisons dans la LETTRE 3AF NUMÉRO 44 / OCTOBRE 2020 l’article suivant:
SCIENCES ET TECHNIQUES AÉROSPATIALES POUR LA SANTÉ POINTS DE VUE CROISÉS SUR LES PHÉNOMÈNES AÉROSPATIAUX NON IDENTIFIÉS OBSERVÉS EN INFRAROUGE ET RADAR
https://www.3af.fr/global/gene/link.php?doc_id=4234&fg

Que dit cet article?

L’observation de Phénomènes Aérospatiaux Non identifiés (ou PAN) n’est pas nouvelle, même si elle reste mystérieuse à bien des égards. Depuis les années 30-40 (voire bien avant) de nombreux témoignages ont été rapportés et des enquêtes menées dans différents pays par les armées de l’air (rapport Blue Book de l’US Air Force, programme Condigm UK, travaux du GEIPAN en France depuis 1977, programme SETKA en Russie), etc.) rassemblant des observations visuelles, radar, des photos ou des films.

Plus récemment, les caméras infrarouges se sont déployées, notamment sur les avions de surveillance ou sur les chasseurs, procurant de nouveaux enregistrements, parfois très étonnants. Cependant l’infrarouge très utile pour détecter un objet, pour l’identifier, nécessite d’autres moyens pour estimer les distances et vitesses notamment, comme les radars.

Cet article a pour but de décrire trois cas d’observations de PAN avec des moyens IR croisés couplés à des observations radar, en commençant par le cas Cougar (2011, Marine Chilienne), Aguadilla (2013, Porto Rico, avion de surveillance côtière), et Nimitz (observations IR par des F18 de l’US Navy et des radars du Nimitz et du Princeton en 2004, puis en 2014-2015 à nouveau par des F-18).

Ce dernier cas est le plus fameux et défraye la chronique depuis décembre 2017, avec la publication d’articles dans le New York Times, accompagnée de la révélation d’un programme de recherche secret AATIP 1 du Pentagone sur les UFOs (Unidentified Flying Objects). Ces vidéos IR (reconnues authentiques par le Pentagone en avril 2020) fournissent des données en 2D. Elles nécessitent de connaître aussi la position de la plate forme d’observation, son altitude et les données de contexte, notamment radar, pour reconstituer les distances et en déduire une cinématique en 3D.

Or l’article pose une question fondamentale. Pourquoi devant un phénomène qui défie toutes les connaissances actuelles, tant en physique spatiale qu’en astrobiologie, les gouvernements et les autorités scientifiques ne déclenchent-ils pas plus d’investigations ?

La Lettre 3AF a une réputation de sérieux suffisant pour que ses allégations soient étudiées avec le plus grand soin par les autorités compétentes, à commencer par les militaires. Ainsi, envisager que les phénomènes décrits puissent résulter d’une plus grande utilisation de drones militaires rendus discrets à des fins de défense n’a aucun sens, d’autant plus que de tels drones n’auraient pas pu exister avant 2017.

Quant à l’existence de PAN extraterrestres, ils ne pourraient provenir qu’au delà du système solaire, vues les distances. Autrement dit ils ne pourrait être qu’être vieux de centaines voire de milliers d’années. Pourquoi auraient-ils attendu tant de temps pour nous rendre visite ?

Editorial au 09/01/2023 Les chimistes du projet Gavo s’attaquent aux virus

20.05.2021, par Martin Koppe
https://lejournal.cnrs.fr/articles/les-chimistes-du-projet-gavo-sattaquent-aux-virus

Pour élargir la diffusion de cet article important du CNRS, nous en publions ici une version un peu allégée. JPB
________________________

Comme les virus ne peuvent répliquer leur matériel génétique qu’en détournant la machinerie cellulaire, cibler cette étape cruciale peut stopper l’infection. Des chercheurs d’universités françaises et du CNRS se sont rassemblés au sein du projet Gavo, afin de synthétiser des molécules susceptibles de bloquer la réplication des virus à ARN comme celui du Covid-19.

Si de nombreux vaccins ont été proposés pour se protéger du Covid-19, nous manquons encore de médicaments adaptés pour guérir les patients déjà contaminés. SARS-CoV-2, comme tous les virus, est incapable de s’autorépliquer et a donc absolument besoin d’infecter un hôte et d’en détourner la machinerie cellulaire à son profit. Les cellules infectées se mettent alors à produire de nouveaux virus au détriment de leurs fonctions vitales. Si ce mode d’action fait la spécificité des virus, il représente également un point faible ciblé par les chercheurs : affecter ce processus freine, voire stoppe, la propagation des virus dans l’organisme.

Une piste prometteuse pour traiter plusieurs maladies

« Lorsqu’un virus entre dans une cellule, il y déverse les matériaux de base nécessaires à sa réplication, explique Jacques Lebreton, professeur à l’université de Nantes et membre du laboratoire Chimie et interdisciplinarité : synthèse, analyse, modélisation (Ceisam). Les virus à ARN libèrent ainsi des segments d’ARN qui sont ensuite traduits en protéines par les ribosomes de la cellule hôte. » Ces séquences d’ARN sont une succession de nucléotides, des molécules formées par l’association d’un sucre, d’un phosphate et d’une des quatre bases azotées propres à l’ARN : adénine, guanine, cytosine et uracile.

« Pour combattre les virus, on peut tenter de bloquer la polymérase virale chargée de la réplication du matériel génétique du virus en incorporant à l’ARN viral un analogue de nucléosides (association d’un sucre et d’une base azotée) poursuit Jacques Lebreton. Bien choisie, la molécule factice empêche d’accrocher de nouveaux nucléosides au brin d’ARN, et donc de terminer la réplication du virus. Environ la moitié des médicaments contre des pathologies virales sont basés sur des dérivés de nucléosides. »

Les virus à ARN sont impliqués dans de nombreuses maladies : Ebola, hépatite C, poliomyélite, dengue, chikungunya, Zika mais aussi le Covid-19. L’emploi d’analogues de nucléosides est ainsi une des pistes les plus prometteuses pour des traitements ciblant le SARS-CoV-2. Pour plus d’efficacité, ces molécules doivent cependant être adaptées aux caractéristiques du virus. Chacun utilise en effet ses propres enzymes, appelées ARN polymérases, pour détourner la machinerie cellulaire. Si cela est parfois possible, il ne suffit pas toujours de piocher dans les molécules déjà connues, même si elles agissent contre d’autres pathologies.

Le programme Gavo, pour Génération d’Anti-Viraux Originaux, a ainsi été bâti pour découvrir de futurs médicaments basés sur des nucléosides. Dans le contexte actuel, l’accent est mis sur le Covid-19, toutefois ces travaux concerneront plus généralement les virus à ARN et certains cancers. Le projet est porté par Jacques Lebreton et son collègue Arnaud Tessier, chargé de recherche CNRS au Ceisam.

« La France a eu par le passé un incroyable savoir-faire dans la chimie des nucléosides, et nous trouvions dommage qu’il se perde, regrette Jacques Lebreton. Pendant le premier confinement, nous avons contacté Jacques Maddaluno, directeur de l’Institut de chimie du CNRS, pour fédérer les équipes françaises travaillant dans ce domaine. Le ministère de l’Enseignement supérieur,  de la Recherche et de l’innovation nous a ensuite soutenus financièrement pour mettre en place le programme Gavo. »

Synthèse et modélisation, deux approches complémentaires

Le projet réunit donc des chercheurs du Ceisam à Nantes, mais également d’autres laboratoires : l’Institut des biomolécules Max Mousseron à Montpellier, l’Institut de chimie organique et analytique à Orléans et le Laboratoire de physique et chimie théoriques à Nancy. Ces divers talents permettent de combiner deux approches en parallèle. 

La première consiste à synthétiser un grand nombre de dérivés de nucléosides pour constituer une véritable bibliothèque de molécules, dont les propriétés biologiques seront, dans la foulée, évaluées par ViroCrib à Montpellier. Cette plateforme, mise en place par le CNRS via l’Institut des sciences biologiques, va tester l’activité antivirale de ces analogues sur un large panel de virus.

La seconde approche se base sur la modélisation, à l’échelle moléculaire, des processus impliqués dans la réplication de l’ARN viral, afin de prédire la structure des composés aptes à perturber, voire inhiber, le phénomène. Ce procédé offre alors des pistes aux chimistes, qui peuvent ensuite synthétiser ces molécules originales susceptibles de bloquer la réplication du virus.

« Notre expert en modélisation a par exemple analysé comment le remdesivir, un analogue de nucléosides breveté par Gilead Sciences contre le virus Ebola, s’accroche à la polymérase de SARS-CoV-2 en l’empêchant de glisser le long du brin d’ARN et donc de le reproduire, ajoute Jacques Lebreton. La modélisation permet de comprendre pourquoi un composé donné peut bloquer l’action d’un enzyme et comment la structure de ce dernier pourrait être modifiée pour en augmenter l’efficacité. 

Cela revient à trouver la bonne clé pour une serrure donnée. Notre collègue conçoit de manière rationnelle, et in silico, des solutions que nous essayons ensuite de synthétiser. Avec nos moyens limités par rapport aux géants pharmaceutiques, nous devons être astucieux pour identifier des molécules efficaces et spécifiques. »

Les chercheurs ont besoin d’être guidés dans le choix des transformations chimiques les plus pertinentes à réaliser, impliquant une expertise à la croisée de la chimie des sucres et de celle des hétérocycles. Les nucléosides sont en effet une classe de molécules complexes, offrant une quasi-infinité de modifications chimiques et leurs combinaisons.

 Le criblage des molécules, anciennes ou nouvelles, est ainsi crucial pour identifier une activité biologique donnée dans une telle multitude. L’AZT (Retrovir®), synthétisé et breveté en 1964 comme anticancéreux, avait par exemple été oublié du fait de piètres résultats. Vingt ans plus tard, cet analogue nucléosidique est revenu sur le devant de la scène quand son effet contre le VIH a été découvert lors d’une vaste campagne de criblage. « Avec tous les analogues de nucléosides qui ont été synthétisés depuis ces dernières décennies, nous pouvions penser trouver rapidement une solution thérapeutique efficace contre le Covid-19, rappelle Jacques Lebreton. Ça n’a malheureusement pas été le cas, même si le remdesivir a un temps apporté une lueur d’espoir. »

La synthèse de nouveaux analogues de nucléosides doit donc se poursuivre.

Dans le cadre du projet Gavo, cette mission est renforcée par la présence d’experts en chimie en flux du laboratoire Chimie organique, bio-organique : réactivité et analyse à Rouen. Cette technologie récente permet de préparer en continu des molécules inédites, avec une grande variété de conditions opératoires. Curieusement, cette approche a jusqu’à présent été très peu utilisée pour la synthèse de nucléosides, alors qu’elle offre la possibilité d’aller au-delà des structures déjà connues. La chimie en flux tend également à être plus rapide que les méthodes conventionnelles.

Avec la mise en commun de leurs compétences, les chercheurs du programme Gavo vont pouvoir travailler en synergie. La modélisation guide les chimistes pour l’élaboration de molécules nucléosidiques originales et appropriées pour bloquer la réplication virale. Ces molécules seront testées contre le Covid-19 mais aussi sur d’autres virus connus ou émergents. Reste à attendre les premiers résultats. ♦

Editorial au 08/01/2022. Avec ou sans Poutine, quelles solutions?

On peut supposer que dans l’esprit de Vladimir Poutine, envahir et annexer l’Ukraine le 24 février 2022 aurait signifié au monde que la Russie sous son autorité était redevenue l’ex-Empire soviétique effondré en 1991. Il aurait montré que l’Amérique était un tigre de papier incapable de s’opposer malgré l’aide militaire de l’Union européenne à ce que la Russie devienne, avec l’appui éventuel de la Chine, le leader d’un nouvel ordre international dans un monde devenu multipolaire.

Les événements n’ont en rien démontré cela. L’armée ukrainienne s’est révélée avec il est vrai les milliards de dollars de l’aide occidentale, capable de s’opposer à des forces russes précédemment présentées par Moscou comme imbattables et qui ont au contraire montré leur peu d’organisation et de volonté de se battre. La défaite militaire russe apparait aujourd’hui comme inéluctable. Mais quelle forme prendrait-t-elle ?

Trois scénarios sont évoqués actuellement, dont les conséquences seraient différentes. Dans le premier et le plus improbable, Moscou reconnaîtrait sa défaite. Il se bornerait à vouloir conserver sa souveraineté sur la Crimée et négocierait des concessions dans tous les autres domaines. Il n’exclurait pas cependant la possibilité d’incursions militaires ultérieures, notamment si l’Otan continuait à approvisionnes l’Ukraine en armes du dernier modèle. Ce scénario entraînerait vraisemblablement la mise à l’écart des responsables politiques partisans d »une ligne dure, y compris sans doute de Poutine lui-même.

Le second scenario intéressant une défaite russe ferait appel à des bombardements et des actes de sabotage russes dans les pays européens tels que la Pologne qui aident Kiev et l’Ukraine. La perspective d’une frappe nucléaire de faible intensité serait évoquée. L’Otan à son plus niveau serait obligée d’intervenir. La Russie baisserait le ton, mais elle se retirerait avec les honneurs de la guerre.

Le troisième scénario repose sur un effondrement du régime russe, les batailles décisives se tenant non pas en Ukraine mais dans les rues de Moscou et dans les couloirs du Kremlin. La question fondamentale resterait posée. Qui prendrait le contrôle de l’armement nucléaire russe ?

Pour en savoir plus, voir

https://www.foreignaffairs.com/russian-federation/putin-last-stand-russia-defeat