24/09/2025 Les tissus biologiques artificiels

L’article dont nous publions ici les références et le résumé présente les différentes technologies (traitement en masse ou en surface) pour réaliser des tissus ou des fibres résistantes aux attaques biologiques ( antiacariens, antimicrobiens, antibactériens, antimoustiques, antivirus.

Les molécules déposées sur le tissu peuvent être fixées de façon permanente (technologie non migrante) ou transitoire et partielle (technologie migrante), ce qui engendre des tenues aux lavages plus faibles et une innocuité pour la peau et l’environnement .

Il présente aussi  les différents moyens pour tester leur l’efficacité et leur utilisation, grand public ou à l’hôpital, car certains traitements antimicrobiens sont toujours actifs, même après 50 lavages hospitaliers 

Pour en savoir plus

Le marché des textiles bioactifs a connu une croissance importante ces dernières années. Plusieurs facteurs y ont contribué :

  • les consommateurs sont de plus en plus soucieux de leur bien-être, de leur santé et souhaitent être rassurés et protégés ;
  • les industriels européens ont la possibilité de fabriquer et de commercialiser des textiles techniques qui se différencient des produits classiques importés des pays à bas salaires, leur permettant de supporter les coûts de fabrication européens ;
  • les distributeurs souhaitent proposer à leurs clients de nouveaux produits, afin de développer l’offre et obtenir de meilleures marges.

Les technologies ont progressé ces dernières années, en termes d’efficacité, de tenue aux lavages ; de nouveaux concepts ont été développés et certaines technologies ont un moindre impact sur l’homme et l’environnement.

D’un point de vue médical, la lutte contre les allergies causées par les acariens ou la poussière, les infections nosocomiales, le paludisme ou les pandémies grippales peuvent aussi trouver des réponses avec des textiles bioactifs.

Le renforcement de la législation, des contrôles et de la normalisation sur ce type de textiles – qui utilise des produits chimiques actifs – est d’ailleurs bien la preuve du développement de ces produits.

Les technologies des tissus bioactifs sont souvent destinées à détruire des micro-organismes (tissus biocides), mais il est possible aussi de considérer ce concept de tissu bioactif comme un textile qui agit sur le corps humain de manière positive directe ou indirecte, comme :

  • les texticaments et les textiles médicaux : externes (bas de contention par exemple) ou implantables (tendon artificiel, artère artificielle) ;
  • les tissus antimicrobiens qui soignent certaines maladies de la peau (produits Dooderm) ou sont utilisés dans les pansements ;
  • les cosmétotextiles (hydratant, parfumant, « anticellulite », tonifiant, anti-UV, à la vitamine…) ;
  • les textiles (vêtement et champ opératoire) de bloc opératoire ;
  • les vêtements utilisés en salle blanche ;
  • les vêtements connectés, avec capteur intégré de paramètres biologiques (température du corps, pression artérielle, rythme cardiaque…).

Article référencée

Active biointegrated living electronics for managing inflammation

Jiuyun Shi , others,

30 May 2024 Vol 384, Issue 6699
pp. 1023-1030

DOI: 10.1126/science.adl11029 05077

Editor’s summary

In developing biomedical devices that need to interface with biological tissues, there is the challenge of bridging between devices, which are usually hard and operate through electrical signals, and tissues, which are soft and primarily use ion conduction. Shi et al. developed a “living biointerface” composed of an electronics layer and a Staphylococcus epidermidis–laden hydrogel composite (see the Perspective by Olofsson). This composite layer facilitates multimodal signal transduction at the microbial-mammalian interface. Furthermore, it ensures high viability of the bacteria and enables freeze storage of the device. Using their device, the authors wirelessly recorded electrical signals from the skin surface of mice and improved disease treatment in a mouse model of psoriasis. —Marc S. Lavine

Abstract

Seamless interfaces between electronic devices and biological tissues stand to revolutionize disease diagnosis and treatment. However, biological and biomechanical disparities between synthetic materials and living tissues present challenges at bioelectrical signal transduction interfaces. We introduce the active biointegrated living electronics (ABLE) platform, encompassing capabilities across the biogenic, biomechanical, and bioelectrical properties simultaneously. The living biointerface, comprising a bioelectronics layout and a Staphylococcus epidermidis–laden hydrogel composite, enables multimodal signal transduction at the microbial-mammalian nexus. The extracellular components of the living hydrogels, prepared through thermal release of naturally occurring amylose polymer chains, are viscoelastic, capable of sustaining the bacteria with high viability. Through electrophysiological recordings and wireless probing of skin electrical impedance, body temperature, and humidity, ABLE monitors microbial-driven intervention in psoriasis.

23/09/2025 La discrétion des premiers mammifères

nt donc vécu en compagnie des dinosaures des dizaines de millions d’années, jusqu’à la disparition de ceux-ci il y a quelques 66 millions d’années.

Les dinosaures se répartissaient entre espèces carnassières , telles que le célèbre Tyrannus Rex, et espèces végétariennes telles que l’iguanodon. Doté d’un bec corné, d’une langue agile et des dents plates renouvelées tout au long de sa vie, l’iguanodon était ainsi capable d’arracher les végétaux dont il se nourrissait et de mâcher efficacement sa nourriture.

En conséquence, les premiers mammifères n’ont survécu que grâce à leur petite taille et au fait qu’ils avaient adopté un mode de vie nocturne qui les rendait difficilement visibles

De plus les lois darwinienne de l’évolution et de la survie du plus apte les avaient dotés d’une une fourrure sombre, brun foncé ou grisâtre, idéale pour se fondre dans l’obscurité.

Une étude récente

C’est ce que révèle une étude récente, publiée dans la revue Science. Le responsable de cette étude a utilisé des techniques avancées d’analyse des mélanosomes fossilisés pour reconstituer la couleur du pelage de plusieurs espèces du Jurassique et du Crétacé. .

Les mélanosomes sont de petits organites qui contiennent la mélanine, le pigment responsable de la coloration des poils.

L’équipe a étudié les mélanosomes de 116 espèces de mammifères actuels (singes, souris, chauve-souris, félins…) afin de créer un modèle prédictif de reconstitution de la couleur du pelage basé sur leur morphologie.

En effet, les chercheurs avaient constaté que la forme des mélanosomes correspondait à la couleur de la fourrure : les poils roux et orange contenaient des mélanosomes sphériques, tandis que les poils plus foncés en avaient des plus allongés, semblables à ceux que les chercheurs avaient déjà observés chez les oiseaux et les dinosaures.

Chez les premiers mammifères, les mélanosomes se sont révélés étonnamment uniformes : « Nous avons constaté que la diversité des mélanosomes dans les poils fossiles était bien plus faible que dans les plumes fossilisées des dinosaures et des premiers oiseaux« , explique le reponsable de l’équipe Matthew Shawkey.

Contrairement aux dinosaures à plumes, qui affichaient un éventail de teintes allant du rouge au bleu iridescent, les mammifères du Mésozoïque avaient adopté une palette de couleurs sombres, sans motifs ni nuances marquées. « Cette coloration était principalement utilisée pour le camouflage mais cela pourrait aussi être lié à des facteurs métaboliques. Le système de la mélanocortine (une hormone) contrôle la production de mélanine et intervient également dans le métabolisme, le comportement, etc. Ainsi, la faible diversité est peut-être liée à une différence au sein du système de la mélanocortine. Mais cela mérite d’être approfondi« 

Un bouleversement après la disparition des dinosaures

Si la sobriété chromatique a dominé le règne des premiers mammifères, la situation change radicalement après l’extinction de la fin du crétacé qui a causé la disparition de tous les dinosaures, à l’exception des oiseaux. »L’extinction des dinosaures a probablement libéré la couleur pour d’autres fonctions que le camouflage« .

En explorant de nouveaux écosystèmes, les mammifères ont commencé à utiliser leur pelage pour la sélection sexuelle, la communication et la thermorégulation.

Grâce à ces analyses, les chercheurs montrent l’apparence des premiers mammifères et renforcent l’idée qu’ils menaient une existence furtive, dissimulés dans l’ombre des grands reptiles du Mésozoïque. Une couleur qui, pour eux, était synonyme de survie.

Dans les prochaines années, les chercheurs expliquent qu’il faudra mieux étudier les mammifères de la fin du crétacé et du début du paléogène afin de mieux comprendre quand et comment la couleur de leur fourrure a commencé à se diversifier. Ils souhaitent aussi mieux explorer les relations entre la couleur de la fourrure et le métabolisme.

27/09/2025.La vie dans l’univers

Dans un article précédent, nous écrivions « 

Les galaxies sont des groupes de milliards d’étoiles. Ces dernières sont liées entre elles par la gravité, ce phénomène qui attire entre eux tous les corps qui ont une masse. Les galaxies contiennent aussi les planètes tournant autour des étoiles, du gaz, de la poussière. Ainsi que de la matière noire (une substance omniprésente dans l’Univers, invisible à nos yeux et nos instruments, mais détectée par les scientifiques de manière indirecte).

Les galaxies elles-mêmes s’agglomèrent en amas de galaxies, toujours en raison de la gravité. L’Amas de la Vierge, par exemple, compte près de 2 000 galaxies. Et ces amas sont eux-mêmes regroupés en superamas de galaxies ! Ils seraient quelques millions dans l’Univers visible.

Ceci signifie en bonne logique que la vie est apparue, comme elle l’a fait sur la Terre, et selon des processus voisins, sur les planètes habitables qui gravitent autour des étoiles constituant le point central des systèmes solaires formant les constellations puis les galaxies.

Ce seraient donc des centaines de milliards de milliards (nous ne faisons pas le calcul), de planètes susceptibles d’abriter la vie que l’on pourrait identifier dans l’univers visible.

Certes cette vie ne donnerait pas partout naissance à des espèces vivantes intelligentes semblables à l’espèce humaine. Mais à l’inverse, elle pourrait produire sur le mode hasard et nécessité des espèces plus intelligentes que l’espèce humaine, éventuellement susceptibles de se déplacer d’une planète à l’autre.

Ces êtres n’utiliseraient pas forcément poue cela les procédures de la physique newtonnienne qui fixenr des limites strictes à ce que qu’elle définit comme le temps et l’espace.

De plus, elles pourraient faire appel à la physique quantique pour laquelle le temps et l’espace sont des concepts relatifs.

On objectera que la physique quantique ne s’applique pas dans le cadre de la physique ordinaire qui nous concerne. Nous ne sommes pas faits de qubits mais de blits classiques. Cependant nous commençons à maitriser les deux domaines, au moins au niveau microscopique.

Il n’est pas exclu que nos descendants apprennent à utiliser les particules quantiques au sein même de leur organisme, afin de passer aisément du biologique au quantique et réciproquement.

Dans ce cas, pourquoi dans les milliards de galaxies aujourd’hui identifiés, des êtres que nous qualifiions d’extraterrestres ne viendraient ils pas nous visiter ?

Référence

    A Deep Search for Ethylene Glycol and Glycolonitrile in the V883 Ori Protoplanetary Disk

    Published 2025 July 24 • © 2025. The Author(s). Published by the American Astronomical Society.
    The Astrophysical Journal Letters, Volume 988, Number 2

    Abstract

    Ethylene glycol (; hereafter EG) and glycolonitrile (; hereafter GN) are considered molecular precursors of nucleic acids. EG is a sugar alcohol and the reduced form of glycolaldehyde (CH2(OH)CHO; hereafter GA). GN is considered a key precursor of adenine formation (nucleotide) and can be a precursor of glycine (amino acid). Detections of such prebiotic molecules in the interstellar medium are increasingly common. How much of this complexity endures to the planet formation stage, and thus is already present when planets form, remains largely unknown. Here we report Atacama Large Millimeter/submillimeter Array observations in which we tentatively detect EG and GN in the protoplanetary disk around the outbursting protostar V883 Ori. The observed EG emission is best reproduced by a column density of and a temperature of at least 300 K. The observed GN emission is best reproduced by a column density of and a temperature of

    K. Comparing the abundance of EG and GN relative to methanol in V883 Ori with other objects, V883 Ori falls between hot cores and comets in terms of increasing complexity. This suggests that the buildup of prebiotic molecules continues past the hot core phase into the epoch of planet formation. Nascent planets in such environments may inherit essential building blocks for life, enhancing their potential habitability. Further observations of this protoplanetary disk at higher spectral resolution are required to resolve blended lines and to confirm these tentative detections.

    les galaxies coordonntent elles leurs trajectoies?



    Les galaxies sont des groupes de milliards d’étoiles. Ces dernières sont liées entre elles par la gravité, ce phénomène qui attire entre eux tous les corps qui ont une masse. Les galaxies contiennent aussi les planètes tournant autour des étoiles, du gaz, de la poussière. Ainsi que de la matière noire (une substance omniprésente dans l’Univers, invisible à nos yeux et nos instruments, mais détectée par les scientifiques de manière indirecte). Les galaxies elles-mêmes s’agglomèrent en amas de galaxies, toujours en raison de la gravité. L’Amas de la Vierge, par exemple, compte près de 2 000 galaxies. Et ces amas sont eux-mêmes regroupés en superamas de galaxies ! Ils seraient quelques millions dans l’Univers.

    Ordres de grandeur

    À notre échelle, les galaxies sont des objets célestes dont on a bien du mal à saisir l’immensité. C’est pour cela qu’on les mesure en années-lumière (a-l). Par exemple, l’énorme Galaxie d’Andromède étend ses 1 000 milliards d’étoiles sur 2,5 millions a-l. Autrement dit, si vous voyagiez à la vitesse de la lumière (300 000 km/s), il vous faudrait 2,5 millions d’années pour traverser Andromède d’un bout à l’autre ! Les plus petites sont appelées galaxies naines : elles ne contiennent au maximum « que » quelques centaines de millions d’étoiles. La galaxie naine de la Carène par exemple s’étire sur 1 600 a-l. 

    Les galaxies spirales

    Elles représentent plus de 65% de l’ensemble des galaxies. Elles possèdent un cœur central à partir duquel se déploient des bras, en spirales, le tout formant un disque plat. Elles tournent sur elles-mêmes : les étoiles qui la composent sont en rotation autour du centre, leurs mouvements sont plutôt ordonnés.

    Les galaxies elliptiques

    Elles ont la forme d’une ellipse, d’un ovale plus ou moins allongé. Certaines sont presque sphériques, alors que d’autres ont carrément la forme d’un cigare, tant elles sont étirées. Ici, le mouvement des étoiles n’est pas ordonné, il est aléatoire. En gros, les étoiles y tournent dans tous les sens. 

    Les galaxies irrégulières

    Elles ne représentent que 10% des galaxies et n’ont pas de forme spécifique. La plupart sont naines, contenant moins d’un milliard d’étoiles. Elles orbitent souvent autour de galaxies plus grosses.

    Les galaxies ne sont pas statiques – rien ne l’est dans l’Univers. Elles semblent se déplacer sous l’effet de l’expansion : l’Univers se dilatant, les galaxies qui le composent s’éloignent les unes des autres. Dans le même temps, à une échelle plus « locale », certaines se rapprochent du fait de la gravité. Notre galaxie, la Voie Lactée, file ainsi dans le cosmos à plus de 2 millions de km/h, du fait de ces effets physiques.

    De plus, les galaxies peuvent interagir entre-elles : elles peuvent entrer en collision, fusionner… On parle même de cannibalisme galactique lorsqu’une galaxie absorbe une petite voisine. Cette dernière se disloque complètement à l’intérieur de la grande, qui, elle, ne change quasiment pas.

    Galaxies et constellations

    Les constellations sont des groupements d’étoiles imaginés par les humains en raison de la forme qu’elles dessinent, lorsqu’on les regarde dans le ciel. Elles semblent ainsi voisines, alors qu’elles sont en fait assez éloignées les unes des autres. La constellation d’Andromède forme un dessin avec environ 200 étoiles appartenant à notre galaxie, visibles à l’œil nu, alors que la galaxie d’Andromède en compte 1 000 milliards !

    La Voie lactée

    La Voie Lactée est notre galaxie, dans laquelle se trouvent le Soleil et ses planètes, dont la Terre. Il s’agit d’une galaxie spirale regroupant environ 300 milliards d’étoiles. Elle forme une galette dont le diamètre fait 100 000 années-lumière, et l’épaisseur « seulement » 1 000 a-l. Nous nous trouvons vers l’extérieur de cette galette, dans l’un des bras, à 27 000 a-l du centre. Depuis la Terre, nous voyons la Voie Lactée par sa tranche : elle apparaît ainsi comme une bande qui traverse notre ciel. Une bande blanchâtre, couleur du lait, du fait de l’accumulation des étoiles dont les lumières se confondent. Voilà pourquoi elle s’appelle la Voie Lactée. 

    Au cœur de la Voie Lactée (comme c’est le cas pour la majorité des galaxies) se trouve un trou noir supermassif, Sagittarius-A* : il est lourd comme 4,5 millions de Soleil. La Voie Lactée possède également une cinquantaine de galaxies satellites, qui lui tournent autour. Il s’agit de galaxies naines. Comme elles contiennent peu d’étoiles, elles sont peu lumineuses donc pas visibles.

    L’aide des galaxies-naines

    Cependant construire un bon modelé 3D du système requiert de connaître avec précision les positions des galaxies satellites. C’est ce qu’observe un article de Rachael Beaton des Carnegie Observatories de Californiie. Une incertitude de 5% sur les positions des galaxies satellites est trop optimiste.

    Pour connaître la distance entre ces galaxies et Centaurus B, éloigné de 10 à 15 années lumière, les astronomes s’appuient s sur la lumière émise par des étoiles repères pouvant servir de référence. https://fr.wikipedia.org/wiki/Rep%C3%A9rage_des_constellations

    Mème en faisant appel à ces solutions les mesures sont approximatives

    Science DOI: 10.1126/science.aao1858

    20/09/2023 Des implants futuristes pour remplacer les nerfs brisés.

    Dans tout accident grave, ce ne sont pas seulement les os de l’accidenté qui se brisent mais ses nerfs, nerfs moteurs ou nerfs sensoriels. Il se retrouve dans incapacité d’accomplir un mouvement volontaire ou de ressentir quelque chose.

    Aujourd’hui cependant des implants futuristes sont à l’étude. Il s’agit de nouvelles technologies électroniques en charge de remplacer les nerfs vivants détruits par des implants artificiels flexibles comportant des cellules nerveuses vivantes incorporées.

    Ainsi un nageur ayant brisé son cou en plongeant dans une eau peu profonde a reçu dans le cerveau un implant expérimental en charge de re-enroulerautour de son épine dorsale brisée les nerfs commandant les mouvements de ses bras. Après un long apprentissage il put même jouer de la musique sur le clavier d’un instrument.

    Les porteurs de stimulateurs cardiaques ou pace-maker le savent bien. Ce matériel artificiel rigide s’accommode mal de la nécessité de travailler dans ce milieu vivant qu’est le corps humain. De temps en temps il faut les remplacer.

    https://www.istanbulmedassist.com/fr/blog/chirurgie-de-remplacement-dun-stimulateur-cardiaque-les-raisons-les-types-et-ce-a-quoi-il-faut-sattendre/

    Aujourd’hui cependant un nouveau type d’électronique est développé dans divers laboratoires mondiaux.

    Il s’agit d’implants faits d’un matériel flexible qui s’enroule le long des nerfs et des muscles. Certains d’entre eux comportent des cellules vivantes qui grandissent avec lui. On parle aujourd’hui de l’electronique vivante, « living electronics ».

    Cela fait des siècles que l’on sait que l’électricité et la biologie ne sont pas incompatibles. Aujourd’hui, l’on a compris que le corps humain est le siège de mltiples courants électriques qui commandent tout, depuis les battements de coeur jusqu’àla cicatrisation des plaies .

    Demain des implants interviendront dans les circuits complexe, des implants dans le cerveau pour atténuer les effets de la maladie de Parkinson, des implants cochléaires destinés à réparer l’audition et des implants rétiniens destinés à restituer la vue.

    Dans ces domaines la société la plus connue est Neuralink d’Elon Musk

    16/09/2025 Entre l’ordre et le chaos. Le rôle crucial du cerveau

    Que le cerveau humain passe constamment de l’ordre au désordre est une hypothèse de plus en pls crédible. Elle change notre compréhension de l’intelligence, de la conscience et de la créativité

    source David Robson

    1 Septembre 2025

    Les actes courants du cerveau humain , tels que se souvenir de son âge ou lire le journal, paraissent simples. En fait ils exigent la contribution d’un cerveau qui depuis des millénaires est passé de la complexité du cerveau de la mouche à celle du cerveau de l’homo erectus puis de l’Homo sapiens.

    Le cerveau d’ne larve de mouche compte 3000 neurones. Celui d’une mouche adulte possède 140.000 neurones et 54 millions de synapses. Celui de l’homme adulte compte environ 10 millards de neurones (5 oct. 2024)

    Les ingénieurs qui aujourd’hui participent au développement de l’Intelligence Artificielle l’ont bien compris.

    Les 3, 3 kilogrammes du cerveau hmain permettent sans ordinateur les calculs les plus complexes de tour l’univers, rappelle Keith Hengen, biologiste à la Washington University à St Louis.

    Comment le cervea humain, ce petit morceau de matière grise, a-t-accédé à cette compexité ? En fait, elle découlerait non de la complexité du cerveau mais de son désordre.

    Les chercheurs nomment cette idée l’hypothèse de la zone critique, critical braiin hypothesis https://en.wikipedia.org/wiki/Critical_brain_hypothesis

    Elle signifierait qe le cerveau travallerait en permance au bord du chaos, entre l’ordre et le désordre. Dans ces sitations, le plus petit des événements peut avoir les conséqensces les plus étendues.

    De façon surprenante les systèmes travaillant dans la nature au bord des précipices sont régis par des principes mathématiques précis. Ceux-ci pourraient expliquer l’exceptionnelle efficacité et flexibilité de notre cerveau.

    L’idée que le système électrique de connexion du cerveau puisse suivre les mêmes règles que la nature dans le cas des désastres natrels paut sembler absurde mais de nombreux neurophisiologistes outre Hengen qont arrivés aux mêmes conclusions. Selon le Dr Karim Jerbi, de l’University of Montreal, elle permet de prévoir les effets des médicaments altérant le fonctionnement du cerveau et de diasgnostiquer la maladie d’ Alzheimer avec une plus grande precision.

    Elle permettrait même d’expliquer pourquoi certaines personnes semblent plus intelligentes que d’autres. Dans d’autres domaines elle pourrait permettre de prévoir les effets réparateurs du sommeil et comprendre les origines et les effets de la conscience elle-même, chez les animaux comme chez les humains.

    Une hypothèse à portée universelle.

    Les origines de l’hypothèse de la zone critique du cerveau remontent au physicien danois dans les années 1980 et 1990. Il avait découvert que la transmission des feux de forêts obéissait aux memes lois atteindre un sommet puis disparaître en ne laisssant aucun arbre vivant.

    Dans les,années 2000, les neuroscientiques avaient découvert que l’activité electrique du cerveau obéissait aux mêmes lois Elle pouvait se développer comme une avalanche grâce aux connections synaptiques selon Jordan O’Byrne, PhD University of Montreal, qui récemment a publié un article à ce sujet.

    a suivren non traduit

    This chain reaction sounds exactly like the kind of system that might straddle the tightrope between order and disorder. To test the idea, John Beggs, at Indiana University in Bloomington, and Dietmar Plenz at the US National Institute of Mental Health in Bethesda, Maryland, took slices from rats’ brains and measured the electrical activity of neurons as they spontaneously fired within a Petri dish.

    Brain imaging studies are shedding light on the role of chaos in our grey matter

    Luca Sage/Getty Images

    They found that, on average, each active neuron prompted just one other neuron to fire as a result of its signalling – a number that, according to the maths, represents the brain’s tipping point. Much higher, and the avalanches could spread uncontrollably; much lower, and activity would fizzle out before it really got started. The rat brain slices were showing exactly the kind of scale-invariance and power law distribution that characterise other critical systems.

    The brain’s electrical activity builds on itself much like an avalanche

    Multiple studies have since identified signs of criticality in other forms of neuronal behaviour, like the synchronisation of different brain regions. It has also been observed across many different species, including zebrafish, cats, monkeys and – of course – humans.

    Along the way, there have been a few contradictory results, however, with some researchers failing to find the characteristics of criticality – such as power laws – in their measurements of brain activity. According to Hengen, these controversies pushed scientists in the field to use more sensitive recordings of neural activity and more sophisticated mathematical techniques to analyse the results. “The sceptical groups are, in my opinion, the best thing that ever happened for studying criticality in the brain,” he says. “They forced the field to dig deeper.”

    Working with Woodrow Shew, a physicist at the University of Arkansas, Hengen examined data from 320 existing experiments and showed that the apparently contradictory results could be reconciled with the hypothesis if you use new statistical tests of criticality. Their paper was published in Neuron, one of the most influential neuroscience journals, in June.

    Exactly how close someone’s brain lies to a tipping point may depend on many different factors, such as the connectivity of the networks and the balance of neurotransmitters in our synapses. “There’s a zone of healthy brain function around criticality,” says Shew.

    This helps us to adapt our thinking depending on circumstances. “It gives the brain some room to modulate its level of criticality dynamically in response to certain situations or tasks,” says O’Byrne.

    Intelligence and creativity

    That the healthy brain, while awake, never seems to veer too far from criticality suggests it must carry some serious advantages. The first is the breadth of information transmission and processing. Thanks to the scale-invariance of critical systems, signals can be passed over both small and large distances, which enables communication both within and between many different brain regions. The result is vastly more computational power. “The brain can explore the entire space of solutions,” explains Hengen.

    Lying between order and disorder may also help the brain to adapt to new situations. “It allows the brain to be both stable enough to make sense of the world and dynamic enough to optimally respond to it,” says Jerbi. “We believe the brain operates near this edge of chaos because it’s the ideal zone for complex thinking, learning, decision-making and adapting to new situations.”

    If this were the case, you would predict that small differences in the brain’s proximity to the critical point would influence someone’s overall cognitive function – and that is exactly what Naoki Masuda, now at the University of Michigan, and his colleagues found in 2020.

    Luca D’Urbino

    The team asked 138 adults to take tests to measure “fluid intelligence” – the ability to apply logic and reasoning to solving novel problems – which was then compared with measures of brain activity taken from fMRI scans. Sure enough, Masuda and his colleagues found that the brains of people with higher scores tended to lie closer to the boundary between order and chaos than those with lower scores – which is exactly what you would expect if criticality enhanced the brain’s information processing and calculation.

    The enhanced flexibility arising from the critical zone could be seen in an experiment by cognitive scientist Jaana Simola and her colleagues at the University of Helsinki in Finland. The participants had to play a computer game that constantly changed its rules, which required them to update their approach on the fly. The closer their brains were to the critical point, the better they performed.

    Jerbi suspects the brain’s proximity to the critical point may be especially important for creativity – a form of thinking that isn’t measured in standard IQ tests. “Creativity emerges from the brain’s ability to explore novel ideas while maintaining enough structure to make them meaningful,” he says. “Criticality may provide the optimal neural environment for this process, allowing the brain to shift fluidly between spontaneous, divergent thought and focused, goal-directed reasoning.”

    Read more

    What are the best ways to improve your cognitive reserve?

    Large departures from the critical zone – either into order or disorder – may result in serious brain dysfunction. “While criticality gives the brain its edge, it also means that small shifts – due to illness, stress or injury – can sometimes push it into less optimal or even harmful states,” says Jerbi.

    Alzheimer’s disease is a case in point. Various studies have shown that Alzheimer’s-affected brains often suffer some serious damage before the patients begin to demonstrate a rapid decline in their thinking. This may mark the moment when the brain struggles to remain within the critical zone, producing a serious dip in its computational abilities. “There comes a point where, if you take out enough nodes from a network, you now really start to see the richness of the network fall right off,” says Vincent Zimmern, a PhD student at Paris-Saclay University who recently authored a paper on the clinical applications of criticality.

    Why we sleep

    The potential implications of brain criticality have started to attract widespread attention from other neuroscientists. “General interest has been growing at an accelerating pace in recent years,” says O’Byrne. “The word is getting out.” And that has led to ever more ambitious proposals for what the phenomenon might explain.

    Hengen, for instance, wonders whether sleep may have evolved to return the brain to its critical point. His studies of rats already provide good evidence that fatigue is intimately linked to the brain’s criticality. “The strongest predictor of whether or not an animal is going to be awake or asleep in the next hour is its proximity to criticality,” he says. “The closer you get to the critical point, the more likely you are to be awake. And the further you are from the critical point, the more likely you are to be asleep.”

    It seems that the longer we work the brain, the further it moves from the tipping point, while sleep helps to tune it back into the critical zone. Without that rest period, the brain would fail to reach its optimum state, resulting in the reduction of cognitive performance that has long been known to accompany insomnia. The length and quality of sleep can even influence automatic processes like breath control, says Hengen. Such widespread effects suggest that sleep evolved to address a basic underlying factor that governs all its processing – and that, he argues, is its proximity to the critical point.

    O’Byrne is of the same mind. “One of the functions of sleep – and perhaps its most important function – may be to allow the brain’s connections to be recalibrated and to return whole-brain dynamics to the critical point.”

    Chemical crutches such as caffeine may reduce fatigue by pushing the brain towards criticality, but that comes at a price. Jerbi’s University of Montreal colleague Philipp Thölke recently invited participants to sleep in a laboratory on two separate nights. On one occasion, they were given 100 mg doses of caffeine – the equivalent of a strong espresso – 3 hours and then 1 hour before their bedtime. On the other, they went cold turkey. The researchers then asked them to wear an electroencephalography (EEG) headcap with electrodes that could measure their brain’s electrical activity as they slept.

    The team found that caffeine consistently moved the brain closer to the critical point during sleep. “It kept the brain in a semi-alert state,” says Jerbi, who was a co-author of the paper, which was published earlier this year. The result may not be just a restless night; by reducing our time out, caffeine may prevent the brain from bouncing back to its full potential by the morning. “It potentially interferes with the restorative functions of sleep.”

    Brain criticality could even help us unlock the enduring mystery of consciousness. It is a notoriously tricky concept to define precisely, but most neuroscientists and philosophers agree that, at its most basic, consciousness involves a “subjective perspective” – be that in real life or even a dream – that includes perceptions or mental images with distinct qualities, such as colour and shape.

    Why your chronotype is key to figuring out how much sleep you need

    Is 8 hours of sleep really the right amount for you? Understanding your personal chronotype could be a better way to approach how much time you should spend in bed

    According to one leading hypothesis, called integrated information theory, this subjective perspective arises from the way data is processed and combined in the brain, so that the integrated total is more than the sum of its parts. Intriguingly, mathematical models suggest that measures of information integration peak when the brain approaches the critical point, which would mean that it is essential for the awareness of our thoughts, feelings and sense of self.

    One way to test this theory has been to examine the effects of different anaesthetics. Xenon and propofol, for instance, appear to eliminate all conscious experience. Ketamine, by contrast, produces a state of dissociation that cuts the patient off from the outside world without removing awareness entirely. They can still experience vivid dreams that are filled with very strong sensations and a sense of self, for instance.

    In a paper published last year – whose authors include Charlotte Maschke and Stefanie Blain-Moraes at McGill University, as well as O’Byrne – it was found that the brains of patients under ketamine remained near the critical zone, whereas the brains of those who had taken xenon or propofol moved away from the tipping point. “This seems to suggest that brain criticality is a necessary condition for consciousness, though more work will be needed before we can say this with more confidence,” concludes O’Byrne.

    Tuning the brain

    Given the role that criticality plays in our thinking, it is natural to wonder whether we can learn how to tune the brain’s position within the critical zone. Wouldn’t it be useful to edge the brain away from it before bed, for instance, or bring it closer to the tipping point when we need to process complex information or brainstorm new ideas?

    Hengen is currently on the case. “Woody [Shew] and I are doing some cool stuff examining whether you can influence a brain’s proximity [to] criticality in a way that promotes complex learning.” He is coy about the details, though he says that it involves crafting sleep patterns – and that his experiments with animals are already revealing impressive results.

    Another option is meditation, though we have to be careful about the specific kind we use. Practices like Samatha meditation, which involves intense focus on a single sensation, such as your breath, would lead the brain to move away from the critical point. “This makes sense, since criticality is a state of maximum sensitivity and flexibility, but during focused-attention meditation, you’re trying to tune out distractions and ‘crystallise’ your mind in order to bring out certain important details,” says O’Byrne.

    Certain forms of meditation can coax your brain further towards the tipping point

    /LightRocket via Getty Images

    Vipassana, or open-monitoring meditation, on the other hand, encourages a non-judgemental awareness of all thoughts, feelings and sensations that pass through the mind. “Here, we would expect criticality to instead be increased, so as to become maximally sensitive to the environment,” says O’Byrne. And a new analysis from Annalisa Pascarella at Italy’s National Research Council provides tantalising evidence for this idea.

    The study looked at data from 12 Buddhist monks at the Santacittārāma monastery near Rome, recorded by Laura Marzetti and her team at the University of Chieti-Pescara in Italy. The monks had been asked to engage in Samatha and Vipassana for 6 minutes each while their brain activity was measured with a magnetoencephalography (MEG) headcap – a technique that is similar to EEG but offers a more detailed characterisation of brain activity.

    Chronic inflammation messes with your mind. Here’s how to calm it

    From depression to dementia, we are now realising the profound impacts of long-term inflammation on the brain. A better understanding of the underlying mechanisms is unlocking new treatments to protect our cognitive function and mental health

    As hypothesised, the researchers found that the focused Samatha meditation moved the brain away from the tipping point, while the Vipassana open-monitoring meditation moved the brain towards it. “They were able to make their brains even more critical than during normal resting wakefulness,” says O’Byrne, a co-author of the paper. The study is now available as a pre-print and is awaiting peer review. The results suggest that, with enough practice, it seems we can shift the brain’s activity at will, allowing us to achieve the perfect state of mind for the task at hand.

    It’s worth noting that each monk had accumulated more than 2000 hours of meditation experience, but new technologies could eventually ease that process. Jerbi – who was also a co-author of the Buddhist meditation paper – points to something called neurofeedback. This presents users with a visual representation of the brain’s activity, using portable EEG, as they practice, which is thought to speed up the training of certain meditative techniques.

    In the meantime, we might simply learn to appreciate our slightly chaotic minds a little more. Those moments of mild scattiness may simply be a sign that we are sitting comfortably in the critical zone, with all the benefits that provides.

    Topics

    16/09/2025 De nouveaux progrès dans le développement des interfaces cerveau-machine








    L’interface
    cerveau-machine est une technologie qui connecte notre cerveau
    directement à des machines, permettant d’agir par la pensée, sans
    intervention du corpsLe principe
    repose sur un système de réception des signaux électriques émis
    en temps réel par les neurones. Ces signaux sont par la suite
    traités par des algorithmes informatiques et traduits en tâches.

     Le domaine des interfaces
    cerveau-machine
    connaît
    une expansion rapide, ouvrant la voie à une liste impressionnante
    d’applications potentielles tels que le
    neurofeedback,
    les prothèses et exosquelettes

    notamment.

    Issu de la convergence entre
    les neurosciences
    et le domaine de l’intelligence artificielle
    ,
    les interfaces cerveau-machine font l’objet de nombreuses
    recherches allant de la
    restauration
    de la mobilité pour les personnes paralysées à l’amélioration
    de la communication pour les individus atteints de troubles de la
    parole.
     

    Le domaine des interfaces cerveau-machine connaît une expansion rapide, ouvrant la voie à une liste impressionnante d’applications potentielles tels que le neurofeedback, les prothèses et exosquelettes notamment.

    Issu de la convergence entre les neurosciences et le domaine de l’intelligence artificielle, les interfaces cerveau-machine font l’objet de nombreuses recherches allant de la restauration de la mobilité pour les personnes paralysées à l’amélioration de la communication pour les individus atteints de troubles de la parole.

    Récemment, des avancées majeures dans le domaine des interfaces cerveau-machine ont été réalisées grâce à l’utilisation de l’intelligence artificielle (IA), permettant à deux patients paralysés pour cause de troubles neurologiques et n’ayant plus l’usage de la parole, de communiquer avec une précision et une rapidité sans précédent.

    Dans deux études distinctes publiées dans la revue Nature, les équipes de Jaimie Henderson et d’Edward Chang, décrivent des interfaces cerveau-machine capables de traduire les signaux neuronaux en texte et en paroles émises par un automate vatar ayant une voix synthétique.

    Ces interfaces cerveau-machine peuvent décoder respectivement la parole à une vitesse de 62 mots par minute et 78 mots par minute. Bien qu’une conversation normale se déroule à environ 160 mots par minute, ces nouvelles technologies sont plus rapides que toutes les tentatives précédentes.

    Pour parvenir à ces réalisations, les chercheurs ont utilisé des électrodes et des algorithmes. Ils ont implanté des électrodes dans le cerveau des patientes pour capturer les signaux neuronaux liés à la parole, plus précisément à la production de phonèmes, unités sonores distinctives du langage parlé.

    n utilisant l’IA, ils ont pu décoder ces signaux en mots et en phrases. Les résultats ont été impressionnants : des taux de décodage élevés, même si des améliorations sont encore nécessaires.

    Ces réqltats offrent uneespoir aux personnes atteintes de paralysie faciale leur offrant la possibilité de communiquer à nouveau et d’interagir avec le monde.

    Cependant, bien que ces avancées soient remarquables, les chercheurs alertent sur le fait que ces interfaces cerveau-machine ne sont pas encore utilisables en clinique, et qu’il ne s’agit que pour le moment d’une preuve de concept non non généralisable. De plus, l’utilisation d’une intelligence artificielle demznde de longs entraînements avant de pouvoir décoder les signaux et retranscrire des phrases.

    La recherche continue dans ce domaine et amène l’espoir d’un avenir où la technologie permettrait de restaurer les fonctions qui seraient atteintes par les dysfonctionnements du cerveau. 

    Sources :

    • Interface cerveau-machine (ICM), INSERM, 2015
    • Brain-reading devices allow paralysed people to talk using their thoughts, Nature 620, 930-931 (2023)

    16/09/2025 Et si Poutine voulait vraiment une guerre contre l’occident ?

    Selon certains propos d’ambassade, que beaucoup de stratèges à l’Ouest prennent très au sérieux, Vladimir Poutine envisagerait désormais la perspective d’une guerre nucléaire préventive avec l’Occident.

    Selon ces propos, il serait désormais persuadé que Washington , autrement dit le complexe militaro-industriel américain verrait avec inquiétude la Russie se doter de nouvelles armes contre lesquelles ce complexe n’a pas encore eu le temps de mettre en place de répliques proportionnées. Il s’agit notamment des missiles balistiques hypersoniques « Kinjal » et des missiles de croisière « Zircon » appartiennent à une famille d’armes récemment développées par la Russie et que Poutine qualifie d’invincibles.

    Ces armes, comme l’a plusieurs fois rappelé Vladimir Potine, sont là pour dissuader l’Occident et le cas échant la Chine, d’attaquer la Russie pour la faire disparaitre.

    Il serait en effet convaincu que l’Occident chercherait désormais à détruire la Russie avant que celle-ci ait des forces suffisantes pour rendre ce projet inopérant

    Sans être dans les secrets de la Maison Blanche, on peut penser que celle-ci mettrait pas en exécution un tel projet. Ce serait déclencher une guerre mondiale dont aucun Etat ne sprtirait ivantt vivant. Mais il semble que l’opinion publiqe russe n’en soit par convaincue

    Potine pourrait jouer de cette ambiguité pour faire admettre une guerre préventive contre les Etats Baltes, la Pologne voire l’Allemagne, sans attendre d’être nucléarisé.

    Qant à la France, il y réfléchirait à deux fpos








    16/09/2025 La collaboration Desi observe le cosmos. Premiers résultats

    Depuis plus de 25 ans, l’énergie noire est considérée comme une constante cosmologique, responsable de l’accélération de l’expansion de l’Univers. Mais les nouvelles analyses de l’instrument DESI, https://www.desi.lbl.gov/ç publiées le 19 mars 2025, remettent en question ce jugement.

    En s’appuyant sur l’étude de millions de galaxies, les chercheurs suggèrent que cette force mystérieuse qu’est l’énergie noire évolue dans le temps. Une découverte majeure qui pourrait éclairer d’autres énigmes cosmologiques, comme la masse des neutrinos ou la mesure de l’expansion de l’Univers.

    L’instrument DESI (Dark Energy Spectroscopic Instrument) installé sur le télescope de Kitt Peak en Arizona a cartographié 40 millions de galaxies situées entre 1 milliard et 12 milliards d’années-lumière de nous

    La cosmologie est-elle à la veille d’une révolution ? Les résultats de la collaboration DESI (Dark Energy Spectroscopic Instrument), publiés le 19 mars 2025 sur le site ArXiv, donne envie d’y croire… Ce deuxième lot de données (DR2) confirme une tendance déjà observée en avril 2024 : l’énergie noire, responsable de l’accélération de l’expansion cosmique, ne serait pas une constante, mais une force en évolution. « Ce que nous avions détecté il y a un an maintenant est confirmé avec presque trois fois plus de mesures selon Nathalie Palanque-Delabrouille, astrophysicienne et porte-parole de la collaboration DESI de 2018 à 2024. Il ne s’agit pas d’un simple effet statistique. L’énergie noire semble bel et bien évoluer dans le temps, ce qui constitue un changement majeur de paradigme en cosmologie. »

    La tendance annoncée par les chercheurs peut être considérée comme très solide.L’énergie noire serait donc « dynamique ». Un résultat qui pourrait aussi débloquer une autre énigme tenace du cosmos comme la masse des neutrinos, et apporter de nouveaux éléments sur la constante de Hubble qui mesure l’expansion de l’Univers, et dont la valeur fait débat.

    Une énergie noire plus « forte » par le passé qu’aujourd’hui

    DESI est un instrument installé sur le Kitt Peak en Arizona et opérationnel depuis mai 2021. Son objectif final est de répertorier 40 millions de galaxies situées entre 1 milliard et 12 milliards d’années-lumière de nous. De quoi constituer la carte la plus précise de l’Univers, de sa composition et de son évolution.

    On sait que l’Univers est en expansion accélérée, un phénomène découvert en 1998 et attribué à cette mystérieuse force qualifiée faute de mieux d’ »énergie noire ». Jusqu’à présent, les observations semblaient compatibles avec une interprétation simple : cette énergie serait une constante cosmologique, une propriété intrinsèque de l’espace-temps, une pression du vide répulsive et répartie de manière uniforme.

    Les nouveaux résultats du projet DESI bouleversent cette vision… Ils s’appuient sur l’étude des oscillations acoustiques des baryons (BAO).

    « Les BAO sont le résultat d’ondes de pression qui ont parcouru l’Univers primordial avant que la lumière puisse s’en échapper, 380.000 ans après le Big Bang . Cette première lumière constitue le fond diffus cosmologique Ces ondes ont créé des endroits plus denses en matière et énergie que d’autres. Cela a constitué une empreinte caractéristique dans la distribution des galaxies que nous pouvons encore observer aujourd’hui. » 

    En effet, l’écart qui sépare les amas de galaxies, environ 450 millions d’années-lumière, est la conséquence directe de ces inhomogénéités qui ont grandi avec lui. « Les BAO n’évoluent que sous l’effet de l’expansion de l’Univers, confirme l’astrophysicienne. En les mesurant à différentes époques, nous retraçons la manière dont l’Univers s’est dilaté. Cela en fait l’un des outils les plus puissants dont disposent les cosmologistes pour mesurer l’expansion de l’Univers et contraindre la nature de l’énergie noire. Grâce à DESI, nous avons la capacité de le faire avec une précision inégalée. » 

    Les mesures révélées le mercredi 19 mars 2025 indiquent donc que l’action de l’énergie noire apparaîtrait plus forte par le passé qu’aujourd’hui. Elle n’est donc pas une constante…

    Plusieurs hypothèses à l’étude pour déterminer sa nature

    Alors, qu’est-elle ? La question est d’autant plus cruciale que DESI fermerait la porte à des théories excluant l’énergie noire. Dans ce cas, l’accélération de l’expansion de l’Univers pourrait s’expliquer par une modification des lois de la gravitation, sans recourir à une mystérieuse énergie. Pour tester cette hypothèse, DESI a étudié en détails la manière dont les galaxies se regroupent sous l’effet de la gravité, un phénomène connu sous le nom de « clustering ».

    Et jusqu’à présent, aucune anomalie n’a été détectée : la gravité semble bien suivre les prévisions de la relativité générale d’Einstein, même à des échelles colossales de plusieurs milliards d’années-lumière.

    « Nos données confirment que la gravité fonctionne comme prévu, ce qui renforce l’idée que l’accélération de l’expansion est bel et bien due à une composante énergétique supplémentaire, l’énergie noire. », conclut la chercheuse. Si l’énergie noire n’est pas une constante cosmologique, ni une illusion due à la gravitation, il faut envisager d’autres hypothèses qui sont sur la table depuis des années déjà. L’une des plus étudiées est la quintessence, qui suppose que l’énergie noire est portée par un champ scalaire dynamique. Ce concept revient à considérer que les particules se trouvent uniquement sous la forme d’un champ d’énergie. C’est un peu comme lorsque vous versez des gouttes d’eau dans un verre : elles cessent d’exister sous la forme de gouttes pour se diluer dans le contenu du verre, constituant « un champ de gouttes d’eau ».

    L’avantage de la théorie des champs, c’est que l’on peut trouver des configurations où la pression exercée par le champ est effectivement répulsive, une caractéristique fondamentale de l’énergie noire. Par ailleurs, ces champs scalaires existent : le boson de Higgs par exemple, responsable de la masse des particules, est la particule associée au champ scalaire de Higgs.

    Mais il reste à trouver quel est le champ responsable de l’énergie noire… « Ce que nous voyons, c’est que l’énergie noire semble évoluer de manière assez marquée, ce qui pose un problème pour certains modèles de quintessence classiques », souligne Nathalie Palanque-Delabrouille.

    Masse des neutrinos, constante de Hubble : ces mystères qui pourraient s’éclaircir

    Cette énergie noire changeante pourrait aussi avoir un impact sur la constante de Hubble, qui mesure le taux d’expansion de l’Univers. « Nos résultats sont une piste prometteuse pour comprendre pourquoi les différentes méthodes de mesure de la constante de Hubble ne s’accordent pas parfaitement », précise la chercheuse. DESI montre que dans le cadre d’un modèle d’énergie noire statique (constante cosmologique), l’évaluation de la constante de Hubble varie selon les sondes exploitées, ce qui pourrait expliquer en partie un désaccord entre les mesures de l’expansion obtenues à partir du fond diffus cosmologique, 380.000 ans après le Big Bang, et celles issues de l’observation des galaxies bien plus proches de nous dans l’espace et le temps.

    Autre énigme de la physique concernée par les résultats de DESI : la masse des neutrinos, ces particules élémentaires qui interfèrent peu avec la matière, et dont la masse exacte, très faible, demeure inconnue. DESI établit une limite supérieure encore plus contraignante que les précédentes : la somme des masses des neutrinos doit être inférieure à 0,064 eV/c² si l’on suppose une énergie noire sous la forme d’une constante cosmologique. Or, on sait par d’autres méthodes que cette masse ne peut pas être inférieure à 0,059 eV/c².

    « L’intervalle [0,005 eV/c²] se réduit beaucoup et cela attire inévitablement l’attention, remarque Nathalie Palanque-Delabrouille. Les neutrinos n’ont plus beaucoup d’espace pour exister, cela exclut même certains modèles. Or, si l’on considère une énergie noire dynamique, nous trouvons cette fois une limite supérieure de 0,16 eV/c². Hubble, neutrinos… C’est comme si l’hypothèse d’une énergie noire dynamique permettait à différentes pièces d’un puzzle de se mettre en place. » La mission, qui doit encore collecter des données jusqu’en 2026, voire 2028 si la prolongation est validée, prévoit d’atteindre un total de plus de 40 millions de galaxies et quasars observés.

    De quoi affiner encore les contraintes sur l’énergie noire et la structure de l’Univers. Parallèlement, d’autres expériences comme la mission spatiale Euclid, qui a récemment commencé ses observations, viendront compléter ces résultats et offrir une vision encore plus détaillée de l’histoire cosmique. « Nous atteignons une précision inégalée en cosmologie. Cela nous permet de tester des modèles avec un niveau de détails jamais atteint. Et ce n’est que le début… », conclut Nathalie Palanque-Delabrouille

    Merci à Sciences et avenir mai 2025 p. 49

    Desi Premiers résultats

    Reference
    Data Release 1 of the Dark Energy Spectroscopic Instrument

    DESI Collaboration: ,

    Comments:62 pages, 7 figures, 15 tables, submitted to The Astronomical Journal
    Subjects:Cosmology and Nongalactic Astrophysics (astro-ph.CO)
    Cite as:arXiv:2503.14745

    [astro-ph.CO]

    (or arXiv:2503.14745v1 [astro-ph.CO] for this version)



    13/09/2025 Nouvelles armes russes

    Moscou, 28 mai 2022 (SPA) – L’armée russe a annoncé samedi avoir effectué avec succès un nouveau tir d’essai du missile de croisière hypersonique Zircon, au moment où Moscou intensifie son offensive en Ukraine, rapporte l’AFP.
    Le missile Zircon a été tiré depuis la frégate Amiral Gorchkov, en mer de Barents, vers une cible dans les eaux de la mer Blanche, dans l’Arctique, a indiqué le ministère russe de la Défense dans un communiqué.
    La cible située à un millier de kilomètres « a été visée avec succès », selon la même source.
    Le tir a été effectué dans le cadre des « essais de nouvelles armes » russes, ajoute le communiqué.
    Le premier tir officiel d’un Zircon remonte à octobre 2020, le président Vladimir Poutine ayant alors salué un « grand évènement ». D’autres essais ont eu lieu depuis, notamment à partir de la frégate Amiral Gorchkov et depuis un sous-marin immergé.

    D’une portée maximale d’environ 1.000 kilomètres, celui-ci doit équiper les navires de surface et les sous-marins de la flotte russe.

    La Russie, qui a lancé le 24 février une offensive en Ukraine, a annoncé en mars y avoir utilisé des missiles hypersoniques — « Kinjal », un recours en combat qui a semblé être une première, Moscou n’ayant jusque-là jamais fait état de l’emploi de ce type d’armes, sauf pour des essais.


    Les missiles balistiques hypersoniques « Kinjal » et ceux de croisière « Zircon » appartiennent à une famille de nouvelles armes développées par la Russie et que M. Poutine qualifie d' »invincibles ».