bL’effondrement effondremennnt de l’Amoc est de plus en plus prévible




L’AmocC Atlantic meridional overturning circulation, est une part essentielle de la circulation d’eau océanique dans l’Alantique Nord. Or une étude récente vient de monter qu’avec le réchauffement climatique, l’Apc risquait dans les prochaines années de disparaître. Si il ne disparaissait pas complètement, il perdrait toute efficacité dans l’atténuation des différences de tempétueusement entre lesrégions bénéficient de son influencet.

L’Amoc est une part importante du système climatique global. Il apporte des eaux tropicales chaude vers l’Europe et vers l’Arctique. Là il s’y refroidit et forme un courant de retour profond qui stabilise les aux tropicales. Or les observations des climatologues montren que depuis 1600 ans il n’a jamais été aussi faible. De nouveaux modèes prévoient que sa disparition pourrait survenir 50 à 100 ans plus tard99 plus tard.

Les scientifiques avaient prévenu qu’il faudraitr éviter à tout prix la disparion de l’Amoc sinon les été seraient brulants et les hivers glacials

En mai 2025, une étude publiée dans Nature avait également mis en évidence une étendue d’eau froide (cold blob) au sud du Groenland, signe selon ses auteurs que les eaux ne plongent pas dans les profondeurs aussi vite qu’elles le devraient. Et donc, que l’AMOC s’affaiblit plus rapidement que prévu.



Les effets du dérèglement climatique ne sont pas toujours ceux que l’on croit. Dans le scénario d’un arrêt de l’AMOC, la France, au lieu de suffoquer à longueur de temps prendrait plutôt… un gros coup de froid. D’après l’étude parue dans Environmental Research Letters, ce phénomène entraînerait en effet un « fort refroidissement » de l’Europe de l’Ouest (en raison d’une baisse du transport de chaleur dans l’air de plus de 80 %).  

« L’Europe serait méconnaissable par rapport à aujourd’hui », a quant à lui averti le climatologue britannique David Thornalley, co-auteur de l’étude parue dans Nature, dans les colonnes du Daily Mail. Les températures pourraient atteindre jusqu’à –30°C en Écosse. « On assisterait à un nombre considérable de réfugiés climatiques et les tensions géopolitiques s’intensifieraient », a-t-il ajouté. Le Vieux continent verrait également ses précipitations chuter et avec elles, ses rendements agricoles. 

En Afrique de l’Ouest et en Asie du Sud, régions très dépendantes de l’agriculture de subsistance, les volumes de précipitations annuels pourraient être réduits de 20 à 30 %, ont déjà estimé d’autres études. Cerise sur le gâteau, le phénomène ajouterait 50 cm à la montée déjà importante du niveau de la mer (+1,1 mètre d’ici 2100 dans le scénario pessimiste du GIEC, avec un risque de 5 % d’atteindre +2,38 mètres). 

Si ce sombre scénario digne du film Le Jour d’après, dans lequel l’arrêt complet du Gulf Stream déclenche une série de catastrophes sur la côte américaine, ne devrait pas se produire au cours de ce siècle, ce « problème » ne concerne pas seulement de lointaines générations futures. « L’océan est déjà en train de changer, a souligné Jonathan Baker, du Met Office Hadley Centre au Royaume-Uni. Même si un effondrement est peu probable, un affaiblissement majeur est attendu, ce qui pourrait à lui seul avoir de graves conséquences sur le climat européen dans les décennies à venir. Mais l’avenir de la circulation atlantique est toujours entre nos mains. » 

05/08/2025 L’activité cérébrale

La neurobiologie dispose d’outils pour enregistrer la dynamique de cette activité électrique, à diverses échelles spatiales et temporelles. Petit à petit, on a découvert que, quelle que soit l’échelle à laquelle on l’observe, l’activité cérébrale évolue dans le temps et selon sa localisation dans le cerveau. Qui plus est, les dynamiques spatiales et temporelles des activités électriques enregistrées sont très irrégulières, et le cerveau est capable de passer d’un type d’activité électrique à un autre, très différent. Ces dynamiques complexes et leurs changements seraient associés au traitement de l’information par le cerveau.

lorsqu’une information nouvelle arrive dans le cerveau, elle modifie la dynamique de fond préexistante, et c’est sans doute cette interaction d’un stimulus et de cette dynamique qui permet au cerveau de répondre au stimulus de façon adaptée et reproductible. Cette conception est fondée sur des dynamiques spatio-temporelles complexes, dont nous allons discuter l’origine et la façon dont elles peuvent être utilisées par le cerveau pour traiter l’information. Nous examinerons d’abord quelques sources possibles de hasard : hasard au niveau des molécules, des cellules, des réseaux. Et pourtant, de ce désordre, naît un ordre à grande échelle, ou du moins un fonctionnement dynamique cohérent et reproductible.

Aléas à tous les niveaux

Quelles sont les causes possibles des dynamiques complexes observées expérimentalement ? À l’échelle moléculaire, les neurones émettent des impulsions électriques grâce à des protéines insérées dans leur membrane externe – des canaux ioniques –, qui peuvent être ouvertes, et laisser passer des ions, ou fermées, et empêcher ce passage.

Or l’état des canaux fluctue de façon aléatoire dans le temps, la probabilité d’ouverture et de fermeture dépendant notamment du potentiel de membrane, c’est-à-dire de la différence de potentiel de part et d’autre de la membrane (ou schématiquement de la différence des concentrations ioniques). Cette propriété explique l’émission d’impulsions électriques par les neurones. Notons que la forme des impulsions produites par ce mécanisme aléatoire est néanmoins remarquablement constante.

Comme c’est le cas pour tous les types de cellules, le comportement des neurones résulte des réactions biochimiques et des régulations génétiques intracellulaires. Or les dynamiques temporelles de ces réactions ou voies de régulation ont une composante aléatoire, ce qui a aussi des conséquences importantes sur le comportement électrique des neurones.

La transmission des impulsions électriques entre neurones est assurée par les neurotransmetteurs présents dans les zones de contact entre deux neurones, les synapses. Or la quantité de neurotransmetteurs libérés à chaque événement de transmission est très variable, de sorte que l’impulsion émise par un neurone en réponse à un autre a elle aussi une importante composante aléatoire. À l’échelle du neurone, la diversité des types de neurones et de leurs réponses à un même stimulus est considérable. D’une part, le nombre de sous-types de neurones dans le cortex est grand (sans doute des dizaines), et ils ont des comportements différents. D’autre part, des études expérimentales ont montré que la réponse d’un neurone à certains stimulus peut être très variable. Enfin, des études théoriques indiquent que le comportement électrique d’un neurone, même isolé des autres, peut présenter une dynamique chaotique.

De plus, non seulement les populations de neurones sont nombreuses, mais chaque neurone est connecté à d’innombrables neurones. Une cellule pyramidale du cortex, par exemple, est connectée à environ 10 000 autres neurones et reçoit de l’ordre de 70 000 impulsions électriques élémentaires plus ou moins indépendantes chaque seconde. Ce bombardement a un aspect aléatoire et engendre un « bruit synaptique », une activité de fond intense et irrégulière qui influe sur la façon dont les neurones réagissent à un stimulus.

Enfin, le réseau des connexions entre neurones a lui-même une structure partiellement aléatoire, qui engendre dans certains cas des comportements chaotiques. De surcroît, les connexions entre neurones sont dynamiques : l’influence d’un neurone sur un autre varie dans le temps. Ce phénomène, dit de plasticité synaptique, est en grande partie responsable des changements de comportements dynamiques des réseaux de neurones cérébraux.

Distinguer le bruit du chaos

Ainsi, le fonctionnement du cerveau, de l’échelle moléculaire à l’échelle des réseaux de neurones, constitués de millions de cellules, est soumis à de multiples sources de complexité dynamique se manifestant sous forme de bruit ou de chaos. En quoi le bruit se distingue-t-il du chaos ? D’un point de vue expérimental, le bruit est une composante aléatoire qui se superpose à la partie déterministe d’un signal. Mathématiquement, le bruit est souvent représenté par une suite de variables aléatoires indépendantes. Et dans un système bruité, la connaissance des conditions initiales ne permet pas de connaître l’évolution future du système.

Dans un système chaotique déterministe, la connaissance des conditions initiales autorise en théorie à déterminer l’évolution du système à long terme. En revanche, pour que l’on puisse prédire cette évolution, il faudrait connaître l’état initial avec une précision infinie… Ce qui n’est évidemment pas possible. Or la plus petite erreur sur l’état initial engendre, à long terme, un comportement imprévisible. Ainsi, les systèmes chaotiques sont soumis à l’aléa résultant de la connaissance imparfaite des conditions initiales. Dès lors, pour savoir si un signal représente une dynamique chaotique, on doit l’analyser au moyen d’algorithmes de traitement adaptés.

En outre, on sait montrer mathématiquement qu’un système est chaotique en extrapolant son évolution temporelle sur des temps infinis. Le système est chaotique s’il évolue vers un état caractérisé par ce que l’on nomme un attracteur étrange. Un attracteur est une région de l’espace des phases vers laquelle convergent toutes les trajectoires des points associés au système étudié (l’espace des phases permet de représenter les variables indépendantes d’un système en fonction du temps). Il existe des attracteurs dits étranges : dans l’espace des phases, à proximité d’un attracteur étrange, deux trajectoires initialement très proches s’écartent rapidement.

En revanche, les systèmes chaotiques présentent, comme les systèmes bruités, une grande régularité statistique. Ainsi, les moyennes réalisées au fil du temps des quantités mesurables ne sont pas sensibles aux conditions initiales et évoluent de façon très régulière. C’est, par exemple, le cas d’un gaz, dont le comportement est décrit par des grandeurs telles que pression, volume, température, qui sont déterministes et constantes à l’équilibre, bien que la dynamique des molécules qui constituent ce gaz soit aléatoire. Cette régularité statistique est une clé d’un fonctionnement efficace du cerveau.

Comment mettre en évidence le chaos cérébral ?

Lors d’une expérience in vivo, aucun système ne peut être maintenu indéfiniment (ni même quelques instants) dans le même état. Dès lors, comment montre-t-on que le cerveau a, aux différentes échelles évoquées, un comportement chaotique ? Les études expérimentales portant sur des neurones isolés (voire sur une partie seulement d’un neurone) révèlent, dans certains cas, une dynamique chaotique. Qui plus est, John Guckenheimer et Ricardo Oliva, de l’Université Cornell, par exemple, ont montré que les équations les plus précises dont on dispose aujourd’hui pour décrire l’activité d’un neurone isolé (les équations de Hodgkin-Huxley) ont parfois un comportement chaotique.

Par ailleurs, les mathématiciens travaillent aussi sur des réseaux de neurones formels. Ce sont des modèles inspirés du fonctionnement des neurones, où chaque élément est relié à des éléments qui le précèdent (l’équivalent des neurones présynaptiques) et à un élément qui le suit (le neurone post-synaptique), la force de la connexion synaptique pouvant varier. On a mis en évidence du chaos dans de tels réseaux.

De très nombreuses études ont tenté de caractériser la dynamique des réseaux de neurones in vivo à une échelle plus globale, en particulier dans le signal fourni par les enregistrements d’électroencéphalographie. Au début des années 1980, l’étude des électroencéphalogrammes d’êtres humains durant l’éveil ou le sommeil peu profond a révélé la présence de chaos déterministe.

De même, Walter Freeman, à l’Université de Berkeley, a proposé une hypothèse pour expliquer la dynamique des mécanismes de reconnaissance des odeurs dans le bulbe olfactif. Dans son modèle, la reconnaissance d’une odeur particulière se matérialise par un changement drastique : on passe brusquement d’un attracteur étrange à un autre attracteur de caractéristiques différentes et spécifiques de l’odeur.

Enfin, on a montré, in vitro, que des neurones isolés de calamar géant ou des petits réseaux isolés de cochon d’inde ou de certains crustacés présentent une dynamique chaotique. Les preuves de chaos dans les dynamiques enregistrées in vivo sont rares, car le système évolue sans cesse au gré des informations internes et externes qu’il reçoit. Pourtant, Henri Korn et Philippe Faure, de l’Institut Pasteur, à Paris, en ont confirmé l’existence en étudiant l’activité synaptique de neurones de poissons.

Source

(B. Cessac) a ainsi montré en collaboration avec Jacques-Alexandre Sépulchre, de l’Institut non linéaire de Nice)

Le rôle du chaos dans le cerveau

Le rôle du chaos dans le cerveau

brain criticalité

Nous ne prenons pas assez en considération les exploits qu’accomplit à chaque instant notre cerveau. Dire son nom à quelqu’un est déjà une tâche difficile à réaliser par un calculateur

Keith Hengen, biologiste à la at Washington University à St Louis rappelle cependant que cela ne serait pas possible sans le désordre voire le chaos, qui règne à chaque instant dans le cerveau.

Ils nomment cette hypothèse «  the critical brain hypothesis ». Selon eux, la matière grise balance en permanence entre l’ordre et le désordre dans ce qu’ils nomment une “critical zone”, autrement dit au bord du chaos.

Il s’agit d’un phénomène que l’on retrouve en permanence dans la nature, par exemple dans les avalanches ou les incendies de forêts . De petits évènements peuvent avoir des conséquences catastrophiques . Ils sont gouvernes par des principes mathématiques.;

Ces hypothèses semblent absurdes, mais aujourd’hui d’autres neuroscientifiques les sles partagent. C’est le cas de Karim Jerbi, de l’Université de Montreal. Cette hypothèse devrait nous aider à augment notre flexibilisé mentale. Elle devrait aussi nous aider à mieux comprendre le fonctionnement des cerveaux de certains animaux chats ou singes. On lira auss sur ce sujet Woodrow Shew, physicien à l’University of Arkansas, Un article en ce sens vient d’être publie dans Neuron

Highlights

Criticality may be a unifying principle of optimal neural computation

Criticality is a key endpoint of homeostasis in the brain

Deviations from criticality correlate with multiple brain disorders and anesthesia

Conflicting evidence in criticality can be explained by temporal coarse graining

Summary

Brains face selective pressure to optimize computation, broadly defined. This is achieved by mechanisms including development, plasticity, and homeostasis. Is there a universal optimum around which the healthy brain tunes itself, across time and individuals? The criticality hypothesis posits such a setpoint. Criticality is a state imbued with internally generated, multiscale, marginally stable dynamics that maximize the features of information processing. Experimental support emerged two decades ago and has accumulated at an accelerating pace despite disagreement. Here, we lay out the logic of criticality as a general computational endpoint and review experimental evidence. We perform a meta-analysis of 140 datasets published between 2003 and 2024. We find that a long-standing controversy is the product of a methodological choice with no bearing on underlying dynamics. Our results suggest that a new generation of research can leverage criticality—as a unifying principle of brain function—to accelerate understanding of behavior, cognition, and disease.Le rôle du chaos

Introduction

Is there a unifying rule of computation in biology? Has evolution inevitably settled on a key principle that accounts for the brain’s capacity to generate behavior and cognition? Or is each brain function in each animal individually governed by different rules, without common ground? One direct path to answering such a question is to ask if there is a universal homeostatic endpoint that can account for computational capacity, flexibility, and robustness. Put another way, brains maintain themselves at some point that allows for all behavior and cognition despite enormous variability, unpredictability, and perturbation throughout life. Understanding such a setpoint, should it exist, would give insight into the mathematical principles at the core of the brain’s power. Through a combination of first-principles reasoning and a growing body of evidence, we propose and evaluate a candidate solution to this problem.

Brains are the physical basis of biological computation. Brain functions, such as those underlying behaviors, are directly caused by the computations of neuronal populations. In some cases, a highly specialized, permanent solution is needed; the conversion of light into a neurobiological signal requires light-sensitive molecules that are of little use to olfaction, for example. More often, however, the computations are not hard wired; they must be learned on the fly, capable of reconfiguration to accommodate diverse, ever-changing environmental conditions, experiences, and perturbations.

It is tempting to suppose that flexible computation implies a lack of constraint—each system is free to drift and be sculpted by experience and associative plasticity. But just as the tuning of a photosensitive molecule is essential to its function, the ability of a network of neurons to transmit and transform information also requires tuning; it is neither inevitable nor trivial. Consider that the principles that allow for flexible computation are intrinsically destabilizing. Mechanisms of learning and memory—Hebbian plasticity—operate by positive feedback. Left unchecked, LTP and LTD (mechanisms of associative plasticity) lead to catastrophic saturation or silence, respectively, at the circuit level.1,2,3,4,5 In simple terms, a brain that can learn requires some form of active stabilization. Known mechanisms of homeostatic plasticity—cellular and synaptic—are well positioned to counteract these destabilizing forces.6,7,8,9,10,11,12 However, our understanding of such homeostatic mechanisms is to some extent arbitrary—there is little a priori reason to predict that a neuron’s mean firing rate should be 3.2 Hz, for example. What determines the variegated setpoints throughout the central nervous system? Ultimately, the target of homeostasis in the brain is behavior; stabilizing a neuron’s firing rate is of little value if it does not contribute to reliable behavior. Because evolution can only select for behavior,13 and because behavior arises from the coordinated activity of millions to billions of neurons, there is a selective pressure for homeostatic processes in the brain to actively maintain an optimal setpoint at the level of population computation that gives rise to behavior.

The elucidation of such a setpoint would crystallize a fundamental principle of neurobiology. There are homeostatic setpoints at many levels of organization, including molecular biology, synaptic physiology, and single-cell biophysics. However, since behavior is the target of selective forces, we suggest that the endpoint of neuronal homeostasis must lie at the level of brain physiology penultimate to behavior—that is, at the level of neuronal population dynamics. While myriad genetic, molecular, synaptic, and cellular factors obviously shape and constrain neuronal function, the relevance of these factors is ultimately determined by their impact on population dynamics and thus behavior.

As discussed above, an adaptable neuronal population is precarious; optimal and reliable function requires active maintenance. This raises the question, “what aspect of population dynamics should be the target of homeostatic constraint?” To make this more coherent, consider a thought experiment; imagine that you are responsible for tuning the activity of billions of neurons. You have one knob for every parameter that controls population dynamics—that is, cell-type-specific wiring rules, synaptic strengths, the relative importance of excitation and inhibition, differences in single-neuron biophysics, network structure, assorted time constants, and countless others. You can try all possible combinations of the knobs, searching an enormous space of setpoints, seeking a state that suits computation. Such a search would reveal large regions of parameter space that are not viable for general, flexible computation. One region might be good for a specific task but poor for another. For example, a desynchronized region might be well suited for low-noise sensory coding but might perform poorly for long-range coordination across brain regions. Much of the parameter space would be relatively insensitive to small adjustments of the knobs. However, you would occasionally encounter an abrupt change in population dynamics. This is analogous to how water behaves identically at 10°C and 8°C, but water at 1°C is quite different than water at −1°C. Such a tipping point goes by many names including a bifurcation, a phase transition, or simply a boundary in parameter space. At a special kind of boundary, called criticality, population dynamics emerge with multiple properties ideally suited for flexible computation (Figure 1). A neuronal population at criticality maximizes dynamic range, information storage, information transmission, controllability, susceptibility, and more (more details in the next section and previous reviews14,15,16). Thus, it seems that combined with learning rules, operating near this setpoint should allow your network to achieve any desirable function. In other words, a brain tuned to criticality should be able to learn to do almost anything.

Figure 1 Criticality: A high point in the computational fitness landscape

Here, we contend that criticality is a unifying computational principle central to brain function and a key endpoint of neuronal homeostatic control. In the next section, we lay out the rationale for our argument and detail the computationally advantageous properties of neuronal population dynamics at criticality. We also carefully consider supporting experimental evidence. After that, we describe eight testable predictions implicated by the criticality hypothesis, and we systematically review two decades of experimental evidence that supports these predictions (a downloadable annotated bibliography for all 320 papers is provided in the supplemental information). Finally, we perform a meta-analysis of prior work, reconciling studies that were long thought to contradict the criticality hypothesis.

04/09/2025 Nos cousins, les Denissoviens (annule et remplace l’article précédant, sans titre ni date, mis en ligne par erreur

Il y a plus de 90 ans fut découvert dans la province de Harbin en Chine un petit crâne d’enfant fossilisé vieux de 146.000 ans. Depuis les paléologues savent par l’étude de l’ADN de l’une de ses dents qu’il appartenait à une représentante des Dénisoviens, ces prédécesseur de l’homme mderne.

Les Dénisoviens comportaient des caractères spécifiques Leurs faces étaient semblable à la nôtre, mais ils avaient d’épaisses arcades sourcilières en n’avaient pas de fronts.

Cette découverte relança au sujet des Dénisoviens un débat qui ne faisaient que commencer. Ils se placent comme les Néanderthaliens s en proches prédécéessurs de l’Homo Sapien. Ils sont mêmrd plus proches de l’homme d’aujourd’hui

Faut-il en conséquance les considérer comme les Ancestors X, une population qui donna naissance à l’homme moderne et dont certains sont des descendants comme le montrent leurs gènes .

Bence Viola de l’ Université de Toronto, Canada, qui fut membre de l’équipe ayanf fat la découverte pensait qu’ill fallait faire des Dénisoviens une nouvelle espèce. Il fut décidé de ne pas le faire, d’autent plus qu’une petite pettie de l’actuelle population humaine, dans le sud-est asiatique et l’Océanie, , compote entre 4 et 6 pour cent de gènes provenant des Dénisoviens. Certains chercheurs font d’eux une population au sein de l’espèce Homo sapiens.

Beaucoup pensent à l’inverse qu’il faut considérer les Dénisoviens comme une espèce distincte de celle de l’homme, bien qu’ils aient beaucoup de traits communs et aient une façon identique d’exploiter les ressources du milieu.

Les Dénisoviens comportaient des caractères inusuels . Leurs faces étaient semblable à la nôtre, mais ils avaient d’épaisses arcanes sourcilières et n’avaient pas de fronts.

Les débats au sujet des Dénisoviens ne faisaient que commencer. Ils se placent comme les Néandrtaiens en proches prédécessur de lHomo Sapien. De plus, ils sont plus proches de l’homme d’auourd’hui.

Faut-il en conséquence les considérer comme les Ancestors X, une population qui donna naissance à homme moderne et dont certains d’entre eux descendent.

Bence Viola de l’ Université de Toronto, Canada, et qui fut membre de l’équipe ayanf fat la découverte pensait qu’ill fallait faire des Dénisoviens une novelle espèce d’Homo. Il fut décidé de ne pas le faire, d’autant plus que qu’une petite pettie de l’actuelle population humaine, dans le sud-est asiatique et l’Océanie, compote entre 4 et 6 pour cent de gènes provenant des Dénisoviens.

Un des plus grands mystères de l’histoire humaine récente est encore en discussion. L’analyse génétique a surpris en montrant qu’autrefois l’asie de l’est abritait une importante population d’humains déjà connus sous le nom de Denisoviens. Jusqu’ici nous ne connaissions rien de leur apparence et de leurs mœurs, ni à qui ils ressemblaient.

Un des plus grands mystères de l’histoire humaine récente est encore en discussion. L’analyse génétique a surpris en montrant qu’autrefois l’asie de l’est abritait une importante population d’humains déjà connus souus le nom de Denisoviens. Jusqu’ici nous ne connaissions rien de leur apparence et de leurs mœurs, ni à qui ils ressemblaient.

Ceci n’est plus le cas aujourd’hui. Grâce à la découverte il y a plus de 90 ans d’un petit crâne ancien de 146.000 ans dans la province de Harbiin en Chine nous savons par l’étude de l’ADN de l’une de l’une de ses dents qu’il appartenait à ce prédécesseur de l’homme mderne.

Les Dénisoviens comportaient des caractères inusuels . Leurs faces étaient semblable à la nôtre, mais ils avaient d’épaisses arcases sourcilières en n’avaient pas de fronts.

Les débats au sujet des Dénisoviens ne faisaient que commencer. Ils se placent comme les Néandrtaiens en proches prédécessur de lHomo Sapien. De lus, ils sont plus proches de l’homme d’auourd’hui

Faut-il en conséquance les considérer comme les Ancestors X, une population qui donna naissance à homme moderne et dont certains descendants ?

Faut-il en conséquance les considérer comme lesAncestorsX, une population qui adonné onna naissance à homme moderne et dont certains descendants comme le montrent urs gènes font d’eux nos cousins les plus proches.

Bence Viola de l’ University of Toronto, Canada, et qui fut membre de l’équipe ayanf fat la découverte pensait qu’ill fallait faire des Dénisoviens une noouvelle espèce, Homo altaiensis. Il fut décidé de ne pas le faire, d’autent plus que qu’une petite pettie de l’actuelle population humaine, dans le sud-est asiatique et l’Océanie, , compote entre 4 et 6 pour cent de gènes provenant des Dénisoviens. Certains chercheurs font d’eux uue ppulation au sein de l’espèce Homo sapiens.

Beaucoup pensent à l’inverse qu’il faut considérer les Néanderthaliens comme une espèce distincte de celle de l’homme, bien qu’ils aient beaucoup de traits communs et aient une façon identique d’exploiter les ressources du milieu.

;omme le montrent urs gènes font d’eux nos cousins les plCeci n’est plus le cas aujourd’hui. Grâce à la découverte il y a plus de 90 ans d’un petit crâne ancien de 146.000 ans dans la province de Harbiin en Chine nous savons par l’étude de l’ADN de l’une de l’une de ses dents qu’il appartenait à ce prédécesseur de l’homme mderne.

Les Dénisoviens comportaient des caractères inusuels . Leurs faces étaient semblable à la nôtre, mais ils avaient d’épaisses arcases sourcilières en n’avaient pas de fronts.

Les débats au sujet des Dénisoviens ne faisaient que commencer. Ils se placent comme les Néandrtaiens en proches prédécessur de lHomo Sapien. De lus, ils sont plus proches de l’homme d’auourd’hui

Faut-il en conséquance les considérer comme les Ancestors X, une population qui donna naissance à homme moderne et dont certains descendants ?

Faut-il en conséquance les considérer comme lesAncestorsX, une population qui adonné onna naissance à homme moderne et dont certains descendants comme le montrent urs gènes font d’eux nos cousins les plus proches.

Bence Viola de l’ University of Toronto, Canada, et qui fut membre de l’équipe ayanf fat la découverte pensait qu’ill fallait faire des Dénisoviens une noouvelle espèce, Homo altaiensis. Il fut décidé de ne pas le faire, d’autent plus que qu’une petite pettie de l’actuelle population humaine, dans le sud-est asiatique et l’Océanie, , compote entre 4 et 6 pour cent de gènes provenant des Dénisoviens. Certains chercheurs font d’eux uue ppulation au sein de l’espèce Homo sapiens.

Beaucoup pensent à l’inverse qu’il faut considérer les Néanderthaliens comme une espèce distincte de celle de l’homme, bien qu’ils aient beaucoup de traits communs et aient une façon identique d’exploiter les ressources du milieu.

;omme le montrent urs gènes font d’eux nos cousins les pl

03/09/2025 Le rôle du chaos dans le cerveau

Nous ne prenons pas assez en considération les exploits qu’accomplit à chaque instant notre cerveau. Dire son nom à quelqu’un est déjà une tâche difficile à réaliser par un calculateur

Keith Hengen, biologiste à la at Washington University à St Louis rappelle cependant que cela ne serait pas possible sans le désordre voire le chaos, qui règne à chaque instant dans le cerveau.

Ils nomment cette hypothèse «  the critical brain hypothesis ». Selon eux, la matière grise balance en permanence entre l’ordre et le désordre dans ce qu’ils nomment une “critical zone”, autrement dit au bord du chaos.

Il s’agit d’un phénomène que l’on retrouve en permanence dans la nature, par exemple dans les avalanches ou les incendies de forêts . De petits évènements peuvent avoir des conséquences catastrophiques . Ils sont gouvernes par des principes mathématiques.;

Ces hypothèses semblent absurdes, mais aujourd’hui d’autres neuroscientifiques les sles partagent. C’est le cas de Karim Jerbi, de l’Université de Montreal. Cette hypothèse devrait nous aider à augment notre flexibilisé mentale. Elle devrait aussi nous aider à mieux comprendre le fonctionnement des cerveaux de certains animaux chats ou singes. On lira auss sur ce sujet Woodrow Shew, physicien à l’University of Arkansas, Un article en ce sens vient d’être publie dans Neuron

02/09/2025 L’effondrement probable de l’AMOC

Au moment où le monde commence à prendre très au sérieux les conséquences du réchauffement climatique envisagé pour le prochain demi-siècle, les climatologues mettent en garde contre l ‘établissement de conditions polaires en Atlantique nord, avec de graves conséquences pour l’Europe.

Le sujet du devenir de l’Amoc inquiète et suscite des débats interminables. Ce méga-courant a un impact majeur sur la météo telle que nous la connaissons. Son effondrement bouleverserait le climat, et donc, notre environnement, notre agriculture et notre société.

Le climat de la Planète dépend en partie des courants marins, dont l’Amoc. Celui-ci transporte les eaux chaudes de l’océan Atlantique Sud vers les hautes latitudes de l’océan Atlantique Nord. Cette eau se refroidit alors et forme des zones de différentes températures qui jouent un rôle important : elles redistribuent la chaleur et le carbone dans d’autres eaux.

Le courant Amoc (dont le gulf stream constitue l’un des segments) influence ainsi la météo d’une partie de l’hémisphère nord : l’Europe en particulier, mais aussi une partie de l’Amérique, le nord de l’Asie et le nord de l’Afrique. Ce transport d’eau chaude fait donc office de régulateur du climat européen, en atténuant le froid des hivers. Sans l’Amoc, et donc sans le gulf stream pour tempérer le froid, le climat européen serait radicalement différent en hiver.

Selon une nouvelle étude, publiée dans Environmental Research Letters, le 28 août dernier, l’effondrement de l’Amoc n’est plus une hypothèse : c’est une certitude, d’après les scientifiques néerlandais, allemands et anglais qui ont réalisé l’étude. Mais l’effondrement n’aura pas lieu avant 2100. C’est une mauvaise nouvelle pour les futures générations. Dèjà un affaiblissement du courant est prévu entre 2100 et 2500.

Si les émissions de carbone continuent à augmenter au même rythme, 70 % des simulations sur les modèles informatiques envisagent un effondrement du courant. Un ralentissement de l’Amoc est visible dans les simulations informatiques réalisées dans le cas d’un scénario pessimiste de l’évolution du réchauffement climatique. Mais aussi parfois, pour certaines simulations, dans le cas d’un scénario intermédiaire et même faible d’évolution du réchauffement.

Le transport de chaleur du courant diminuerait de 20 à 40 % dans l’eau. Dans l’air la dose de chaleur transportée par le courant représenterait moins de 20 %, comparé à ce que nous connaissons à l’heure actuelle.

Vers des hivers beaucoup plus rudes en France

Un effondrement de l’Amoc transformerait le climat d’une partie du monde. La majeure partie de la Planète continuerait à se réchauffer, tandis qu’une petite partie se refroidirait, et le niveau de la mer pourrait s’élever de 50 centimètres. L’Europe serait la zone la plus concernée avec « du froid extrême » l’hiver.

L’équipe de recherche a analysé les simulations CMIP6 (Coupled Model Intercomparison Project), utilisées dans le dernier rapport d’évaluation du GIEC, mais avec des horizons temporels étendus aux années 2300 à 2500 au lieu de 2100.

Pour mesurer l’intensité de l’AMOC, les scientifiques ont utilisé la quantité d’eau se déplaçant vers le nord à 26 degrés de latitude nord. Les projections montrant que ce transport d’eau descendra sous 10 sverdrups (unité qui équivaut à million de mètres cubes par seconde) d’ici 2100 indiquent une stagnation au cours des siècles suivants (communiqué de l’Institut météorologique royal des Pays-Bas).

Sur cette base, les chercheurs concluent que dans au moins 70 % des simulations du modèle avec des émissions élevées de CO2 (scénario d’émissions SSP5-8.5), l’AMOC stagnera. Pour le scénario d’émissions modérées (SSP2-4.5), ce chiffre est de 37 %, et pour le scénario d’émissions faibles (SSP1-2.6), il est de 25 %.

Incertitudes

« D’après les simulations, le point de basculement dans les principales mers de l’Atlantique Nord se produit généralement au cours des prochaines décennies, ce qui est très inquiétant », note Stefan Rahmstorf, qui a supervisé ce travail, dans un communiqué de l’institut de recherche sur le climat de Potsdam (PIK) où il dirige le département Analyse du système terrestre.

Une fois franchi ce point de bascule, l’arrêt de l’AMOC devient « inévitable » en raison d’une boucle de rétroaction amplificatrice, précise l’étude. La chaleur libérée par l’Atlantique Nord chute alors à moins de 20 % de sa valeur actuelle, voire presque à zéro dans certains modèles.

Interrogé par nos confrères du Guardian, le Dr Aixue Hu, du Laboratoire de dynamique climatique mondiale du Colorado (États-Unis), qui n’a pas contribué à ce travail, juge ces résultats « importants ». Cependant,il nuance il nuance ;« la temporalité de l’effondrement de l’AMOC et le moment où le point de bascule sera franchi restent très incertains, en raison du manque d’observations directes et des résultats variables des modèles »

L’avenir de l’AMOC est « entre nos mains »

Ces pourcentages « doivent être interprétés avec prudence : la taille de l’échantillon étant réduite, davantage de simulations [au-delà de 2100] sont nécessaires pour mieux quantifier le risque », confirme auprès du média britannique le Dr Jonathan Baker, du Centre Hadley du Met Office au Royaume-Uni, co-auteur d’une précédente étude indiquant qu’un effondrement total de l’AMOC serait peu probable au cours de ce siècle. Toutefois, selon lui :

Même si un effondrement est peu probable, un affaiblissement majeur est attendu, ce qui pourrait à lui seul avoir de graves conséquences sur le climat européen dans les décennies à venir. Mais l’avenir de la circulation atlantique est toujours entre nos mains.


Voir aussi
Bold Plans to save vital current
New Scientist JULY 2025 p11



02/09/2025 Faire de la France une (très) grande puissance spatiale

Dans les prochaines années les grandes puissances ou celles qui aspirent à ce titre ne maintiendront leur rang que si elles investissent massivement dans ce domaine. L’Union soviétique l’avait bien compris en finançant très tôt, malgré une situation économique fragile, le Projet Gagarine d’homme en orbite terrestre.

La Chine pour sa part s’est attiré le respect de la communauté spatiale en mettant rn plce, sur la face cachée de la Lune, un petit observatoire. Quant aux Etats-Unis la spatial dominance qu’ils se sont donnée dès les origines continue à faire d’eux les maîtres du monde.

L’Union européenne et l’Allemagne en particulier n’affichent aucune ambition spatiale. Ceci contribue à les rendre inaudibles au plan scientifique et technique, que ce soit dans le domaine civil que militaire. Très tôt par contre la Général de Gaulle avait compris que la Frane ne reprendrait son rang après la défaite de Juin 40 qu’en se donnant des objectifs indispensables à toute politique spatialem, notamment dans le domaine des lanceurs et des instruments d’observation planétaire.

Il est donc surprenant de constater qu’aujourd’hui ceux qui prétendent faire la France sortir de l’enlisement politique et économique oublient le spatial.

La France aurait un rôle essentiel à y jouer. Non pas seulement dans le domaine des lanceurs, mais en finançant des projets plus ambitieux. Citons une station spatiale moderne, mais surtout l’envoi sur Mars et ses satellites, avec les moyens adéquats de missions humaines d’une certaine durée. Nous sommes certains du fait que malgré les risques les volontaires ne manqueraient pas 

IA et archéologie

L’impact de l’intelligence artificielle sur la science et la recherche est croissant depuis une dizaine d’année. C’est notamment le cas en archéologie qui voit en cette technologie une opportunité pour compiler, traiter et interpréter, avec un gain de temps considérable, de gros volumes d’informations. L’IA s’est également imposée comme une aide précieuse à la préservation du patrimoine archéologique et à la création de nouveaux savoirs. Son utilisation systématique peut cependant ouvrir la porte à certaines dérives, dont celle de la réinterprétation.

Premiers usages : compiler des informations

Dans les années 2000, différents conflits armés et l’accélération du changement climatique menacent de faire disparaître un nombre important de sites archéologiques. Face à ce triste constat, plusieurs organisations internationales, dont l’Unesco, qui a fait de la sauvegarde numérique du Patrimoine une de ses priorités, décident de lancer d’importants projets de numérisation 3D des sites menacés. Différentes entreprises, comme Iconem, développent des technologies innovantes, notamment l’utilisation de drones intelligents, pour scanner les vestiges et en proposer une restitution virtuelle à l’identique.
 
En plus de conserver la mémoire numérique d’un patrimoine menacé de destruction, cette initiative a permis de compiler une masse de données totalement inédite de par sa nature et son volume. Conscient de l’opportunité créée, le monde de la recherche s’est appuyé sur l’IA pour exploiter cette nouvelle base de référence.

En 2016, l’utilisation de l’IA en archéologie prend un nouveau tournant avec l’apparition de l’application ArchAIDE, un système de reconnaissance automatique de fragments de céramique généré par une intelligence artificielle : l’apport pour la recherche est immense et les gains de temps pour trier les vestiges sont remarquables. Le potentiel de cet outil ouvre la voie à une identification plus poussée des artefacts jusqu’à en proposer une reconstitution.

De l’identification à la reconstitution des informations

Il est rare qu’un archéologue découvre un objet intact en parfait état de conservation. Généralement, les fouilles relèvent essentiellement des fragments dont l’identification puis la reconstitution sont particulièrement chronophages et fastidieuses.

Dans les années 2000, différents conflits armés et l’accélération du changement climatique menacent de faire disparaître un nombre important de sites archéologiques. Face à ce triste constat, plusieurs organisations internationales, dont l’Unesco, qui a fait de la sauvegarde numérique du Patrimoine une de ses priorités, décident de lancer d’importants projets de numérisation 3D des sites menacés. Différentes entreprises, comme Iconem, développent des technologies innovantes, notamment l’utilisation de drones intelligents, pour scanner les vestiges et en proposer une restitution virtuelle à l’identique.
 
En plus de conserver la mémoire numérique d’un patrimoine menacé de destruction, cette initiative a permis de compiler une masse de données totalement inédite de par sa nature et son volume. Conscient de l’opportunité créée, le monde de la recherche s’est appuyé sur l’IA pour exploiter cette nouvelle base de référence.

En 2016, l’utilisation de l’IA en archéologie prend un nouveau tournant avec l’apparition de l’application ArchAIDE, un système de reconnaissance automatique de fragments de céramique généré par une intelligence artificielle : l’apport pour la recherche est immense et les gains de temps pour trier les vestiges sont remarquables. Le potentiel de cet outil ouvre la voie à une identification plus poussée des artefacts jusqu’à en proposer une reconstitution.

Ainsi en Grande-Bretagne, des chercheurs ont utilisé l’IA pour déterminer à quoi des pierres sphériques retrouvées sur l’île de Santorin, en Crète et à Chypre pouvaient correspondre. L’outil, après analyse, a suggéré que les pierres, de deux tailles distinctes, avaient été délibérément choisies pour leur forme et leur poids. À partir de leur localisation, les plus grandes étant déposées dans des cavités artificielles sous les habitations, l’IA a pensé qu’il s’agissait d’un jeu de société, alors que les chercheurs pensaient plutôt à des balles à lancer, à un système de comptage ou des pions d’un jeu.
 
Le risque de dérive n’est cependant pas à exclure. L’IA, qui est particulièrement efficace pour identifier à partir de ce qu’elle connaît, n’a pas (encore) la capacité de résonner. Elle ne prend pas en compte les notions de culture, de croyance ou de sensibilité artistique. Elle reste un outil pour aider à la détermination, et à associer à l’expertise humaine dans une démarche scientifique.

Source

https://www.ocim.fr/actualites/regard-sur-lactu/larcheologie-face-aux-defis-de-lintelligence-artificielle-ia

L’AI va-t-elle changer l’apprentissage des maths?




Les mathématiques n’ont jamais été faciles, contrairement au conseil bien connu « Laisse tonber l’amour et fais des mathématiques ». Aujourd’hui cependant, de nouvelles générations d’outils d’Intelligence t Artificielle (AI) devraient faciliter la tâche sont apparu

Une révolution dans l’AI va-t-elle transformer les mathématiques ? Des mathématiciens éminents le pensent. De nouveaux outils d’AI devraient transformer la rédaction des preuves, avec le potentiel de changer la façon dont procède la recherche en mathématiques, allant jusqu’à consctruire des preuves eux-mêmes.

Selon un enseignant en mathématiques à laCarnegie Mellon University Jeremy Avigad, la chose est surprenante mais il faudra s’y faire , tant les résultats seront enrichissants.

Le nouveau domaine est dominé par DeepMind de Google https:/deepmind.google /qui avait fait la une en 2024 avec son AI system, AlphaProof, gagna une médaille d’argent à l’ International Mathematical Olympiad (IMO).

L’équipe derrière AlphaProof montra que celui-ci pouvait aider à formaliser une petire partie du Théorème des nombres Premiers 

https://fr.wikipedia.org/wiki/TA9orie_des_nombres

Morph Labs, une start uu américaine, a présenté de son côté un outil d’AI nmmé Trinity conçu pour traduire les preuves automatiquement depuis le document écrit à la main par le mathématicien jusqu’à l’outil de preuve formazlisé et vérifié par le système.

Bhavik Mehta de l’ Imperial College London, montra un exemple selon lequel Trinity prouva un théoreme relatif à l’ABC conjecture qi avait fait tle sujet d’un intense débat concernant son exactittude