Le rôle du chaos dans le cerveau

Le rôle du chaos dans le cerveau

brain criticalité

Nous ne prenons pas assez en considération les exploits qu’accomplit à chaque instant notre cerveau. Dire son nom à quelqu’un est déjà une tâche difficile à réaliser par un calculateur

Keith Hengen, biologiste à la at Washington University à St Louis rappelle cependant que cela ne serait pas possible sans le désordre voire le chaos, qui règne à chaque instant dans le cerveau.

Ils nomment cette hypothèse «  the critical brain hypothesis ». Selon eux, la matière grise balance en permanence entre l’ordre et le désordre dans ce qu’ils nomment une “critical zone”, autrement dit au bord du chaos.

Il s’agit d’un phénomène que l’on retrouve en permanence dans la nature, par exemple dans les avalanches ou les incendies de forêts . De petits évènements peuvent avoir des conséquences catastrophiques . Ils sont gouvernes par des principes mathématiques.;

Ces hypothèses semblent absurdes, mais aujourd’hui d’autres neuroscientifiques les sles partagent. C’est le cas de Karim Jerbi, de l’Université de Montreal. Cette hypothèse devrait nous aider à augment notre flexibilisé mentale. Elle devrait aussi nous aider à mieux comprendre le fonctionnement des cerveaux de certains animaux chats ou singes. On lira auss sur ce sujet Woodrow Shew, physicien à l’University of Arkansas, Un article en ce sens vient d’être publie dans Neuron

Highlights

Criticality may be a unifying principle of optimal neural computation

Criticality is a key endpoint of homeostasis in the brain

Deviations from criticality correlate with multiple brain disorders and anesthesia

Conflicting evidence in criticality can be explained by temporal coarse graining

Summary

Brains face selective pressure to optimize computation, broadly defined. This is achieved by mechanisms including development, plasticity, and homeostasis. Is there a universal optimum around which the healthy brain tunes itself, across time and individuals? The criticality hypothesis posits such a setpoint. Criticality is a state imbued with internally generated, multiscale, marginally stable dynamics that maximize the features of information processing. Experimental support emerged two decades ago and has accumulated at an accelerating pace despite disagreement. Here, we lay out the logic of criticality as a general computational endpoint and review experimental evidence. We perform a meta-analysis of 140 datasets published between 2003 and 2024. We find that a long-standing controversy is the product of a methodological choice with no bearing on underlying dynamics. Our results suggest that a new generation of research can leverage criticality—as a unifying principle of brain function—to accelerate understanding of behavior, cognition, and disease.Le rôle du chaos

Introduction

Is there a unifying rule of computation in biology? Has evolution inevitably settled on a key principle that accounts for the brain’s capacity to generate behavior and cognition? Or is each brain function in each animal individually governed by different rules, without common ground? One direct path to answering such a question is to ask if there is a universal homeostatic endpoint that can account for computational capacity, flexibility, and robustness. Put another way, brains maintain themselves at some point that allows for all behavior and cognition despite enormous variability, unpredictability, and perturbation throughout life. Understanding such a setpoint, should it exist, would give insight into the mathematical principles at the core of the brain’s power. Through a combination of first-principles reasoning and a growing body of evidence, we propose and evaluate a candidate solution to this problem.

Brains are the physical basis of biological computation. Brain functions, such as those underlying behaviors, are directly caused by the computations of neuronal populations. In some cases, a highly specialized, permanent solution is needed; the conversion of light into a neurobiological signal requires light-sensitive molecules that are of little use to olfaction, for example. More often, however, the computations are not hard wired; they must be learned on the fly, capable of reconfiguration to accommodate diverse, ever-changing environmental conditions, experiences, and perturbations.

It is tempting to suppose that flexible computation implies a lack of constraint—each system is free to drift and be sculpted by experience and associative plasticity. But just as the tuning of a photosensitive molecule is essential to its function, the ability of a network of neurons to transmit and transform information also requires tuning; it is neither inevitable nor trivial. Consider that the principles that allow for flexible computation are intrinsically destabilizing. Mechanisms of learning and memory—Hebbian plasticity—operate by positive feedback. Left unchecked, LTP and LTD (mechanisms of associative plasticity) lead to catastrophic saturation or silence, respectively, at the circuit level.1,2,3,4,5 In simple terms, a brain that can learn requires some form of active stabilization. Known mechanisms of homeostatic plasticity—cellular and synaptic—are well positioned to counteract these destabilizing forces.6,7,8,9,10,11,12 However, our understanding of such homeostatic mechanisms is to some extent arbitrary—there is little a priori reason to predict that a neuron’s mean firing rate should be 3.2 Hz, for example. What determines the variegated setpoints throughout the central nervous system? Ultimately, the target of homeostasis in the brain is behavior; stabilizing a neuron’s firing rate is of little value if it does not contribute to reliable behavior. Because evolution can only select for behavior,13 and because behavior arises from the coordinated activity of millions to billions of neurons, there is a selective pressure for homeostatic processes in the brain to actively maintain an optimal setpoint at the level of population computation that gives rise to behavior.

The elucidation of such a setpoint would crystallize a fundamental principle of neurobiology. There are homeostatic setpoints at many levels of organization, including molecular biology, synaptic physiology, and single-cell biophysics. However, since behavior is the target of selective forces, we suggest that the endpoint of neuronal homeostasis must lie at the level of brain physiology penultimate to behavior—that is, at the level of neuronal population dynamics. While myriad genetic, molecular, synaptic, and cellular factors obviously shape and constrain neuronal function, the relevance of these factors is ultimately determined by their impact on population dynamics and thus behavior.

As discussed above, an adaptable neuronal population is precarious; optimal and reliable function requires active maintenance. This raises the question, “what aspect of population dynamics should be the target of homeostatic constraint?” To make this more coherent, consider a thought experiment; imagine that you are responsible for tuning the activity of billions of neurons. You have one knob for every parameter that controls population dynamics—that is, cell-type-specific wiring rules, synaptic strengths, the relative importance of excitation and inhibition, differences in single-neuron biophysics, network structure, assorted time constants, and countless others. You can try all possible combinations of the knobs, searching an enormous space of setpoints, seeking a state that suits computation. Such a search would reveal large regions of parameter space that are not viable for general, flexible computation. One region might be good for a specific task but poor for another. For example, a desynchronized region might be well suited for low-noise sensory coding but might perform poorly for long-range coordination across brain regions. Much of the parameter space would be relatively insensitive to small adjustments of the knobs. However, you would occasionally encounter an abrupt change in population dynamics. This is analogous to how water behaves identically at 10°C and 8°C, but water at 1°C is quite different than water at −1°C. Such a tipping point goes by many names including a bifurcation, a phase transition, or simply a boundary in parameter space. At a special kind of boundary, called criticality, population dynamics emerge with multiple properties ideally suited for flexible computation (Figure 1). A neuronal population at criticality maximizes dynamic range, information storage, information transmission, controllability, susceptibility, and more (more details in the next section and previous reviews14,15,16). Thus, it seems that combined with learning rules, operating near this setpoint should allow your network to achieve any desirable function. In other words, a brain tuned to criticality should be able to learn to do almost anything.

Figure 1 Criticality: A high point in the computational fitness landscape

Here, we contend that criticality is a unifying computational principle central to brain function and a key endpoint of neuronal homeostatic control. In the next section, we lay out the rationale for our argument and detail the computationally advantageous properties of neuronal population dynamics at criticality. We also carefully consider supporting experimental evidence. After that, we describe eight testable predictions implicated by the criticality hypothesis, and we systematically review two decades of experimental evidence that supports these predictions (a downloadable annotated bibliography for all 320 papers is provided in the supplemental information). Finally, we perform a meta-analysis of prior work, reconciling studies that were long thought to contradict the criticality hypothesis.

04/09/2025 Nos cousins, les Denissoviens (annule et remplace l’article précédant, sans titre ni date, mis en ligne par erreur

Il y a plus de 90 ans fut découvert dans la province de Harbin en Chine un petit crâne d’enfant fossilisé vieux de 146.000 ans. Depuis les paléologues savent par l’étude de l’ADN de l’une de ses dents qu’il appartenait à une représentante des Dénisoviens, ces prédécesseur de l’homme mderne.

Les Dénisoviens comportaient des caractères spécifiques Leurs faces étaient semblable à la nôtre, mais ils avaient d’épaisses arcades sourcilières en n’avaient pas de fronts.

Cette découverte relança au sujet des Dénisoviens un débat qui ne faisaient que commencer. Ils se placent comme les Néanderthaliens s en proches prédécéessurs de l’Homo Sapien. Ils sont mêmrd plus proches de l’homme d’aujourd’hui

Faut-il en conséquance les considérer comme les Ancestors X, une population qui donna naissance à l’homme moderne et dont certains sont des descendants comme le montrent leurs gènes .

Bence Viola de l’ Université de Toronto, Canada, qui fut membre de l’équipe ayanf fat la découverte pensait qu’ill fallait faire des Dénisoviens une nouvelle espèce. Il fut décidé de ne pas le faire, d’autent plus qu’une petite pettie de l’actuelle population humaine, dans le sud-est asiatique et l’Océanie, , compote entre 4 et 6 pour cent de gènes provenant des Dénisoviens. Certains chercheurs font d’eux une population au sein de l’espèce Homo sapiens.

Beaucoup pensent à l’inverse qu’il faut considérer les Dénisoviens comme une espèce distincte de celle de l’homme, bien qu’ils aient beaucoup de traits communs et aient une façon identique d’exploiter les ressources du milieu.

Les Dénisoviens comportaient des caractères inusuels . Leurs faces étaient semblable à la nôtre, mais ils avaient d’épaisses arcanes sourcilières et n’avaient pas de fronts.

Les débats au sujet des Dénisoviens ne faisaient que commencer. Ils se placent comme les Néandrtaiens en proches prédécessur de lHomo Sapien. De plus, ils sont plus proches de l’homme d’auourd’hui.

Faut-il en conséquence les considérer comme les Ancestors X, une population qui donna naissance à homme moderne et dont certains d’entre eux descendent.

Bence Viola de l’ Université de Toronto, Canada, et qui fut membre de l’équipe ayanf fat la découverte pensait qu’ill fallait faire des Dénisoviens une novelle espèce d’Homo. Il fut décidé de ne pas le faire, d’autant plus que qu’une petite pettie de l’actuelle population humaine, dans le sud-est asiatique et l’Océanie, compote entre 4 et 6 pour cent de gènes provenant des Dénisoviens.

Un des plus grands mystères de l’histoire humaine récente est encore en discussion. L’analyse génétique a surpris en montrant qu’autrefois l’asie de l’est abritait une importante population d’humains déjà connus sous le nom de Denisoviens. Jusqu’ici nous ne connaissions rien de leur apparence et de leurs mœurs, ni à qui ils ressemblaient.

Un des plus grands mystères de l’histoire humaine récente est encore en discussion. L’analyse génétique a surpris en montrant qu’autrefois l’asie de l’est abritait une importante population d’humains déjà connus souus le nom de Denisoviens. Jusqu’ici nous ne connaissions rien de leur apparence et de leurs mœurs, ni à qui ils ressemblaient.

Ceci n’est plus le cas aujourd’hui. Grâce à la découverte il y a plus de 90 ans d’un petit crâne ancien de 146.000 ans dans la province de Harbiin en Chine nous savons par l’étude de l’ADN de l’une de l’une de ses dents qu’il appartenait à ce prédécesseur de l’homme mderne.

Les Dénisoviens comportaient des caractères inusuels . Leurs faces étaient semblable à la nôtre, mais ils avaient d’épaisses arcases sourcilières en n’avaient pas de fronts.

Les débats au sujet des Dénisoviens ne faisaient que commencer. Ils se placent comme les Néandrtaiens en proches prédécessur de lHomo Sapien. De lus, ils sont plus proches de l’homme d’auourd’hui

Faut-il en conséquance les considérer comme les Ancestors X, une population qui donna naissance à homme moderne et dont certains descendants ?

Faut-il en conséquance les considérer comme lesAncestorsX, une population qui adonné onna naissance à homme moderne et dont certains descendants comme le montrent urs gènes font d’eux nos cousins les plus proches.

Bence Viola de l’ University of Toronto, Canada, et qui fut membre de l’équipe ayanf fat la découverte pensait qu’ill fallait faire des Dénisoviens une noouvelle espèce, Homo altaiensis. Il fut décidé de ne pas le faire, d’autent plus que qu’une petite pettie de l’actuelle population humaine, dans le sud-est asiatique et l’Océanie, , compote entre 4 et 6 pour cent de gènes provenant des Dénisoviens. Certains chercheurs font d’eux uue ppulation au sein de l’espèce Homo sapiens.

Beaucoup pensent à l’inverse qu’il faut considérer les Néanderthaliens comme une espèce distincte de celle de l’homme, bien qu’ils aient beaucoup de traits communs et aient une façon identique d’exploiter les ressources du milieu.

;omme le montrent urs gènes font d’eux nos cousins les plCeci n’est plus le cas aujourd’hui. Grâce à la découverte il y a plus de 90 ans d’un petit crâne ancien de 146.000 ans dans la province de Harbiin en Chine nous savons par l’étude de l’ADN de l’une de l’une de ses dents qu’il appartenait à ce prédécesseur de l’homme mderne.

Les Dénisoviens comportaient des caractères inusuels . Leurs faces étaient semblable à la nôtre, mais ils avaient d’épaisses arcases sourcilières en n’avaient pas de fronts.

Les débats au sujet des Dénisoviens ne faisaient que commencer. Ils se placent comme les Néandrtaiens en proches prédécessur de lHomo Sapien. De lus, ils sont plus proches de l’homme d’auourd’hui

Faut-il en conséquance les considérer comme les Ancestors X, une population qui donna naissance à homme moderne et dont certains descendants ?

Faut-il en conséquance les considérer comme lesAncestorsX, une population qui adonné onna naissance à homme moderne et dont certains descendants comme le montrent urs gènes font d’eux nos cousins les plus proches.

Bence Viola de l’ University of Toronto, Canada, et qui fut membre de l’équipe ayanf fat la découverte pensait qu’ill fallait faire des Dénisoviens une noouvelle espèce, Homo altaiensis. Il fut décidé de ne pas le faire, d’autent plus que qu’une petite pettie de l’actuelle population humaine, dans le sud-est asiatique et l’Océanie, , compote entre 4 et 6 pour cent de gènes provenant des Dénisoviens. Certains chercheurs font d’eux uue ppulation au sein de l’espèce Homo sapiens.

Beaucoup pensent à l’inverse qu’il faut considérer les Néanderthaliens comme une espèce distincte de celle de l’homme, bien qu’ils aient beaucoup de traits communs et aient une façon identique d’exploiter les ressources du milieu.

;omme le montrent urs gènes font d’eux nos cousins les pl

03/09/2025 Le rôle du chaos dans le cerveau

Nous ne prenons pas assez en considération les exploits qu’accomplit à chaque instant notre cerveau. Dire son nom à quelqu’un est déjà une tâche difficile à réaliser par un calculateur

Keith Hengen, biologiste à la at Washington University à St Louis rappelle cependant que cela ne serait pas possible sans le désordre voire le chaos, qui règne à chaque instant dans le cerveau.

Ils nomment cette hypothèse «  the critical brain hypothesis ». Selon eux, la matière grise balance en permanence entre l’ordre et le désordre dans ce qu’ils nomment une “critical zone”, autrement dit au bord du chaos.

Il s’agit d’un phénomène que l’on retrouve en permanence dans la nature, par exemple dans les avalanches ou les incendies de forêts . De petits évènements peuvent avoir des conséquences catastrophiques . Ils sont gouvernes par des principes mathématiques.;

Ces hypothèses semblent absurdes, mais aujourd’hui d’autres neuroscientifiques les sles partagent. C’est le cas de Karim Jerbi, de l’Université de Montreal. Cette hypothèse devrait nous aider à augment notre flexibilisé mentale. Elle devrait aussi nous aider à mieux comprendre le fonctionnement des cerveaux de certains animaux chats ou singes. On lira auss sur ce sujet Woodrow Shew, physicien à l’University of Arkansas, Un article en ce sens vient d’être publie dans Neuron

02/09/2025 L’effondrement probable de l’AMOC

Au moment où le monde commence à prendre très au sérieux les conséquences du réchauffement climatique envisagé pour le prochain demi-siècle, les climatologues mettent en garde contre l ‘établissement de conditions polaires en Atlantique nord, avec de graves conséquences pour l’Europe.

Le sujet du devenir de l’Amoc inquiète et suscite des débats interminables. Ce méga-courant a un impact majeur sur la météo telle que nous la connaissons. Son effondrement bouleverserait le climat, et donc, notre environnement, notre agriculture et notre société.

Le climat de la Planète dépend en partie des courants marins, dont l’Amoc. Celui-ci transporte les eaux chaudes de l’océan Atlantique Sud vers les hautes latitudes de l’océan Atlantique Nord. Cette eau se refroidit alors et forme des zones de différentes températures qui jouent un rôle important : elles redistribuent la chaleur et le carbone dans d’autres eaux.

Le courant Amoc (dont le gulf stream constitue l’un des segments) influence ainsi la météo d’une partie de l’hémisphère nord : l’Europe en particulier, mais aussi une partie de l’Amérique, le nord de l’Asie et le nord de l’Afrique. Ce transport d’eau chaude fait donc office de régulateur du climat européen, en atténuant le froid des hivers. Sans l’Amoc, et donc sans le gulf stream pour tempérer le froid, le climat européen serait radicalement différent en hiver.

Selon une nouvelle étude, publiée dans Environmental Research Letters, le 28 août dernier, l’effondrement de l’Amoc n’est plus une hypothèse : c’est une certitude, d’après les scientifiques néerlandais, allemands et anglais qui ont réalisé l’étude. Mais l’effondrement n’aura pas lieu avant 2100. C’est une mauvaise nouvelle pour les futures générations. Dèjà un affaiblissement du courant est prévu entre 2100 et 2500.

Si les émissions de carbone continuent à augmenter au même rythme, 70 % des simulations sur les modèles informatiques envisagent un effondrement du courant. Un ralentissement de l’Amoc est visible dans les simulations informatiques réalisées dans le cas d’un scénario pessimiste de l’évolution du réchauffement climatique. Mais aussi parfois, pour certaines simulations, dans le cas d’un scénario intermédiaire et même faible d’évolution du réchauffement.

Le transport de chaleur du courant diminuerait de 20 à 40 % dans l’eau. Dans l’air la dose de chaleur transportée par le courant représenterait moins de 20 %, comparé à ce que nous connaissons à l’heure actuelle.

Vers des hivers beaucoup plus rudes en France

Un effondrement de l’Amoc transformerait le climat d’une partie du monde. La majeure partie de la Planète continuerait à se réchauffer, tandis qu’une petite partie se refroidirait, et le niveau de la mer pourrait s’élever de 50 centimètres. L’Europe serait la zone la plus concernée avec « du froid extrême » l’hiver.

L’équipe de recherche a analysé les simulations CMIP6 (Coupled Model Intercomparison Project), utilisées dans le dernier rapport d’évaluation du GIEC, mais avec des horizons temporels étendus aux années 2300 à 2500 au lieu de 2100.

Pour mesurer l’intensité de l’AMOC, les scientifiques ont utilisé la quantité d’eau se déplaçant vers le nord à 26 degrés de latitude nord. Les projections montrant que ce transport d’eau descendra sous 10 sverdrups (unité qui équivaut à million de mètres cubes par seconde) d’ici 2100 indiquent une stagnation au cours des siècles suivants (communiqué de l’Institut météorologique royal des Pays-Bas).

Sur cette base, les chercheurs concluent que dans au moins 70 % des simulations du modèle avec des émissions élevées de CO2 (scénario d’émissions SSP5-8.5), l’AMOC stagnera. Pour le scénario d’émissions modérées (SSP2-4.5), ce chiffre est de 37 %, et pour le scénario d’émissions faibles (SSP1-2.6), il est de 25 %.

Incertitudes

« D’après les simulations, le point de basculement dans les principales mers de l’Atlantique Nord se produit généralement au cours des prochaines décennies, ce qui est très inquiétant », note Stefan Rahmstorf, qui a supervisé ce travail, dans un communiqué de l’institut de recherche sur le climat de Potsdam (PIK) où il dirige le département Analyse du système terrestre.

Une fois franchi ce point de bascule, l’arrêt de l’AMOC devient « inévitable » en raison d’une boucle de rétroaction amplificatrice, précise l’étude. La chaleur libérée par l’Atlantique Nord chute alors à moins de 20 % de sa valeur actuelle, voire presque à zéro dans certains modèles.

Interrogé par nos confrères du Guardian, le Dr Aixue Hu, du Laboratoire de dynamique climatique mondiale du Colorado (États-Unis), qui n’a pas contribué à ce travail, juge ces résultats « importants ». Cependant,il nuance il nuance ;« la temporalité de l’effondrement de l’AMOC et le moment où le point de bascule sera franchi restent très incertains, en raison du manque d’observations directes et des résultats variables des modèles »

L’avenir de l’AMOC est « entre nos mains »

Ces pourcentages « doivent être interprétés avec prudence : la taille de l’échantillon étant réduite, davantage de simulations [au-delà de 2100] sont nécessaires pour mieux quantifier le risque », confirme auprès du média britannique le Dr Jonathan Baker, du Centre Hadley du Met Office au Royaume-Uni, co-auteur d’une précédente étude indiquant qu’un effondrement total de l’AMOC serait peu probable au cours de ce siècle. Toutefois, selon lui :

Même si un effondrement est peu probable, un affaiblissement majeur est attendu, ce qui pourrait à lui seul avoir de graves conséquences sur le climat européen dans les décennies à venir. Mais l’avenir de la circulation atlantique est toujours entre nos mains.


Voir aussi
Bold Plans to save vital current
New Scientist JULY 2025 p11



02/09/2025 Faire de la France une (très) grande puissance spatiale

Dans les prochaines années les grandes puissances ou celles qui aspirent à ce titre ne maintiendront leur rang que si elles investissent massivement dans ce domaine. L’Union soviétique l’avait bien compris en finançant très tôt, malgré une situation économique fragile, le Projet Gagarine d’homme en orbite terrestre.

La Chine pour sa part s’est attiré le respect de la communauté spatiale en mettant rn plce, sur la face cachée de la Lune, un petit observatoire. Quant aux Etats-Unis la spatial dominance qu’ils se sont donnée dès les origines continue à faire d’eux les maîtres du monde.

L’Union européenne et l’Allemagne en particulier n’affichent aucune ambition spatiale. Ceci contribue à les rendre inaudibles au plan scientifique et technique, que ce soit dans le domaine civil que militaire. Très tôt par contre la Général de Gaulle avait compris que la Frane ne reprendrait son rang après la défaite de Juin 40 qu’en se donnant des objectifs indispensables à toute politique spatialem, notamment dans le domaine des lanceurs et des instruments d’observation planétaire.

Il est donc surprenant de constater qu’aujourd’hui ceux qui prétendent faire la France sortir de l’enlisement politique et économique oublient le spatial.

La France aurait un rôle essentiel à y jouer. Non pas seulement dans le domaine des lanceurs, mais en finançant des projets plus ambitieux. Citons une station spatiale moderne, mais surtout l’envoi sur Mars et ses satellites, avec les moyens adéquats de missions humaines d’une certaine durée. Nous sommes certains du fait que malgré les risques les volontaires ne manqueraient pas 

IA et archéologie

L’impact de l’intelligence artificielle sur la science et la recherche est croissant depuis une dizaine d’année. C’est notamment le cas en archéologie qui voit en cette technologie une opportunité pour compiler, traiter et interpréter, avec un gain de temps considérable, de gros volumes d’informations. L’IA s’est également imposée comme une aide précieuse à la préservation du patrimoine archéologique et à la création de nouveaux savoirs. Son utilisation systématique peut cependant ouvrir la porte à certaines dérives, dont celle de la réinterprétation.

Premiers usages : compiler des informations

Dans les années 2000, différents conflits armés et l’accélération du changement climatique menacent de faire disparaître un nombre important de sites archéologiques. Face à ce triste constat, plusieurs organisations internationales, dont l’Unesco, qui a fait de la sauvegarde numérique du Patrimoine une de ses priorités, décident de lancer d’importants projets de numérisation 3D des sites menacés. Différentes entreprises, comme Iconem, développent des technologies innovantes, notamment l’utilisation de drones intelligents, pour scanner les vestiges et en proposer une restitution virtuelle à l’identique.
 
En plus de conserver la mémoire numérique d’un patrimoine menacé de destruction, cette initiative a permis de compiler une masse de données totalement inédite de par sa nature et son volume. Conscient de l’opportunité créée, le monde de la recherche s’est appuyé sur l’IA pour exploiter cette nouvelle base de référence.

En 2016, l’utilisation de l’IA en archéologie prend un nouveau tournant avec l’apparition de l’application ArchAIDE, un système de reconnaissance automatique de fragments de céramique généré par une intelligence artificielle : l’apport pour la recherche est immense et les gains de temps pour trier les vestiges sont remarquables. Le potentiel de cet outil ouvre la voie à une identification plus poussée des artefacts jusqu’à en proposer une reconstitution.

De l’identification à la reconstitution des informations

Il est rare qu’un archéologue découvre un objet intact en parfait état de conservation. Généralement, les fouilles relèvent essentiellement des fragments dont l’identification puis la reconstitution sont particulièrement chronophages et fastidieuses.

Dans les années 2000, différents conflits armés et l’accélération du changement climatique menacent de faire disparaître un nombre important de sites archéologiques. Face à ce triste constat, plusieurs organisations internationales, dont l’Unesco, qui a fait de la sauvegarde numérique du Patrimoine une de ses priorités, décident de lancer d’importants projets de numérisation 3D des sites menacés. Différentes entreprises, comme Iconem, développent des technologies innovantes, notamment l’utilisation de drones intelligents, pour scanner les vestiges et en proposer une restitution virtuelle à l’identique.
 
En plus de conserver la mémoire numérique d’un patrimoine menacé de destruction, cette initiative a permis de compiler une masse de données totalement inédite de par sa nature et son volume. Conscient de l’opportunité créée, le monde de la recherche s’est appuyé sur l’IA pour exploiter cette nouvelle base de référence.

En 2016, l’utilisation de l’IA en archéologie prend un nouveau tournant avec l’apparition de l’application ArchAIDE, un système de reconnaissance automatique de fragments de céramique généré par une intelligence artificielle : l’apport pour la recherche est immense et les gains de temps pour trier les vestiges sont remarquables. Le potentiel de cet outil ouvre la voie à une identification plus poussée des artefacts jusqu’à en proposer une reconstitution.

Ainsi en Grande-Bretagne, des chercheurs ont utilisé l’IA pour déterminer à quoi des pierres sphériques retrouvées sur l’île de Santorin, en Crète et à Chypre pouvaient correspondre. L’outil, après analyse, a suggéré que les pierres, de deux tailles distinctes, avaient été délibérément choisies pour leur forme et leur poids. À partir de leur localisation, les plus grandes étant déposées dans des cavités artificielles sous les habitations, l’IA a pensé qu’il s’agissait d’un jeu de société, alors que les chercheurs pensaient plutôt à des balles à lancer, à un système de comptage ou des pions d’un jeu.
 
Le risque de dérive n’est cependant pas à exclure. L’IA, qui est particulièrement efficace pour identifier à partir de ce qu’elle connaît, n’a pas (encore) la capacité de résonner. Elle ne prend pas en compte les notions de culture, de croyance ou de sensibilité artistique. Elle reste un outil pour aider à la détermination, et à associer à l’expertise humaine dans une démarche scientifique.

Source

https://www.ocim.fr/actualites/regard-sur-lactu/larcheologie-face-aux-defis-de-lintelligence-artificielle-ia

L’AI va-t-elle changer l’apprentissage des maths?




Les mathématiques n’ont jamais été faciles, contrairement au conseil bien connu « Laisse tonber l’amour et fais des mathématiques ». Aujourd’hui cependant, de nouvelles générations d’outils d’Intelligence t Artificielle (AI) devraient faciliter la tâche sont apparu

Une révolution dans l’AI va-t-elle transformer les mathématiques ? Des mathématiciens éminents le pensent. De nouveaux outils d’AI devraient transformer la rédaction des preuves, avec le potentiel de changer la façon dont procède la recherche en mathématiques, allant jusqu’à consctruire des preuves eux-mêmes.

Selon un enseignant en mathématiques à laCarnegie Mellon University Jeremy Avigad, la chose est surprenante mais il faudra s’y faire , tant les résultats seront enrichissants.

Le nouveau domaine est dominé par DeepMind de Google https:/deepmind.google /qui avait fait la une en 2024 avec son AI system, AlphaProof, gagna une médaille d’argent à l’ International Mathematical Olympiad (IMO).

L’équipe derrière AlphaProof montra que celui-ci pouvait aider à formaliser une petire partie du Théorème des nombres Premiers 

https://fr.wikipedia.org/wiki/TA9orie_des_nombres

Morph Labs, une start uu américaine, a présenté de son côté un outil d’AI nmmé Trinity conçu pour traduire les preuves automatiquement depuis le document écrit à la main par le mathématicien jusqu’à l’outil de preuve formazlisé et vérifié par le système.

Bhavik Mehta de l’ Imperial College London, montra un exemple selon lequel Trinity prouva un théoreme relatif à l’ABC conjecture qi avait fait tle sujet d’un intense débat concernant son exactittude


31/08/2025 A quoi ressemble un tartigrade ?

Un animal microscopique  

Les tardigrades mesurent entre 0,1 et 1,2 millimètres, ils ne sont visibles qu’au microscope. En fonction des conditions de son environnement (s’il rentre en cryptobiose), le tardigrade peut perdre presque la totalité de l’eau que contient son corps, ce qui fait diminuer de 32 à 40 % son volume total (l’espèce capable de la plus forte miniaturisation est Hypsibus exemplaris).  

Huit pattes et deux yeux 

Bien qu’ils soient minuscules, les tardigrades possèdent quatre paires de pattes et deux yeux. Le reste de leur corps est composé de muscles, neurones et d’un intestin. Tout comme les humains, à la surface de son corps ainsi qu’à l’intérieur sont retrouvés un ensemble de micro-organismes qui forment sont microbiome.  

Evolution et changement de modes de vie 

La présence des tardigrades sur Terre est attestée par des scientifiques depuis près de 500 millions d’années. Ce genre d’animaux s’est largement diversifié : près de 1 340 espèces de tardigrades différentes sont connues, peuplant des zones très diverses de notre planète. Certains évoluent dans les fonds des océans, à 4 600 mètres de profondeur, tandis que d’autre se sont établis à près de 6 000 mètres d’altitude.  

Lire aussi

Les tardigrades au Muséum

Cédric Hubas

31/08/2025 Comment la vie complexe est elle apparue sur la Terre.

À ce jour, les plus anciennes traces de vie sur Terre remonteraient à 3,8 milliards d’années, comme semblent l’indiquer des restes fossilisés retrouvés dans les roches sédimentaires. La vie était alors exclusivement aquatique et le restera pendant près de 3,4 milliards d’années ! Avant cela dans ses premiers milolirs d’années, la jeune Terre était sans doute dépourvue de toutes formes de vie ; D’une part elle n’était pss vivable (ou habitable) car bouleversée sans aaets par de épisodes volcaniques entrainant des sé »eimes d’ean bouillante

; Cependant de nombreus indices montrent que la vie complexe (milticellulaire) y est apparue plutot qu’estimé à ce joury Selon une nouvelle étude, la vie complexe sur Terre est apparue environ 1,5 milliard d’années plus tôt que prévu. C’est ce que montrentn des macrofodssiles lobés provenant d’organismes vivant il y a 2,1 milliards d’années dans une mer intérieure peu profonde, créée par la collision de deux continents.

En dépit du fait que la Terre avait hébergé la vie pendant plus de 2 milliards d’année, celle-ci y était restée rududimentaire. Il ne s’agissait que de bactéries et d’une forme voisine dite archaéa Les formes de vie les plus complexes étaient des colonies de microbes dites stromatolithes.

Pendant des années les bilogistes avaient affirmé que l’apparion de vie complexe était inévitable après que des formes de vie simple soient apparues. En fait ce ne fut pas ce qui arriva Après l’apparition des premières cellules, il y eut un long hiatus, presque la moitié du temps pris par la vie pour se diversifier. Pour qu’apparaissent des organismes mulyi celulaire. pour passer de la simple cellule à des organismes plus complexes, dits multicellulaires, il fallut attendre 4 milliards d’années d’ evolution, Ceci perperme de dire que la vie complexe est un accident

Si les cellules unicellulaires avaient évolué en organismes multicellulires, ceci se sertait traduit penddant des milliards d’années par l’apparion de multiples formes intermédiaires dont on retrouverait aujourd’hui des exemples. Or ce n’est pas ce qui s’est produit. D’un coté aujourd’hui on trouve les prokaryotes, simples cellules et archaea , de l’autres les organismes complexes dits eukaryotes qui prennent une infinité de formes. Un eukarotes est enviton 15.00 fois plus grand qu’une bactérie. Il possède une infinité d’organes dits orgenelles, des membranes intérieures, des squelettes et appeendices de déplacement. Ils son aux prokariotes ce qu’un humaein est à une amibe.

De plus, alors qu’une bactérie ne donne naissances en se regroupant qu’à des chaines identiques,les eukaryotes sont à la source de tous les organismes complexes, depuis les moules de mer jusqu’aux séquoias

(à suivre non traduit)

And while bacteria never form anything more complex than chains or colonies of identical cells, eukaryotic cells aggregate and cooperate to make everything from seaweed to sequoias, aardvarks to zebras. All complex multicellular life forms – that is to say, pretty much every living thing you can see around you, and more besides – are eukaryotes.

All eukaryotes evolved from the same ancestor. Without that one-off event, life would still be stuck in its microbial rut. Bacteria and archaea cells just don’t have what it takes to evolve into more complex forms.

So what happened? The critical event appears to have occurred about 2 billion years ago, when one simple cell somehow ended up inside another. The identity of the host cell isn’t clear, but we know it engulfed a bacterium, which began to live and divide within it, like a squatter. The two somehow found a way to live together amicably, and eventually formed a symbiotic relationship called endosymbiosis.

Through co-evolution over countless generations, the endosymbionts eventually become an organelle called the mitochondrion. These stripped-down vestiges of their former bacterial selves evolved to have one key function: to supply the cell with energy. This was the critical step that allowed life to throw off its microbial shackles and evolve into endless forms most beautiful.

Turbo charge

Once they have mitochondria, cells can overcome a fundamental barrier that prevents bacteria and archaea from growing large. In a nutshell, there is a limit to how much energy microbes can produce. The cell’s universal energy currency, ATP, is manufactured at the cell membrane. But as cells grow larger, their surface area to volume ratio drops and they have relatively less membrane to use. As they grow larger, their energy demands quickly overtake the supply. A cell with mitochondria (which have their own ATP-making membranes) can overcome this simply by adding more mitochondria – something that’s easily done, as the mitochondria retain their bacterial ancestors’ ability to clone themselves.

Awash with squadrons of mitochondria cranking out energy, early eukaryotes were free to grow larger and accumulate bigger and more complex genomes. And these expanded genomes provided the genetic raw material that permitted the evolution of ever more complex life.

Powered by the sun

That was not the end of the story. Another round of endosymbiosis is thought to have created the chloroplast, the organelle that allows plants and algae to convert sunlight into sugar in the process called photosynthesis. The endosymbiont in this case was a photosynthetic bacterium, which first appeared on Earth about 2.8 billion years ago. The cell nucleus, where eukaryotes store the majority of their DNA, was another crucial invention. It may have been created by another endosymbiosis, possibly of a virus. Eukaryotic cells also acquired other organelles, such as the endoplasmic reticulum, where proteins are made, and the Golgi apparatus, which dispatches them to their destination, possibly by infolding of their cell membranes.

All of this set the scene for the emergence of complex, multicellular life forms. Admittedly, it took a while. The first large multicellular organisms were the Ediacarans, ocean-dwelling life forms which appeared about 700 million years ago and disappeared around the time of the so-called Cambrian explosion 540 million years ago, when most of the familiar animal forms first evolved.

Nonetheless, the Ediacarans can trace their origins back to the evolution of mitochondria. And this seems to have hinged on a single fluke event – the acquisition of one simple cell by another. The bottom line is that while simple life appears to be a near inevitability, the evolution of complex life – including you and yours – is fantastically unlikely. That is the true miracle of life on Earth.

New scientist 23 August 2025

Référence
An Asgard archaeon from a modern analog of ancient microbial mats
https://doi.org/10.1101/2025.07.22.6630

Abstract

It has been proposed that eukaryotic cells evolved via symbiosis between sulfate-reducing bacteria and hydrogen-producing archaea. Here we describe a highly enriched culture of a novel Asgard archaeon, Nerearchaeum marumarumayae, with a bacterium Stromatodesulfovibrio nilemahensis from a stromatolite-associated microbial mat. The N. marumarumayae genome indicates it produces H2, acetate, formate, and sulfite, while S. nilemahensis synthesizes amino acids and vitamins, which can be exchanged in a syntrophic partnership. Electron cryotomography revealed N. marumarumayae cells produce chains of budded envelope vesicles attached to the coccoid cell body by extracellular fibers, and intracellular tube- and cage-like structures. Furthermore, the two species were observed interacting via intercellular nanotubes assembled by the bacterium. These characteristics and interactions may reflect an early step in the symbiotic evolution of eukaryotic cells.