08/09/2025 Les tortues géantes des Galapagos

Elles ont fasciné les marins, captivé Charles Darwin. Mais, au milieu du XIXe siècle, les tortues géantes des Galapagos avaient disparu. Des scientifiques ont organisé leur retour.

https://fr.wikipedia.org/wiki/Tortue_g%C3%A9ante_des_Gal%C3%A1pagos

Les Îles Galápagos tiennent leur nom des tortues géantes qui les peuplent depuis des millions d’années. Des animaux hybrides comme celui-ci vivent dans une aire isolée de l’île Isabela, devenue un véritable laboratoire de la recherche génétique.

En octobre 1820, un baleinier de Nantucket, l’Essex, jeta l’ancre dans les eaux turquoise de l’île Floreana, aux Galápagos. Leurs baleinières accostées au rivage, les marins se frayèrent un chemin dans les roches basaltiques, les épais buissons et les cactus. Empruntant des voies piétinées par des reptiles d’un autre âge, ils étaient « sur le qui-vive quant à l’objet de leur recherche », écrivait le mousse Thomas Nickerson.

Leur cible ? Les tortues géantes des Galápagos. Elles étaient différentes d’une île à l’autre, mais toutes fournissaient leur viande aux marins. Quand les baleiniers américains découvraient une petite tortue, ils la renversaient, lui liaient les pattes avec des sangles en toile et la portaient comme un sac à dos. Les plus grosses, certaines pesant plus de 225 kg, étaient suspendues à de longues perches et transportées par quatre à six hommes jusqu’au bateau en traversant les chaos de roche volcanique.

Une fois à bord, les marins entassaient les captives à l’envers les unes sur les autres et les laissaient parfois un an sans nourriture. « Elles ne mangent ni ne boivent, et on ne prend pas le moindre souci d’elles, écrivait le premier lieutenant de l’Essex Owen Chase. Elles sont éparpillées sur le pont, on leur marche dessus ou on les range dans la cale selon les besoins. » Sur l’île Floreana, l’équipage captura soixante tortues à carapace en forme de selle. Leur viande, racontait Thomas Nickerson, était « la plus riche et la plus goûteuse qui m’ait jamais contenté ». Puis le navire mit le cap sur une zone de pêche à la baleine où, un mois plus tard, il fut percuté par un cétacé

Au cours du naufrage, les marins récupérèrent autant de tortues que pouvaient en contenir leurs petites baleinières ; ils les mangèrent durant leur funeste périple vers les côtes sud-américaines, avant de s’entre-dévorer. Quant aux autres tortues, elles sombrèrent, et quelques-unes dérivèrent sans doute plus loin.

L’Essex n’était pas le seul, loin de là, à décimer les populations de ces reptiles des Galápagos. Quand Darwin débarqua à Floreana en 1835, lors du voyage qui allait voir naître sa théorie de l’évolution, il entendit parler de baleiniers qui s’étaient emparés de 700 tortues d’un coup. « Leur nombre s’est bien entendu grandement réduit sur cette île », a-t-il noté. Les historiens estiment que, entre 1774 et 1860, quelque 100 000 de ces animaux sur les 300 000 qui peuplaient l’archipel à l’arrivée des Espagnols, en 1535, furent capturés par les navires de passage, entraînant un fort déclin de chacune des quinze espèces des Galápagos et menant trois d’entre elles à l’extinction. La tortue de Floreana, vue pour la dernière fois dans les années 1850, fut la première à disparaître.

Le nord de l’île Isabelaest couvert de roches magmatiques provenant du volcan Wolf. C’est là que, près de cent cinquante ans après la disparition de la tortue de Floreana, une population inhabituelle de tortues a été découverte.

Mais, presque deux siècles tard, elle devrait être la première espèce éteinte des Galápagos à revenir sur ses terres ancestrales. Son retour survient après que la « résurrection » du « loup terrible » (Canis dirus) disparu depuis plus de 10 000 ans a fait la une et que les scientifiques recherchent les gènes de créatures éteintes de longue date, comme les mammouths laineux.

Mais, quand ceux-ci reviendraient dans un monde qui a vécu des millénaires sans eux, les descendants des tortues de Floreana réinvestiront des lieux où celles-ci évoluaient il y a peu et joueront à nouveau un rôle crucial dans un écosystème qui a désespérément besoin d’eux.

Pour accomplir cette prouesse, et réparer l’un des préjudices majeurs de l’histoire des Galápagos, des chercheurs dédiés à cette cause n’ont pas seulement travaillé aux limites du séquençage génétique pour identifier une espèce aujourd’hui disparue ; ils ont aussi exploré les coins les plus reculés de l’archipel et retrouvé quantité d’os et de carapaces dans les archives poussiéreuses des musées.

Cette aventure scientifique a commencé en 2000, quand des experts en conservation arpentant la végétation touffue des ravins au pied du volcan Wolf, au nord-ouest de l’île Isabela, ont confirmé des observations passées signalant la présence de tortues à l’allure différente. Leur carapace était en forme de selle, ce qui les distinguait de leurs consoeurs à carapace bombée, plus fréquentes sur les pentes plus en hauteur et plus humides du volcan.

« Il y avait des groupes de tortues qui n’avaient pas l’air d’être à leur place », se souvient le biologiste en conservation James Gibbs, Explorateur pour National Geographic et directeur du Galápagos Conservancy, un organisme de protection et de restauration des écosystèmes sauvages de l’archipel. Pour en savoir plus, il décida avec son équipe de prélever des échantillons sanguins « sur chaque tortue d’apparence inhabituelle ». Ils ont donc posé des marqueurs d’identification sur autant d’animaux que possible et ont expédié les prélèvements à leur partenaire de recherche Adalgisa Caccone, biologiste de l’évolution à l’université Yale, aux États-Unis, et également Exploratrice pour National Geographic.

Mais, en analysant l’ADN des échantillons, elle n’a pas réussi à identifier les séquences envoyées : aucune ne correspondait avec celles des espèces de tortues vivantes enregistrées dans sa base de données génétiques. Elle les surnomma alors « aliens ».

Les tortues comme celle-ci, élevées au centre de reproduction de Santa Cruz, seront réintroduites sur l’île Floreana, d’où elles ont disparu. Environ 300 de ces hybrides sont aujourd’hui prêts à être relâchés, après l’éradication des rats et des chats , prédateurs potentiels.

Les chercheurs ont alors envisagé la possibilité que des tortues d’autres îles aient rejoint le rivage depuis des baleiniers comme l’Essex. La baie de Banks, devant le versant occidental du volcan, était en effet le dernier mouillage pour de nombreux navires en route vers les zones de chasse à la baleine, et les marins jetaient parfois par-dessus bord leur surplus de tortues avant de hisser les voiles. Quelques-unes auraient pu nager jusqu’au rivage, gravir les pentes du volcan, s’installer parmi les tortues indigènes et, finalement, se reproduire avec elles. Les baleiniers étaient responsables de la perte de nombre de ces bêtes – ils en mangeaient la plupart et en ramenaient certaines comme trophée ou animal de compagnie. Mais, si cette hypothèse se vérifiait, ils auraient peut-être aussi assuré sans le savoir leur survie génétique. Ce n’est qu’après des années d’avancées dans le séquençage que les chercheurs auraient le moyen de comprendre que les marins avaient bien fourni des indices pour « ressusciter » une espèce.

Les scientifiques oeuvrent à la sauvegarde des tortues géantes des Galápagos depuis le milieu du XXe siècle, alors qu’il n’en restait plus que quelques milliers dans l’archipel. Si les baleiniers avaient disparu, les tortues continuaient d’être les proies des animaux qu’ils avaient ramenés : les rats, les cochons, les chiens, les fourmis (qui s’attaquent aux oeufs et aux petits), les chèvres et les ânes qui piétinent et dévorent leurs réserves de nourriture. Les responsables du parc national des Galápagos savaient qu’ils devaient agir vite s’ils ne voulaient pas risquer de perdre encore des espèces. Or, au début des années 1960, les équipes de conservation disposaient d’un arsenal assez limité pour parvenir à les sauver.

Pour la suite, voir

https://www.nationalgeographic.fr/animaux/2020/01/une-tortue-des-galapagos-sex-symbol-dun-programme-de-reproduction-reussi

07/09/2025 Une nouvelle radiothérapie révolutionnaire efface les traces de cancer chez un patient sur cinq

Au jour du 3 septembre 2025 le site Slate a publié un article qui semble impotant dans le traitement de certains cancers. En voici les principaux éléments

https://www.slate.fr/sante/nouvelle-radiotherapie-revolutionnaire-efface-traces-cancer-patient-radioligand-colon-poumon-novartis

Un essai clinique démontre l’efficacité spectaculaire de la thérapie par radioligand: jusqu’à 21% des patients traités ne présentaient plus aucune trace de la maladie après six mois. Une avancée que les oncologues qualifient d’«événement inédit».

Il faudra sans doute encore dix à quinze ans pour bâtir un écosystème global capable d’absorber la demande et en garantir l’efficacité

démnt le monde de la cancérologie: une nouvelle forme de radiothérapie ciblée, la thérapie par radioligand développée par Novartis, a permis d’effacer totalement les traces de cancer chez certains patients en seulement six mois. Les oncologues, parmi lesquels Michael Morris du Memorial Sloan Kettering, un centre de recherche sur le cancer basé à New York, parlent d’un «événement jamais vu», rapporte un article du Financial Times. Et pour cause: jusqu’à 21% des participants ont présenté des scanners exempts de toute maladie après traitement.

Contrairement à la radiothérapie classique, généralement administrée en externe et susceptible d’endommager les tissus sains, la thérapie par radioligand consiste à infuser des radio-isotopes directement dans le sang. Le but est de cibler les récepteurs présents sur les cellules cancéreuses afin de permettre une irradiation ultra sélective et limitant les effets indésirables. Cette technique marque une rupture dans la manière d’aborder les cancers métastatiques, longtemps considérés comme incurables.

La multinationale suisse, pionnière du secteur, s’est imposée grâce au rachat d’Advanced Accelerator Applications –fondée par des chercheurs du CERN– puis de la biotech américaine Endocyte. Ces acquisitions ont permis à Novartis de lancer les traitements Lutathera, destiné aux tumeurs gastro-intestinales, puis Pluvicto contre le cancer de la prostate, avec une homologation américaine en 2022. La société s’est rapidement retrouvée en tête d’une course mondiale à l’innovation, talonnée par d’autres laboratoires comme Lilly, AstraZeneca ou Sanofi.

Le succès de la radiothérapie par radioligand suscite une compétition féroce: de nouveaux acteurs émergent, tout comme les fournisseurs d’isotopes radioactifs, essentiels à la fabrication du médicament. Novartis a sécurisé une part importante de la production mondiale de lutétium, tandis que les concurrents explorent d’autres isotopes comme l’actinium, parfois importés de Russie. Petit détail qui a son importance: le médicament doit être produit, contrôlé et livré à chaque patient en quelques jours à peine, sous peine de perdre en efficacité.

Usines fortifiées et protocoles stricts

Les laboratoires de Novartis à Bâle (Suisse) ont été renforcés par 40 tonnes de plomb pour assurer la sécurité du personnel, qui porte jusqu’à deux dosimètres pour surveiller l’exposition aux radiations. L’administration de la thérapie implique parfois l’isolement des patients dans des chambres plombées, avec une gestion rigoureuse des déchets biologiques radioactifs.

Au-delà du cancer de la prostate, Novartis teste sept autres thérapies par radioligand dans quinze essais cliniques, avec des études préliminaires sur des cancers du poumon, du sein, du pancréas et du côlon. L’entreprise s’efforce de développer des médicaments capables de cibler des mutations génétiques spécifiques présentes dans les tumeurs, afin d’épargner au maximum les cellules saines.

La montée en puissance de Pluvicto, qui a généré près de 1,4 milliard de dollars de ventes en 2024 (1,2 milliard d’euros environ), pourrait porter la valeur du marché à plus de 25 milliards annuels (21,4 milliards d’euros environ), si les promesses sont tenues. Novartis a construit un écosystème de production complexe, avec des sites aux États-Unis, en Europe, en Chine et au Japon, créant un avantage concurrentiel difficile à rattraper pour les rivaux.

L’expansion de la radiothérapie par radioligand, vue comme le futur du traitement du cancer, dépend de plusieurs facteurs: les fonds investis, bien sûr, mais également la formation des cliniciens et l’édification de nouvelles infrastructures hospitalières. Il faudra sans doute encore dix à quinze ans pour bâtir un écosystème global capable d’absorber la demande et démocratiser cette innovation.

Malgré ces obstacles logistiques et réglementaires, Novartis garde une longueur d’avance, estimant être prêt à surmonter la plupart des problématiques industrielles. L’entreprise investit massivement dans la recherche de solutions sur mesure pour chaque type de cancer, marquant une nouvelle frontière dans la médecine nucléaire.

07/09/2025 Apparition de cancers pulmonaires chez les non-fumeurs

Un cancer du poumon appelé aussi cancer bronchopulmonaire ou cancer bronchique est une maladie des cellules des bronches ou plus rarement, des cellules qui tapissent les alvéoles pulmonaires .

Le cancer du poumon e est un cancer fréquent, en nette progression chez la femme. Le facteur de risque principal est le tabagisme actif mais aussi passif. D’autres facteurs environnementaux ou professionnels sont reconnus comme cancérigènes.

https://www.ameli.fr/assure/sante/themes/cancer-poumon/comprendre-cancer-poumon

Ceci dit, il ne suffit pas de cesser de fumer pour diminuer les risques. Une étude parue en 2023 dans Nature a mis en lumière le rôle de la pollution atmosphérique dans l’apparition de cancers pulmonaires chez des non-fumeurs. L’exposition prolongée aux particules fines déclenche une inflammation du poumon, qui stimule la croissance de cellules déjà porteuses de mutations. Trois ans passés dans une zone urbaine très polluée suffiraient à enclencher ce processus.

De cette découverte découle une piste thérapeutique inattendue: plutôt que de cibler uniquement les mutations, pourquoi ne pas agir sur l’inflammation elle-même? Bloquer certaines protéines du système immunitaire, comme l’interleukine-1, a par exemple permis de freiner l’apparition de tumeurs chez la souris exposée à la pollution.

Ces traitements pourraient offrir une protection précieuse aux personnes à haut risque, qu’il s’agisse des porteurs de mutations héréditaires, des anciens fumeurs, ou de ceux déjà traités pour un premier cancer.

Cette approche encore émergente annonce peut-être un tournant majeur qui fera de la lutte contre le cancer non plus uniquement une guerre d’éradication des «mauvaises» cellules, mais une stratégie d’équilibre, nourrissant la vitalité des cellules protectrices et maîtrisant les réponses inflammatoires de l’organisme avant même que les cancers n’apparaissent. Un pari qui, à mesure que l’espérance de vie s’allonge et que le cancer touche une proportion croissante de la population, pourrait devenir l’un des enjeux médicaux majeurs des prochaines décennies.

Référence

Clément Poursain – 5 septembre 2025
Santérecherchecancergénétiquecellulescancers

Sur le même sujet

Une nouvelle radiothérapie révolutionnaire efface les traces de cancer chez un patient sur cinq

06/09/2025 Aurait-t-on trouvé un nouveau moyen de prévenir l’apparition du cancer ?


En réalité, les mutations dites «conductrices», qui favorisent l’émergence d’un cancer, ne sont pas rares dans notre organisme, sans pour autant déclencher systématiquement de graves maladies.

On en trouve par exemple dans environ un quart des cellules de la peau en apparence normale. Passé la quarantaine, plus de la moitié de l’œsophage et près de 10% de la muqueuse de l’estomac sont déjà tapissés de cellules porteuses de ces anomalies génétiques. Ces zones visiblement à risque ont également été détectées dans le côlon, les poumons ou encore les ovaires.

https://a70e239a1e0eb6f56017a989836fea73.safeframe.googlesyndication.com/safeframe/1-0-45/html/container.html

Alors, pourquoi ces cellules, qui semblent prêtes à basculer dans la malignité, ne forment-elles pas systématiquement des tumeurs? La réponse en train d’émerger est fascinante. Les cellules mutées ne vivent en fait pas seules, leur destin dépend aussi de leurs voisines, parfois dotées de mutations bénéfiques qui limitent la prolifération des plus dangereuses.

Dans ce microcosme biologique, la compétition fait rage et il semble que renforcer les cellules saines «protectrices» pourrait devenir une stratégie prometteuse pour prévenir le cancer. Cette idée découle d’une compréhension nouvelle de la dynamique des tissus. Comme chaque division cellulaire s’accompagne de mutations aléatoires, les couches superficielles de nos organes (peau, œsophage, estomac) deviennent un champ de bataille génétique. Les cellules les plus adaptées survivent et poussent hors du tissu celles qui le sont moins.


Les cellules précancéreuses elles-mêmes peuvent se voir délogées par d’autres, mieux armées. Des expériences menées chez la souris montrent même que de minuscules tumeurs encore embryonnaires peuvent être neutralisées de cette manière.

Cette compétition pourrait expliquer pourquoi certaines altérations génétiques apparaissent tôt dans la vie, mais ne mènent pas toujours à un cancer. Des prises de sang successives révèlent que le nombre de cellules potentiellement à risque varie au fil du temps, certaines disparaissant, d’autres renaissant. La médecine pourrait-elle alors orienter cette rivalité en faveur des cellules les plus protectrices?

https://a70e239a1e0eb6f56017a989836fea73.safeframe.googlesyndication.com/safeframe/1-0-45/html/container.html

C’est ce qu’ont tenté des chercheurs britanniques du Wellcome Sanger Institute. En étudiant une mutation fréquente du gène PIK3CA, connu pour favoriser la croissance cellulaire, ils ont observé que les cellules ainsi altérées modifiaient leur métabolisme de façon à supplanter leurs voisines.

Surprise: en administrant à des souris de la metformine, un antidiabétique bien connu, ils ont induit le même changement métabolique chez les cellules saines, leur permettant de rivaliser d’égal à égal et d’empêcher la conquête des cellules mutées.

A contrario, un régime riche en graisses a offert un terrain favorable aux cellules cancérigènes, un constat qui résonne avec les données liant obésité et cancer de l’œsophage.

Des limites

Mais cette approche a ses limites et les mutations «bénéfiques» ne le sont pas universellement: une altération protectrice pour l’œsophage peut être neutre, voire dangereuse, dans la peau. Pour cartographier ce paysage génétique complexe, les chercheurs s’appuient désormais sur l’outil CRISPR, capable de modifier rapidement et précisément des gènes dans des cellules vivantes.

«Nous pouvons examiner 15.000 gènes en trois mois», se félicite l’équipe de Phil Jones du Wellcome Sanger Institute –un travail qui aurait pu prendre plusieurs années autrefois.

Ces travaux redéfinissent aussi notre compréhension des causes profondes du cancer, les mutations n’étant pas les seuls facteurs à surveiller. Les facteurs environnementaux jouent un rôle essentiel, en grande partie via les inflammations chroniques. De nombreuses substances réputées cancérigènes ne provoquent pas directement de mutations, mais entretiennent des micro-inflammations persistantes qui «réveillent» les cellules précancéreuses.

Urbanisation, pollution, reflux gastriques répétés ou infections chroniques fournissent autant de terrains inflammatoires favorables à la transformation tumorale.

https://a70e239a1e0eb6f56017a989836fea73.safeframe.googlesyndication.com/safeframe/1-0-45/html/container.html

Ainsi, une étude parue en 2023 dans Nature a mis en lumière le rôle de la pollution atmosphérique dans l’apparition de cancers pulmonaires chez des non-fumeurs. L’exposition prolongée aux particules fines déclenche une inflammation du poumon, qui stimule la croissance de cellules déjà porteuses de mutations. Trois ans passés dans une zone urbaine très polluée suffiraient à enclencher ce processus. On retrouve un schéma analogue avec le rayonnement solaire ou certaines bactéries chroniques de l’intestin.

De cette découverte découle une piste thérapeutique inattendue: plutôt que de cibler uniquement les mutations, pourquoi ne pas agir sur l’inflammation elle-même? Bloquer certaines protéines du système immunitaire, comme l’interleukine-1, a par exemple permis de freiner l’apparition de tumeurs chez la souris exposée à la pollution.

Ces traitements pourraient offrir une protection précieuse aux personnes à haut risque, qu’il s’agisse des porteurs de mutations héréditaires, des anciens fumeurs, ou de ceux déjà traités pour un premier cancer.

Cette approche encore émergente annonce peut-être un tournant majeur qui fera de la lutte contre le cancer non plus uniquement une guerre d’éradication des «mauvaises» cellules, mais une stratégie d’équilibre, nourrissant la vitalité des cellules protectrices et maîtrisant les réponses inflammatoires de l’organisme avant même que les cancers n’apparaissent. Un pari qui, à mesure que l’espérance de vie s’allonge et que le cancer touche une proportion croissante de la population, pourrait devenir l’un des enjeux médicaux majeurs des prochaines décennies.

Référence

Clément Poursain – 5 septembre 2025

Santérecherchecancergénétiquecellulescancers

Sur le même sujet

Une nouvelle radiothérapie révolutionnaire efface les traces de cancer chez un patient sur cinq

L’Amoc

L’Amoc Atlantic meridional overturning circulation, est une part essentielle de la circulation d’eau océanique en Atlantique Nord. Or une étude récente vient de montrer qu’avec le réchauffement climatique il risquait dans les prochaines années de disparaître.t.

L’Amoc conditionne du système climatique global. Il apporte des eaux tropicales chaude vers l’Europe et vers l’Arctique. Là il s’y refroidit et forme courant de retour profond qui stabilise les eaux tropicales. Or les observations mntrent depuis frd siècles il n’a jamais été aussi faible De nouveaux modles prévoient que sa disparirition totale serit envigeable 50 à 100 ans plus tard99 plus tard.

Les scientifiques avaient prévenu qu’il faudraitr éviter à tout ptix t prix la disparion de l’Amoc sinon les été seraient brulants et les hivers glcialsal

En mai 2025, une étude publiée dans Nature avait mis en évidence une étendue d’eau froide (cold blob) au sud du Groenland, signe selon ses auteurs que ² les eaux ne plongent pas dans les profondeurs aussi vite qu’elles le devraient. Et donc, que l’AMOC s’affaiblit plus rapidement que prévu.

Les effets du dérèglement climatique ne sont pas toujours ceux que l’on croit. Dans le scénario d’un arrêt de l’AMOC, la France, au lieu de suffoquer se refroidirait. D’après l’étude parue dans Environmental Research Letters, ce phénomène entraînerait en effet un « fort refroidissement » de l’Europe de l’Ouest (en raison d’une baisse du transport de chaleur dans l’air de plus de 80 %).  

« L’Europe serait méconnaissable par rapport à aujourd’hui », a quant à lui averti le climatologue britannique David Thornalley, co-auteur de l’étude parue dans Nature, dans les colonnes du Daily Mail. Les températures pourraient atteindre jusqu’à –30°C en Écosse. « On assisterait à un nombre considérable de réfugiés climatiques et les tensions géopolitiques s’intensifieraient », a-t-il ajouté. Le Vieux continent verrait également ses précipitations chuter et avec elles, ses rendements agricoles. 

En Afrique de l’Ouest et en Asie du Sud, régions très dépendantes de l’agriculture de subsistance, les volumes de précipitations annuels pourraient être réduits de 20 à 30 %, ont déjà estimé d’autres études. Le phénomène ajouterait 50 cm à la montée déjà importante du niveau de la mer

« L’océan est déjà en train de changer, a souligné Jonathan Baker, du Meteo Office Hadley Centre au Royaume-Uni. Même si un effondrement est peu probable, un affaiblissement majeur est attendu, ce qui pourrait à lui seul avoir de graves conséquences sur le climat européen dans les décennies à venir. ‘

bL’effondrement effondremennnt de l’Amoc est de plus en plus prévible




L’AmocC Atlantic meridional overturning circulation, est une part essentielle de la circulation d’eau océanique dans l’Alantique Nord. Or une étude récente vient de monter qu’avec le réchauffement climatique, l’Apc risquait dans les prochaines années de disparaître. Si il ne disparaissait pas complètement, il perdrait toute efficacité dans l’atténuation des différences de tempétueusement entre lesrégions bénéficient de son influencet.

L’Amoc est une part importante du système climatique global. Il apporte des eaux tropicales chaude vers l’Europe et vers l’Arctique. Là il s’y refroidit et forme un courant de retour profond qui stabilise les aux tropicales. Or les observations des climatologues montren que depuis 1600 ans il n’a jamais été aussi faible. De nouveaux modèes prévoient que sa disparition pourrait survenir 50 à 100 ans plus tard99 plus tard.

Les scientifiques avaient prévenu qu’il faudraitr éviter à tout prix la disparion de l’Amoc sinon les été seraient brulants et les hivers glacials

En mai 2025, une étude publiée dans Nature avait également mis en évidence une étendue d’eau froide (cold blob) au sud du Groenland, signe selon ses auteurs que les eaux ne plongent pas dans les profondeurs aussi vite qu’elles le devraient. Et donc, que l’AMOC s’affaiblit plus rapidement que prévu.



Les effets du dérèglement climatique ne sont pas toujours ceux que l’on croit. Dans le scénario d’un arrêt de l’AMOC, la France, au lieu de suffoquer à longueur de temps prendrait plutôt… un gros coup de froid. D’après l’étude parue dans Environmental Research Letters, ce phénomène entraînerait en effet un « fort refroidissement » de l’Europe de l’Ouest (en raison d’une baisse du transport de chaleur dans l’air de plus de 80 %).  

« L’Europe serait méconnaissable par rapport à aujourd’hui », a quant à lui averti le climatologue britannique David Thornalley, co-auteur de l’étude parue dans Nature, dans les colonnes du Daily Mail. Les températures pourraient atteindre jusqu’à –30°C en Écosse. « On assisterait à un nombre considérable de réfugiés climatiques et les tensions géopolitiques s’intensifieraient », a-t-il ajouté. Le Vieux continent verrait également ses précipitations chuter et avec elles, ses rendements agricoles. 

En Afrique de l’Ouest et en Asie du Sud, régions très dépendantes de l’agriculture de subsistance, les volumes de précipitations annuels pourraient être réduits de 20 à 30 %, ont déjà estimé d’autres études. Cerise sur le gâteau, le phénomène ajouterait 50 cm à la montée déjà importante du niveau de la mer (+1,1 mètre d’ici 2100 dans le scénario pessimiste du GIEC, avec un risque de 5 % d’atteindre +2,38 mètres). 

Si ce sombre scénario digne du film Le Jour d’après, dans lequel l’arrêt complet du Gulf Stream déclenche une série de catastrophes sur la côte américaine, ne devrait pas se produire au cours de ce siècle, ce « problème » ne concerne pas seulement de lointaines générations futures. « L’océan est déjà en train de changer, a souligné Jonathan Baker, du Met Office Hadley Centre au Royaume-Uni. Même si un effondrement est peu probable, un affaiblissement majeur est attendu, ce qui pourrait à lui seul avoir de graves conséquences sur le climat européen dans les décennies à venir. Mais l’avenir de la circulation atlantique est toujours entre nos mains. » 

05/08/2025 L’activité cérébrale

La neurobiologie dispose d’outils pour enregistrer la dynamique de cette activité électrique, à diverses échelles spatiales et temporelles. Petit à petit, on a découvert que, quelle que soit l’échelle à laquelle on l’observe, l’activité cérébrale évolue dans le temps et selon sa localisation dans le cerveau. Qui plus est, les dynamiques spatiales et temporelles des activités électriques enregistrées sont très irrégulières, et le cerveau est capable de passer d’un type d’activité électrique à un autre, très différent. Ces dynamiques complexes et leurs changements seraient associés au traitement de l’information par le cerveau.

lorsqu’une information nouvelle arrive dans le cerveau, elle modifie la dynamique de fond préexistante, et c’est sans doute cette interaction d’un stimulus et de cette dynamique qui permet au cerveau de répondre au stimulus de façon adaptée et reproductible. Cette conception est fondée sur des dynamiques spatio-temporelles complexes, dont nous allons discuter l’origine et la façon dont elles peuvent être utilisées par le cerveau pour traiter l’information. Nous examinerons d’abord quelques sources possibles de hasard : hasard au niveau des molécules, des cellules, des réseaux. Et pourtant, de ce désordre, naît un ordre à grande échelle, ou du moins un fonctionnement dynamique cohérent et reproductible.

Aléas à tous les niveaux

Quelles sont les causes possibles des dynamiques complexes observées expérimentalement ? À l’échelle moléculaire, les neurones émettent des impulsions électriques grâce à des protéines insérées dans leur membrane externe – des canaux ioniques –, qui peuvent être ouvertes, et laisser passer des ions, ou fermées, et empêcher ce passage.

Or l’état des canaux fluctue de façon aléatoire dans le temps, la probabilité d’ouverture et de fermeture dépendant notamment du potentiel de membrane, c’est-à-dire de la différence de potentiel de part et d’autre de la membrane (ou schématiquement de la différence des concentrations ioniques). Cette propriété explique l’émission d’impulsions électriques par les neurones. Notons que la forme des impulsions produites par ce mécanisme aléatoire est néanmoins remarquablement constante.

Comme c’est le cas pour tous les types de cellules, le comportement des neurones résulte des réactions biochimiques et des régulations génétiques intracellulaires. Or les dynamiques temporelles de ces réactions ou voies de régulation ont une composante aléatoire, ce qui a aussi des conséquences importantes sur le comportement électrique des neurones.

La transmission des impulsions électriques entre neurones est assurée par les neurotransmetteurs présents dans les zones de contact entre deux neurones, les synapses. Or la quantité de neurotransmetteurs libérés à chaque événement de transmission est très variable, de sorte que l’impulsion émise par un neurone en réponse à un autre a elle aussi une importante composante aléatoire. À l’échelle du neurone, la diversité des types de neurones et de leurs réponses à un même stimulus est considérable. D’une part, le nombre de sous-types de neurones dans le cortex est grand (sans doute des dizaines), et ils ont des comportements différents. D’autre part, des études expérimentales ont montré que la réponse d’un neurone à certains stimulus peut être très variable. Enfin, des études théoriques indiquent que le comportement électrique d’un neurone, même isolé des autres, peut présenter une dynamique chaotique.

De plus, non seulement les populations de neurones sont nombreuses, mais chaque neurone est connecté à d’innombrables neurones. Une cellule pyramidale du cortex, par exemple, est connectée à environ 10 000 autres neurones et reçoit de l’ordre de 70 000 impulsions électriques élémentaires plus ou moins indépendantes chaque seconde. Ce bombardement a un aspect aléatoire et engendre un « bruit synaptique », une activité de fond intense et irrégulière qui influe sur la façon dont les neurones réagissent à un stimulus.

Enfin, le réseau des connexions entre neurones a lui-même une structure partiellement aléatoire, qui engendre dans certains cas des comportements chaotiques. De surcroît, les connexions entre neurones sont dynamiques : l’influence d’un neurone sur un autre varie dans le temps. Ce phénomène, dit de plasticité synaptique, est en grande partie responsable des changements de comportements dynamiques des réseaux de neurones cérébraux.

Distinguer le bruit du chaos

Ainsi, le fonctionnement du cerveau, de l’échelle moléculaire à l’échelle des réseaux de neurones, constitués de millions de cellules, est soumis à de multiples sources de complexité dynamique se manifestant sous forme de bruit ou de chaos. En quoi le bruit se distingue-t-il du chaos ? D’un point de vue expérimental, le bruit est une composante aléatoire qui se superpose à la partie déterministe d’un signal. Mathématiquement, le bruit est souvent représenté par une suite de variables aléatoires indépendantes. Et dans un système bruité, la connaissance des conditions initiales ne permet pas de connaître l’évolution future du système.

Dans un système chaotique déterministe, la connaissance des conditions initiales autorise en théorie à déterminer l’évolution du système à long terme. En revanche, pour que l’on puisse prédire cette évolution, il faudrait connaître l’état initial avec une précision infinie… Ce qui n’est évidemment pas possible. Or la plus petite erreur sur l’état initial engendre, à long terme, un comportement imprévisible. Ainsi, les systèmes chaotiques sont soumis à l’aléa résultant de la connaissance imparfaite des conditions initiales. Dès lors, pour savoir si un signal représente une dynamique chaotique, on doit l’analyser au moyen d’algorithmes de traitement adaptés.

En outre, on sait montrer mathématiquement qu’un système est chaotique en extrapolant son évolution temporelle sur des temps infinis. Le système est chaotique s’il évolue vers un état caractérisé par ce que l’on nomme un attracteur étrange. Un attracteur est une région de l’espace des phases vers laquelle convergent toutes les trajectoires des points associés au système étudié (l’espace des phases permet de représenter les variables indépendantes d’un système en fonction du temps). Il existe des attracteurs dits étranges : dans l’espace des phases, à proximité d’un attracteur étrange, deux trajectoires initialement très proches s’écartent rapidement.

En revanche, les systèmes chaotiques présentent, comme les systèmes bruités, une grande régularité statistique. Ainsi, les moyennes réalisées au fil du temps des quantités mesurables ne sont pas sensibles aux conditions initiales et évoluent de façon très régulière. C’est, par exemple, le cas d’un gaz, dont le comportement est décrit par des grandeurs telles que pression, volume, température, qui sont déterministes et constantes à l’équilibre, bien que la dynamique des molécules qui constituent ce gaz soit aléatoire. Cette régularité statistique est une clé d’un fonctionnement efficace du cerveau.

Comment mettre en évidence le chaos cérébral ?

Lors d’une expérience in vivo, aucun système ne peut être maintenu indéfiniment (ni même quelques instants) dans le même état. Dès lors, comment montre-t-on que le cerveau a, aux différentes échelles évoquées, un comportement chaotique ? Les études expérimentales portant sur des neurones isolés (voire sur une partie seulement d’un neurone) révèlent, dans certains cas, une dynamique chaotique. Qui plus est, John Guckenheimer et Ricardo Oliva, de l’Université Cornell, par exemple, ont montré que les équations les plus précises dont on dispose aujourd’hui pour décrire l’activité d’un neurone isolé (les équations de Hodgkin-Huxley) ont parfois un comportement chaotique.

Par ailleurs, les mathématiciens travaillent aussi sur des réseaux de neurones formels. Ce sont des modèles inspirés du fonctionnement des neurones, où chaque élément est relié à des éléments qui le précèdent (l’équivalent des neurones présynaptiques) et à un élément qui le suit (le neurone post-synaptique), la force de la connexion synaptique pouvant varier. On a mis en évidence du chaos dans de tels réseaux.

De très nombreuses études ont tenté de caractériser la dynamique des réseaux de neurones in vivo à une échelle plus globale, en particulier dans le signal fourni par les enregistrements d’électroencéphalographie. Au début des années 1980, l’étude des électroencéphalogrammes d’êtres humains durant l’éveil ou le sommeil peu profond a révélé la présence de chaos déterministe.

De même, Walter Freeman, à l’Université de Berkeley, a proposé une hypothèse pour expliquer la dynamique des mécanismes de reconnaissance des odeurs dans le bulbe olfactif. Dans son modèle, la reconnaissance d’une odeur particulière se matérialise par un changement drastique : on passe brusquement d’un attracteur étrange à un autre attracteur de caractéristiques différentes et spécifiques de l’odeur.

Enfin, on a montré, in vitro, que des neurones isolés de calamar géant ou des petits réseaux isolés de cochon d’inde ou de certains crustacés présentent une dynamique chaotique. Les preuves de chaos dans les dynamiques enregistrées in vivo sont rares, car le système évolue sans cesse au gré des informations internes et externes qu’il reçoit. Pourtant, Henri Korn et Philippe Faure, de l’Institut Pasteur, à Paris, en ont confirmé l’existence en étudiant l’activité synaptique de neurones de poissons.

Source

(B. Cessac) a ainsi montré en collaboration avec Jacques-Alexandre Sépulchre, de l’Institut non linéaire de Nice)

Le rôle du chaos dans le cerveau

Le rôle du chaos dans le cerveau

brain criticalité

Nous ne prenons pas assez en considération les exploits qu’accomplit à chaque instant notre cerveau. Dire son nom à quelqu’un est déjà une tâche difficile à réaliser par un calculateur

Keith Hengen, biologiste à la at Washington University à St Louis rappelle cependant que cela ne serait pas possible sans le désordre voire le chaos, qui règne à chaque instant dans le cerveau.

Ils nomment cette hypothèse «  the critical brain hypothesis ». Selon eux, la matière grise balance en permanence entre l’ordre et le désordre dans ce qu’ils nomment une “critical zone”, autrement dit au bord du chaos.

Il s’agit d’un phénomène que l’on retrouve en permanence dans la nature, par exemple dans les avalanches ou les incendies de forêts . De petits évènements peuvent avoir des conséquences catastrophiques . Ils sont gouvernes par des principes mathématiques.;

Ces hypothèses semblent absurdes, mais aujourd’hui d’autres neuroscientifiques les sles partagent. C’est le cas de Karim Jerbi, de l’Université de Montreal. Cette hypothèse devrait nous aider à augment notre flexibilisé mentale. Elle devrait aussi nous aider à mieux comprendre le fonctionnement des cerveaux de certains animaux chats ou singes. On lira auss sur ce sujet Woodrow Shew, physicien à l’University of Arkansas, Un article en ce sens vient d’être publie dans Neuron

Highlights

Criticality may be a unifying principle of optimal neural computation

Criticality is a key endpoint of homeostasis in the brain

Deviations from criticality correlate with multiple brain disorders and anesthesia

Conflicting evidence in criticality can be explained by temporal coarse graining

Summary

Brains face selective pressure to optimize computation, broadly defined. This is achieved by mechanisms including development, plasticity, and homeostasis. Is there a universal optimum around which the healthy brain tunes itself, across time and individuals? The criticality hypothesis posits such a setpoint. Criticality is a state imbued with internally generated, multiscale, marginally stable dynamics that maximize the features of information processing. Experimental support emerged two decades ago and has accumulated at an accelerating pace despite disagreement. Here, we lay out the logic of criticality as a general computational endpoint and review experimental evidence. We perform a meta-analysis of 140 datasets published between 2003 and 2024. We find that a long-standing controversy is the product of a methodological choice with no bearing on underlying dynamics. Our results suggest that a new generation of research can leverage criticality—as a unifying principle of brain function—to accelerate understanding of behavior, cognition, and disease.Le rôle du chaos

Introduction

Is there a unifying rule of computation in biology? Has evolution inevitably settled on a key principle that accounts for the brain’s capacity to generate behavior and cognition? Or is each brain function in each animal individually governed by different rules, without common ground? One direct path to answering such a question is to ask if there is a universal homeostatic endpoint that can account for computational capacity, flexibility, and robustness. Put another way, brains maintain themselves at some point that allows for all behavior and cognition despite enormous variability, unpredictability, and perturbation throughout life. Understanding such a setpoint, should it exist, would give insight into the mathematical principles at the core of the brain’s power. Through a combination of first-principles reasoning and a growing body of evidence, we propose and evaluate a candidate solution to this problem.

Brains are the physical basis of biological computation. Brain functions, such as those underlying behaviors, are directly caused by the computations of neuronal populations. In some cases, a highly specialized, permanent solution is needed; the conversion of light into a neurobiological signal requires light-sensitive molecules that are of little use to olfaction, for example. More often, however, the computations are not hard wired; they must be learned on the fly, capable of reconfiguration to accommodate diverse, ever-changing environmental conditions, experiences, and perturbations.

It is tempting to suppose that flexible computation implies a lack of constraint—each system is free to drift and be sculpted by experience and associative plasticity. But just as the tuning of a photosensitive molecule is essential to its function, the ability of a network of neurons to transmit and transform information also requires tuning; it is neither inevitable nor trivial. Consider that the principles that allow for flexible computation are intrinsically destabilizing. Mechanisms of learning and memory—Hebbian plasticity—operate by positive feedback. Left unchecked, LTP and LTD (mechanisms of associative plasticity) lead to catastrophic saturation or silence, respectively, at the circuit level.1,2,3,4,5 In simple terms, a brain that can learn requires some form of active stabilization. Known mechanisms of homeostatic plasticity—cellular and synaptic—are well positioned to counteract these destabilizing forces.6,7,8,9,10,11,12 However, our understanding of such homeostatic mechanisms is to some extent arbitrary—there is little a priori reason to predict that a neuron’s mean firing rate should be 3.2 Hz, for example. What determines the variegated setpoints throughout the central nervous system? Ultimately, the target of homeostasis in the brain is behavior; stabilizing a neuron’s firing rate is of little value if it does not contribute to reliable behavior. Because evolution can only select for behavior,13 and because behavior arises from the coordinated activity of millions to billions of neurons, there is a selective pressure for homeostatic processes in the brain to actively maintain an optimal setpoint at the level of population computation that gives rise to behavior.

The elucidation of such a setpoint would crystallize a fundamental principle of neurobiology. There are homeostatic setpoints at many levels of organization, including molecular biology, synaptic physiology, and single-cell biophysics. However, since behavior is the target of selective forces, we suggest that the endpoint of neuronal homeostasis must lie at the level of brain physiology penultimate to behavior—that is, at the level of neuronal population dynamics. While myriad genetic, molecular, synaptic, and cellular factors obviously shape and constrain neuronal function, the relevance of these factors is ultimately determined by their impact on population dynamics and thus behavior.

As discussed above, an adaptable neuronal population is precarious; optimal and reliable function requires active maintenance. This raises the question, “what aspect of population dynamics should be the target of homeostatic constraint?” To make this more coherent, consider a thought experiment; imagine that you are responsible for tuning the activity of billions of neurons. You have one knob for every parameter that controls population dynamics—that is, cell-type-specific wiring rules, synaptic strengths, the relative importance of excitation and inhibition, differences in single-neuron biophysics, network structure, assorted time constants, and countless others. You can try all possible combinations of the knobs, searching an enormous space of setpoints, seeking a state that suits computation. Such a search would reveal large regions of parameter space that are not viable for general, flexible computation. One region might be good for a specific task but poor for another. For example, a desynchronized region might be well suited for low-noise sensory coding but might perform poorly for long-range coordination across brain regions. Much of the parameter space would be relatively insensitive to small adjustments of the knobs. However, you would occasionally encounter an abrupt change in population dynamics. This is analogous to how water behaves identically at 10°C and 8°C, but water at 1°C is quite different than water at −1°C. Such a tipping point goes by many names including a bifurcation, a phase transition, or simply a boundary in parameter space. At a special kind of boundary, called criticality, population dynamics emerge with multiple properties ideally suited for flexible computation (Figure 1). A neuronal population at criticality maximizes dynamic range, information storage, information transmission, controllability, susceptibility, and more (more details in the next section and previous reviews14,15,16). Thus, it seems that combined with learning rules, operating near this setpoint should allow your network to achieve any desirable function. In other words, a brain tuned to criticality should be able to learn to do almost anything.

Figure 1 Criticality: A high point in the computational fitness landscape

Here, we contend that criticality is a unifying computational principle central to brain function and a key endpoint of neuronal homeostatic control. In the next section, we lay out the rationale for our argument and detail the computationally advantageous properties of neuronal population dynamics at criticality. We also carefully consider supporting experimental evidence. After that, we describe eight testable predictions implicated by the criticality hypothesis, and we systematically review two decades of experimental evidence that supports these predictions (a downloadable annotated bibliography for all 320 papers is provided in the supplemental information). Finally, we perform a meta-analysis of prior work, reconciling studies that were long thought to contradict the criticality hypothesis.

04/09/2025 Nos cousins, les Denissoviens (annule et remplace l’article précédant, sans titre ni date, mis en ligne par erreur

Il y a plus de 90 ans fut découvert dans la province de Harbin en Chine un petit crâne d’enfant fossilisé vieux de 146.000 ans. Depuis les paléologues savent par l’étude de l’ADN de l’une de ses dents qu’il appartenait à une représentante des Dénisoviens, ces prédécesseur de l’homme mderne.

Les Dénisoviens comportaient des caractères spécifiques Leurs faces étaient semblable à la nôtre, mais ils avaient d’épaisses arcades sourcilières en n’avaient pas de fronts.

Cette découverte relança au sujet des Dénisoviens un débat qui ne faisaient que commencer. Ils se placent comme les Néanderthaliens s en proches prédécéessurs de l’Homo Sapien. Ils sont mêmrd plus proches de l’homme d’aujourd’hui

Faut-il en conséquance les considérer comme les Ancestors X, une population qui donna naissance à l’homme moderne et dont certains sont des descendants comme le montrent leurs gènes .

Bence Viola de l’ Université de Toronto, Canada, qui fut membre de l’équipe ayanf fat la découverte pensait qu’ill fallait faire des Dénisoviens une nouvelle espèce. Il fut décidé de ne pas le faire, d’autent plus qu’une petite pettie de l’actuelle population humaine, dans le sud-est asiatique et l’Océanie, , compote entre 4 et 6 pour cent de gènes provenant des Dénisoviens. Certains chercheurs font d’eux une population au sein de l’espèce Homo sapiens.

Beaucoup pensent à l’inverse qu’il faut considérer les Dénisoviens comme une espèce distincte de celle de l’homme, bien qu’ils aient beaucoup de traits communs et aient une façon identique d’exploiter les ressources du milieu.

Les Dénisoviens comportaient des caractères inusuels . Leurs faces étaient semblable à la nôtre, mais ils avaient d’épaisses arcanes sourcilières et n’avaient pas de fronts.

Les débats au sujet des Dénisoviens ne faisaient que commencer. Ils se placent comme les Néandrtaiens en proches prédécessur de lHomo Sapien. De plus, ils sont plus proches de l’homme d’auourd’hui.

Faut-il en conséquence les considérer comme les Ancestors X, une population qui donna naissance à homme moderne et dont certains d’entre eux descendent.

Bence Viola de l’ Université de Toronto, Canada, et qui fut membre de l’équipe ayanf fat la découverte pensait qu’ill fallait faire des Dénisoviens une novelle espèce d’Homo. Il fut décidé de ne pas le faire, d’autant plus que qu’une petite pettie de l’actuelle population humaine, dans le sud-est asiatique et l’Océanie, compote entre 4 et 6 pour cent de gènes provenant des Dénisoviens.

Un des plus grands mystères de l’histoire humaine récente est encore en discussion. L’analyse génétique a surpris en montrant qu’autrefois l’asie de l’est abritait une importante population d’humains déjà connus sous le nom de Denisoviens. Jusqu’ici nous ne connaissions rien de leur apparence et de leurs mœurs, ni à qui ils ressemblaient.

Un des plus grands mystères de l’histoire humaine récente est encore en discussion. L’analyse génétique a surpris en montrant qu’autrefois l’asie de l’est abritait une importante population d’humains déjà connus souus le nom de Denisoviens. Jusqu’ici nous ne connaissions rien de leur apparence et de leurs mœurs, ni à qui ils ressemblaient.

Ceci n’est plus le cas aujourd’hui. Grâce à la découverte il y a plus de 90 ans d’un petit crâne ancien de 146.000 ans dans la province de Harbiin en Chine nous savons par l’étude de l’ADN de l’une de l’une de ses dents qu’il appartenait à ce prédécesseur de l’homme mderne.

Les Dénisoviens comportaient des caractères inusuels . Leurs faces étaient semblable à la nôtre, mais ils avaient d’épaisses arcases sourcilières en n’avaient pas de fronts.

Les débats au sujet des Dénisoviens ne faisaient que commencer. Ils se placent comme les Néandrtaiens en proches prédécessur de lHomo Sapien. De lus, ils sont plus proches de l’homme d’auourd’hui

Faut-il en conséquance les considérer comme les Ancestors X, une population qui donna naissance à homme moderne et dont certains descendants ?

Faut-il en conséquance les considérer comme lesAncestorsX, une population qui adonné onna naissance à homme moderne et dont certains descendants comme le montrent urs gènes font d’eux nos cousins les plus proches.

Bence Viola de l’ University of Toronto, Canada, et qui fut membre de l’équipe ayanf fat la découverte pensait qu’ill fallait faire des Dénisoviens une noouvelle espèce, Homo altaiensis. Il fut décidé de ne pas le faire, d’autent plus que qu’une petite pettie de l’actuelle population humaine, dans le sud-est asiatique et l’Océanie, , compote entre 4 et 6 pour cent de gènes provenant des Dénisoviens. Certains chercheurs font d’eux uue ppulation au sein de l’espèce Homo sapiens.

Beaucoup pensent à l’inverse qu’il faut considérer les Néanderthaliens comme une espèce distincte de celle de l’homme, bien qu’ils aient beaucoup de traits communs et aient une façon identique d’exploiter les ressources du milieu.

;omme le montrent urs gènes font d’eux nos cousins les plCeci n’est plus le cas aujourd’hui. Grâce à la découverte il y a plus de 90 ans d’un petit crâne ancien de 146.000 ans dans la province de Harbiin en Chine nous savons par l’étude de l’ADN de l’une de l’une de ses dents qu’il appartenait à ce prédécesseur de l’homme mderne.

Les Dénisoviens comportaient des caractères inusuels . Leurs faces étaient semblable à la nôtre, mais ils avaient d’épaisses arcases sourcilières en n’avaient pas de fronts.

Les débats au sujet des Dénisoviens ne faisaient que commencer. Ils se placent comme les Néandrtaiens en proches prédécessur de lHomo Sapien. De lus, ils sont plus proches de l’homme d’auourd’hui

Faut-il en conséquance les considérer comme les Ancestors X, une population qui donna naissance à homme moderne et dont certains descendants ?

Faut-il en conséquance les considérer comme lesAncestorsX, une population qui adonné onna naissance à homme moderne et dont certains descendants comme le montrent urs gènes font d’eux nos cousins les plus proches.

Bence Viola de l’ University of Toronto, Canada, et qui fut membre de l’équipe ayanf fat la découverte pensait qu’ill fallait faire des Dénisoviens une noouvelle espèce, Homo altaiensis. Il fut décidé de ne pas le faire, d’autent plus que qu’une petite pettie de l’actuelle population humaine, dans le sud-est asiatique et l’Océanie, , compote entre 4 et 6 pour cent de gènes provenant des Dénisoviens. Certains chercheurs font d’eux uue ppulation au sein de l’espèce Homo sapiens.

Beaucoup pensent à l’inverse qu’il faut considérer les Néanderthaliens comme une espèce distincte de celle de l’homme, bien qu’ils aient beaucoup de traits communs et aient une façon identique d’exploiter les ressources du milieu.

;omme le montrent urs gènes font d’eux nos cousins les pl