31/05/2025 Quelle est la profondeur des relations entre objets quantiques?

Carlos Vieira et ses collègues de l’Université de Campinas au Brésil ont apporté une réponse mathématique à cette question, inspirée de la mathématique des graphes. Ils attribuent ceci au principe d’exclusivité (exclusity principle). Celui-ci montre qu’il n’est pas possible de mesurer simultanément les caractères quantiques dans un ensemble d’objets quantiques.

L’état quantique d’une particule est défini par des « nombres quantiques ». Le principe d’exclusion interdit à toute particule élémentaire appartenant à un système de fermions d’avoir exactement les mêmes nombres quantiques qu’un autre fermion du système.

Pour Aden Cabello, de l’université de Seville, ce résultet est très important. Il montre comment la Nature opère spontanément.

Référence

Unexpected consequences of postquantum theories in the graph-theoretical approach to correlations

José Nogueira1,*, Carlos Vieira2, and Marcelo Terra Cunha2

  • Phys. Rev. A 111, 052418 – Published 9 May, 2025

DOI: https://doi.org/10.1103/PhysRevA.111.052418

Abstract

This work explores the implications of the exclusivity principle (EP) in the context of quantum and postquantum correlations. We first establish a key technical result demonstrating that given the set of correlations for a complementary experiment, the EP restricts the maximum set of correlations for the original experiment to the antiblocking set. Based on it, we can prove our central result: if all quantum behaviors are accessible in Nature, the EP guarantees that no postquantum behaviors can be realized. This can be seen as a generalization of the result of B. Amaral et al. [Phys. Rev. A 89, 030101(R) (2014)], to a wider range of scenarios. It also provides novel insights into the structure of quantum correlations and their limitations.



























Les
relations entre deux objets quantiques sont si étroites que mesurer
les propriétés d’un de ces objets peut révéler celles de l’autre,
quelle que soit la distance qui les sépare. On appelle ceci
l’intrication quantique.

Or il
est apparu que l’intrication, aussi étroite qu’elle puisse être,
disparaît quand sa force atteint une valeur maximum.

Carlos
Vieira et ses collègues de l’Université de Campinas au Brésil ont
apporté une réponse mathématique à cette question, inspirée de
la mathématique des graphes. Ils attribuent ceci au principe
d’exclusivité (exclusity principle). Celui-ci montre qu’il n’est pas
possible de mesurer simultanément les caractères quantiques dans
un ensemble d’objets quantiques.

L’état
quantique d’une particule est défini par des « nombres quantiques
». Le principe d’exclusion interdit à toute particule élémentaire
appartenant à un système de fermions d’avoir exactement les mêmes
nombres quantiques qu’un autre fermion du système.



Pour Aden Cabello,
de l’université de Seville, ce résultet est très important. Il
montre comment la Nature opère spontanément.







Unexpected consequences of
postquantum theories in the graph-theoretical approach to
correlations

José
Nogueira
1,*,
Carlos
Vieira
2, and
Marcelo
Terra Cunha
2



PDFShare


Phys. Rev. A 111,
052418 –
Published 9 May, 2025DOI: https://doi.org/10.1103/PhysRevA.111.052418




Abstract

This work explores the
implications of the exclusivity principle (EP) in the context of
quantum and postquantum correlations. We first establish a key
technical result demonstrating that given the set of correlations for
a complementary experiment, the EP restricts the maximum set of
correlations for the original experiment to the antiblocking set.
Based on it, we can prove our central result: if all quantum
behaviors are accessible in Nature, the EP guarantees that no
postquantum behaviors can be realized. This can be seen as a
generalization of the result of B. Amaral et
al.
[Phys.
Rev. A
89,
030101(R) (2014)
], to
a wider range of scenarios. It also provides novel insights into the
structure of quantum correlations and their limitations.


Pour Aden Cabello, de l’université de Seville, ce résultet est très important. Il montre comment la Nature opère spontanément.



30/05/2025 La cryptographie post-quantique

Dans cet article simplifié par nous, le cryptologue Benjamin Wesolowski nous explique comment renforcer les méthodes cryptographiques afin de les rendre résistantes face à l’avènement éventuel de l’ordinateur quantique.

Comment renforcer les méthodes cryptographiques afin de les rendre résistantes face à l’arrivée des calculateurs quantiques.
La cryptographie a connu une avancée majeure dans les années 1970, lorsque les cryptographes ont commencé à puiser dans des théories mathématiques jusqu’alors inexploitées, comme la théorie des nombres. Cette avancée majeure, c’est la cryptographie à clé publique. La discipline est aujourd’hui confrontée à de nouveaux défis, posés notamment par les ordinateurs quantiques. Les problèmes deviennent de plus en plus complexes, et l’exploration mathématique joue un rôle de plus en plus important.

Quelle est la différence entre cryptographie à clé publique et cryptographie à clé secrète ?
La cryptographie à clé secrète est la méthode la plus ancienne. L’idée est simple : deux interlocuteurs veulent communiquer en secret sur un canal non sécurisé, où tous leurs messages peuvent être interceptés. Ils se mettent d’accord sur un procédé de chiffrement, permettant de transformer un message en un texte inintelligible, envoyé sur le canal, puis déchiffré par le destinataire.

Pour que seul le destinataire puisse déchiffrer le message, les interlocuteurs se sont au préalable mis d’accord sur une méthode secrété permettant le chiffrement et le déchiffrement : la clé secrète. Un espion, sans la clé secrète, ne peut pas lire le texte intercepté.

Mais comment les interlocuteurs peuvent-ils choisir une telle clé secrète, sans avoir, ce qui est le plus souvent le cas, à se rencontrer physiquement ? Toutes leurs communications peuvent être interceptées et ils n’ont pas encore choisi de clé secrète commune, donc comment pourraient-ils se mettre d’accord sur une clef secrète . C’est un problème que l’on a longtemps pensé insoluble, jusqu’à l’invention de la cryptographie à clé publique.

Celle-ci repose sur le protocole de Diffie-Hellman. Ce protocole, qui a été le premier en la matière et qui est encore très utilisé de nos jours, a un fonctionnement assez simple. Les interlocuteurs commencent par se mettre d’accord sur un « nombre » n, qui n’est pas secret. Le premier choisit en secret un nombre entier x, et envoie nx. Le second choisit également en secret un nombre entier y, et envoie ny. Chacun des interlocuteurs est en mesure de calculer nxy. En effet, le premier connait x (son secret) et ny (qui lui a été envoyé) et peut donc calculer (ny)x. De manière similaire, le second peut calculer (nx)y. Un espion aura pu intercepter n, nx et ny, mais le « nombre » nxy n’a jamais transité sur le canal non sécurisé : c’est un secret partagé par les interlocuteurs, qui peut désormais leur servir de clé secrète.

En réalité, voyant nx, un espion pourrait tenter de retrouver x : c’est ce qu’on appelle un logarithme. S’il y parvient, il pourra calculer (ny)x, et tout s’écroule. Calculer des logarithmes pour des nombres usuels est facile. En revanche, n peut être choisi parmi d’autres types de « nombres » où ce problème est bien plus dur. C’est ce qu’on appelle le problème du logarithme discret.

Plusieurs méthodes ont toutefois été mises au point pour le résoudre, de manière plus efficace que la simple recherche exhaustive. Cependant, elles nécessitent tout de même une énorme puissance de calcul lorsque les nombres impliqués sont très élevés. Cela signifie qu’avec des paramètres suffisamment grands, faire tourner tous les ordinateurs du monde, pendant plusieurs milliards d’années, ne suffirait pas pour résoudre le problème.

C’est pourquoi on considère le problème du logarithme discret comme difficile et le protocole de Diffie-Hellman comme le plus sûr à ce jour pour protéger nos communications.

Cependant en supposant qu’un individu ait accès à un ordinateur quantique suffisamment puissant et stable, il pourrait alors résoudre le problème du logarithme discret de façon efficace.

On peut imaginer que des agences de renseignement prennent soin d’enregistrer les échanges chiffrés actuels. Elles sont peut-être incapables de les lire aujourd’hui, mais cela leur deviendra possible le jour où ils auront accès à un ordinateur quantique. Elles pourront donc casser de nombreux protocoles de cryptographie.

Un ordinateur quantique n’est pas un super ordinateur classique. Il est beaucoup plus puissant. Il fonctionne différemment : à la place des bits classiques, il s’appuie sur des bits quantiques, qui permettent d’encoder en superposition quantique de nombreux états différents.

Une superposition quantique repose sur la constatation qu’un système quantique (comme un atome, un électron ou un photon) peut exister dans plusieurs états en même temps, tant qu’on ne l’observe pas. L’exemple le plus souvent utilisé pour expliquer ce concept est celui du chat de Schrödinger.:

Cette propriété offre un avantage aux ordinateurs quantiques pour résoudre certains problèmes – un avantage parfois considérable, mais encore une fois, seulement pour certains problèmes. Et le problème du logarithme discret figure justement parmi ceux pour lesquels l’ordinateur quantique serait bien plus efficace !

Faut-il s’inquiéter pour la sécurité de nos communications ?
S’inquiéter aujourd’hui, non. L’ordinateur quantique relève pour l’heure de la théorie. Les prototypes existants ne sont pas capables de casser les méthodes actuelles de cryptographie.

Mais qu’arrivera-t-il si on parvient à créer un ordinateur quantique suffisamment puissant et stable ?
Il vaudrait mieux ne pas attendre que la menace apparaisse pour se poser la question ! En effet, s’il faut changer tous nos standards de communication, cela prendra plusieurs années. De plus, on peut aisément imaginer que des individus ou agences de renseignement prennent soin d’enregistrer les échanges chiffrés actuels. Ils sont peut-être incapables de les lire aujourd’hui, mais cela deviendra une mine d’informations le jour où ils auront accès à un ordinateur quantique. C’est une méthode dite « récolte maintenant, déchiffre plus tard ». 

Cela a déjà eu lieu par le passé. Dans le cadre du projet Venona, les services de renseignement américains avaient intercepté des communications soviétiques chiffrées émises pendant la Seconde Guerre mondiale. Le code ayant été décryptés par eux en 1946, ils sont ensuite parvenus à déchiffrer progressivement les messages. Ils ont découvert notamment l’étendue de l’espionnage atomiquet de l’URSS durant le projet Manhattan.

Alors comment faire pour rendre la cryptographie résistante aux ordinateurs quantiques ?
En remplaçant les problèmes vulnérables, tels que le problème du logarithme discret, par des problèmes plus difficiles, résistants aux algorithmes quantiques. Pour cela, il faut identifier des problèmes candidats et tester leur difficulté.

C’est là que la cryptologie algorithmique joue un rôle fondamental : il s’agit de mettre au point les meilleurs algorithmes permettant de résoudre ces problèmes pour tester leurs limites. Et en étudiant ces techniques, nous pouvons adapter les méthodes de cryptographie, afin de les rendre plus résistantes aux potentielles attaques. Cette approche algorithmique s’applique de manière générale, pas seulement dans une perspective post-quantique.

Durant des décennies, la cryptologie algorithmique a compliqué les problèmes classiques comme le logarithme discret. Aujourd’hui, l’investissement collectif est largement redirigé vers les problèmes post-quantiques.

Il y a plusieurs candidats, en ce sens, dont certains autour des réseaux euclidiens. Un réseau euclidien est un arrangement régulier de points dans l’espace, comme les points d’intersection d’une grille. Un des problèmes étudiés est le suivant : dans un maillage donné, quels sont les deux points les plus proches possibles ? Pour une grille carrée, en 2D, la réponse est facile à trouver. Mais si la grille n’est pas si simple, et dans une dimension 100, 200 ou 500, alors la tâche est beaucoup plus difficile, même pour un ordinateur quantique.

Un autre candidat repose sur les courbes elliptiques et les isogénies. Il s’agit de concepts mathématiques assez abstraits, donc plus difficiles à expliquer en quelques mots. Pour faire simple, dans certains cas, deux courbes elliptiques peuvent être reliées par une « isogénie » – une formule permettant de passer de l’une à l’autre. Le problème, que l’on suppose difficile, est alors le suivant : pour deux courbes données, peut-on trouver l’isogénie qui les relie ?





28/05/2025 La désintégration du faux vide

Le concept d’état de vide est fondamental en physique. Il ne s’agit pas d’un vide absolu, mais d’un état dans lequel les champs fondamentaux de l’Univers (comme le champ électromagnétique ou le champ de Higgs) ont atteint leur niveau d’énergie le plus bas.

Mais qu’en serait-il si certains de ces champs n’étaient pas dans leur état d’énergie véritablement minimal ?

Parmi tous les champs quantiques, le champ de Higgs joue un rôle crucial : il est responsable de la masse des particules. Or, certaines analyses suggèrent que le champ de Higgs pourrait ne pas être dans son « véritable » vide, mais dans un faux vide — une sorte de plateau temporaire, moins stable qu’il n’y paraît.

Si cela devait arriver, la structure même de la matière changerait. Les électrons et les quarks deviendraient des milliards de fois plus massifs, les atomes complexes cesseraient d’exister, les étoiles s’éteindraient, et la chimie qui rend la vie possible disparaîtrait.

La transition d’un faux vide vers un vrai vide ne se ferait pas de manière progressive. Elle se produirait par un phénomène connu sous le nom de tunnel quantique .

Une bulle du « vrai vide » apparaîtrait soudainement quelque part dans l’Univers. Cette bulle s’étendrait à la vitesse de la lumière, engloutissant tout sur son passage. À l’intérieur de cette bulle, les lois de la physique seraient radicalement différentes. Il ne serait pas possible d’échapper à ce raz-de-marée cosmique : il se déplacerait plus vite que n’importe quel message d’alerte possible.

Cependant les calculs rassurent. Selon David Tong, physicien théoricien à l’Université de Cambridge, le temps estimé avant une désintégration du faux vide est astronomiquement long — environ un milliard de milliards de milliards de milliards de milliards d’années. À titre de comparaison, l’Univers actuel n’aurait que 13,8 milliards d’années.

https://www.popularmechanics.com/space/a64459547/universe-collapse/

David Tong https://www.damtp.cam.ac.uk/user/tong/teaching.html

29/05/2025 Homo sapiens a survécu à la dernière ère glaciaire sans fuir vers le sud

Des chercheurs ont démontré que certains de nos ancêtres avaient survécu à la dernière grande période de glaciation sans avoir à migrer vers le sud de l’Europe.

Une nouvelle étude, dont on trouvera ci-dessus les références et l’abstract, suggère que les humains (Homo sapiens) n’auraient pas eu besoin de migrer comme la plupart des autres espèces durant la dernière période glaciaire. Cette hypothèse remet en question de nombreuses hypothèdes sur le mode de vie de nos ancêtres durant cette période, révèle Phys.org dans un article publié le 14 octobre 2024.

En utilisant des données génétiques, des scientifiques ont démontré que certains humains étaient restés en Europe centrale durant la dernière grande période de glaciation. Jusqu’ici, une grande majorité de la communauté archéologique considérait que l’homme moderne s’était retiré dans le sud de l’Europe.

L’équipe d’Oxala García-Rodríguez, de l’université de Bournemouth (Royaume-Uni), a examiné l’histoire génétique de vingt-trois mammifères communs en Europe, dont l’Homo sapiens. L’étude montre que les hommes, au même titre que les ours bruns et les loups « étaient déjà largement répartis à travers l’Europe au plus fort de la dernière glaciation, soit sans refuge discernable, soit avec des refuges au nord et au sud », détaillent John Stewart et Jeremy Searle, tous deux membres de l’équipe.

Fait surprenant, étant donné que nos ancêtres étaient originaires d’Afrique et qu’ils étaient très certainement peu enclins à résister au froid du nord de l’Europe.

On ne sait pas si ces humains ont dû s’adapter à l’environnement, par exemple parce qu’ils étaient omnivores et pouvaient manger de nombreuses choses différentes, ou s’ils ont survécu grâce à la technologie, notamment celle de l’arc et des flèches.

À une période où le dérèglement climatique n’est plus à prouver, de telles observations sur les comportements humains et animaux lors des basculements météorologiques passés constituent un espoir certain. Mais cette fois-ci, c’est le réchauffement qui sera en cause mais pas le refroidissement

Référence

Quaternary Environments and Humans

2025, 100067 Volume 3, Issue 2

The great divide? Differences in environmental and hunter-gatherer responses to the 8.2 ka BP event between northwestern and northeastern Eurasia

Pavel E. Tarasov , Andrzej W. Weber, others

https://doi.org/10.1016/j.qeh.2025.100067

Abstract

In this contribution we provide an overview of the potential impacts of the 8.2 ka BP cooling event on hunter-gatherer societies in northwestern Europe and northern/eastern Eurasia. There seems to be a division between the two parts of the continent, with Atlantic Europe generally seeing a stronger climatic and environmental impact compared to continental Eurasia. This plausibly relates to the greater effects on oceanic weather patterns, particularly those of the North Atlantic. The palaeoenvironmental record is more limited for the Pacific coast of northeast Asia, but the evidence to date does not suggest as strong an impact there. We then focus on a case study of the hunter-gatherers of Cis-Baikal in southern Siberia. While the archaeological record for the period pre-8200 cal BP is patchy, we find no clear evidence for any impact on the region’s hunter-gatherer communities. Major visible changes occur only with the appearance of the Kitoi culture from ca. 7600 cal BP, which sees the introduction of pottery, the bow and arrow, and large cemeteries. This appears to be an internal sociotechnological development unrelated to any abrupt changes in the regional climate and environment at this time.

29/05/2025 Des extraterrestres ont-ils utilisé des sphères de Dyson pour s’installer discrètement sur la Terre ?

Une sphère de Dyson est une mégastructure hypothétique décrite en 1960 par le physicien et mathématicien américano-britannique Freeman Dyson, dans un court article publié dans la revue Science et intitulé Search for Artificial Stellar Sources of Infrared Radiation (« Recherche de sources stellaires artificielles de rayonnements infrarouges ») Cette structure d’astro-ingénierie consiste en une sphère de matière, artificielle et creuse, située autour d’une étoile et conçue pour en capturer presque toute l’énergie émise pour une utilisation industrielle. Dyson nomme également cette structure « biosphère artificielle ».

Bien que Dyson ait été le premier à formaliser et populariser ce concept, auquel son nom reste attaché , l’idée lui en est venue en 1945 après la lecture du roman Star Maker d’Olaf Stapledon paru huit ans plus tôt. Dyson a également été influencé par la sphere imaginée par le Britannique John Desmond Bernal en 1929.

Dans son article, Dyson explique qu’une telle sphère est un moyen idéal pour une civilisation très avancée de faire face à un accroissement démographique exponentiel. Il la décrit comme une coquille enserrant son étoile parente, captant la quasi-intégralité de sa radiation stellaire. Dyson explique que de telles sphères pourraient aussi abriter des structures d’habitations. Enfin, il recommande d’observer la Galaxie dans l’infrarouge afin de détecter de possibles sphères dans notre galaxie.

Dyson, mais aussi d’autres auteurs après lui, ont décrit les propriétés de cette sphère, aussi bien concernant sa composition, sa température, sa localisation au sein de son système solaire, que sa capacité de déplacement. L’idée qu’une civilisation extraterrestre avancée puisse pallier ses problèmes énergétiques au moyen d’une biosphère artificielle est une solution possible au paradoxe de Fermi, problème auquel Dyson a tenté de répondre en précisant les conditions d’observation. Plusieurs variétés de sphères de Dyson sont conceptualisées : en coquille, essaim ou encore bulle. Le modèle élaboré par Dyson a influencé nombre de mégastructures hypothétiques.

Plusieurs programmes de recherche de possibles sphères de Dyson ont été menés depuis 1985. Si des étoiles ont pu afficher des caractéristiques proches de celles attendues concernant ces mégastructures spatiales, aucune conclusion n’a pu être tirée concernant l’existence probante de tels objets artificiels. En revanche, la science-fiction a beaucoup utilisé l’idée de Dyson, que ce soit en littérature, au cinéma, dans les jeux vidéo, ainsi qu’à la télévision.

Wikipedia https://fr.wikipedia.org/wiki/Sph%C3%A8re_de_Dyson

Stapledon et Kardachev

Freeman J. Dyson a eu l’idée des « biosphères artificielles » en lisant le roman de science-fiction Star Maker (Créateur d’étoiles, 1937) d’Olaf Stapledon, qui décrit des « pièges à lumière » (light traps) : des mégastructures produites par une civilisation très avancée technologiquement. Dans Créateur d’étoiles, des centaines de milliers de mondes ont construit des structures habitables concentriques enserrant leurs étoiles, captant ainsi la majeure partie de leurs radiations solaires, pour leurs besoins énergétiques.

Les anneaux extérieurs, plus éloignés du soleil, se composent quant à eux de globes abritant la vie John Desmond Bernal a cependant été le premier, dès 1929, dans son ouvrage The World, the Flesh, and the Devil, à penser un habitat spatial consistant en une coquille abritant I000 personnes et remplie d’air. Les autres modèles qui ont suivi (le Sunflower, le tore de Stanford et le cylindre O’Neill) ont, à l’image de l’idée initiale de Bernal, imaginé une mégastructure produisant elle-même son énergie solaire. L’écrivain de science-fiction Raymond Z. Gallun imagine quant à lui, dans Iszt–Earthman (1938) puis dans The Raiders of Saturn’s Ring (1941), comment l’humanité pourrait démanteler des planètes entières pour fabriquer des anneaux dans lesquels les terriens vivraient, en orbite autour du Soleil. Revenant sur ces écrits, Gallun se considère comme l’un des précurseurs de la théorie de Dyson.

Dyson a également eu connaissance des travaux de l’asttronome russe Nikolaï Kardachev, qui a établi une classification des civilisations extraterrestres, selon l’usage qu’elles font de l’énergie disponible dans leurs environnements. Une civilisation de type I est capable d’utiliser toute l’énergie disponible sur sa planète d’origine (approximativement une puissance de 1,74 × 1017 watts, soit l’équivalent de cent millions de réacteurs nucléaires comme l’EPR). Une civilisation de type II doit être capable de collecter toute l’énergie de son étoile centrale, soit une puissance valant à peu près 1026 W. Une sphère de Dyson appartient donc au type II. Enfin, une civilisation de type III a à sa disposition toute l’énergie émise par la galaxie dans laquelle elle est située, soit près de 1036 W.

S’appuyant sur cette échelle, Dyson a calculé qu’une société avec 1 % de croissance économique annuelle peut atteindre le type II en 2 500 ans, c’est-à-dire qu’elle est susceptible de puiser directement, et intégralement, son énergie de son étoile.

Freeman Dyson, mathématicien et physicien travaillant à l’Institute for Advanced Study de Princeton, avait proposé l’hypothèse des mégastructures sphériques dans un court article, publié dans Science, et intitulé Search for Artificial Stellar Sources of Infrared Radiation (« Recherche de sources stellaires artificielles de rayonnements infrarouges »), le 3 juin 1960.

Autodestruction des sphères.

Aujourd’hui, Brian Lacky, astrophysicien à Oxford, a calculé que si les Sphères de Dyson avaient existé, chacune d’entre elles se serait emplie de satellites cherchant à y puiser l’énergie nécessaire à leur civilisation d’origine. Elles se seraient détruites en quelques millions d’années du fait des collisions en chaîne s’en étant suivies, impossibles à éviter.

28/053025. Amniotes en Australie

Des empreintes de griffes fossilisées trouvées en Australie suggèrent que des amniotes – les ancêtres des reptiles, des oiseaux et des mammifères, y vivaient. Ces empreintes sont âgées de 354 à 358 millions d’années, soit 40 millions d’années plus tôt que précédemment estimés.

Les traces d’amniotes montrent que ces espèces étaient apparues dans l’ancien continent du Gondwana, soit quelques dizaines de millions d’années avant celles découvertes dans l’hémisphère nord en Europe et en Amérique.

Pour le Pr John Long principal auteur de l’article publié dans Nature .“Ces fossiles permettent de redécouvrir l’histoire des amniotes, apparues beaucoup plus tôt que l’on croyait.”

Les experts des premiers tétrapodes enseignant à Uppsala University en Suède, ont confirmé l’importance de la découverte. Celle-ci a fait remonter l’apparition des amniotes au début du carbonifère. Une période ainsi nommée parce que s’y formèrent les riches gisements de charbon qui ont fait la richesse de l’hémisphère nord au 19e siècle.

Cette période fut un point pivot dans l’histoire de la Terre. Les niveaux d’oxygène y étaient élevés et de grandes forêts recouvraient les terre émergés Les marécages étaient pleins d’amphibiens, certains longs de plus de 5 mètres. et de grands requins avaient envahi les rivières. Une grande diversité d’animaux et de plantes commençait à apparaître, notamment des poissons à arrête et des arbres se reproduisant par semence

23/05/2025 Cancer, le double jeu du fer

Auteur
Mehdi Harmi

https://lejournal.cnrs.fr/articles/cancer-le-double-jeu-du-fer?utm_source=firefox-newtab-fr-fr

Les approches telles que la chimiothérapie ont tendance à n’être efficaces que contre les cellules cancéreuses qui prolifèrent le plus. À l’Institut Curie, Raphaël Rodriguez et son équipe ont opté pour une démarche unique. Ils ciblent les cellules à fort potentiel métastatique grâce à une molécule capable d’induire une mort cellulaire particulière, médiée par le fer : la ferroptose.

Le cancer, le mal du siècle, continue de résister à l’arsenal thérapeutique développé au fil des ans par les scientifiques du monde entier. Le fait est que le cancer est retors. Aujourd’hui, la plupart des thérapies ciblent préférentiellement les cellules cancéreuses en prolifération. Ces divisions rapides, en plus de permettre à la tumeur de croître, induisent une pression de sélection sur leur propre communauté. Ainsi, au sein de la tumeur, certaines cellules s’adaptent et arrêtent de se diviser pour entrer dans une sorte de dormance leur permettant d’échapper aux traitements.

Plus encore, cet état non prolifératif est associé dans certains cas à d’autres propriétés, à savoir la capacité à migrer, à envahir d’autres tissus – bref, à métastaser. Ces cellules métastatiques ont, de surcroît, une plus forte résistance aux chimiothérapies actuelles et un fort potentiel de colonisation. Elles sont l’objet des travaux de scientifiques du CNRS, de l’Institut Curie et de l’Inserm dirigés par le chimiste Raphaël Rodriguez. « La thématique majeure de mon laboratoire est de comprendre qu’elle est la nature de cette adaptation et quelles en sont les bases chimiques et moléculaires sous-jacentes, précise le chercheur. Sachant que si on comprend comment ces cellules s’adaptent, on peut identifier de nouvelles cibles et, par conséquent, inventer de nouveaux médicaments qui cibleront et entraveront ces adaptations. »

Pour la suite, lire

Référence
nature
Published: 07 May 2025

Activation of lysosomal iron triggers ferroptosis in cancer

Nature (2025

Abstract

Iron catalyses the oxidation of lipids in biological membranes and promotes a form of cell death called ferroptosis1. Defining where this chemistry occurs in the cell can inform the design of drugs capable of inducing or inhibiting ferroptosis in various disease-relevant settings. Genetic approaches have revealed suppressors of ferroptosis2,3,4; by contrast, small molecules can provide spatiotemporal control of the chemistry at work5. Here we show that the ferroptosis inhibitor liproxstatin-1 exerts cytoprotective effects by inactivating iron in lysosomes. We also show that the ferroptosis inducer RSL3 initiates membrane lipid oxidation in lysosomes. We designed a small-molecule activator of lysosomal iron—fentomycin-1—to induce the oxidative degradation of phospholipids and ultimately ferroptosis. Fentomycin-1 is able to kill iron-rich CD44high primary sarcoma and pancreatic ductal adenocarcinoma cells, which can promote metastasis and fuel drug tolerance. In such cells, iron regulates cell adaptation6,7 while conferring vulnerability to ferroptosis8,9. Sarcoma cells exposed to sublethal doses of fentomycin-1 acquire a ferroptosis-resistant cell state characterized by the downregulation of mesenchymal markers and the activation of a membrane-damage response. This phospholipid degrader can eradicate drug-tolerant persister cancer cells in vitro and reduces intranodal tumour growth in a mouse model of breast cancer metastasis. Together, these results show that control of iron reactivity confers therapeutic benefits, establish lysosomal iron as a druggable target and highlight the value of targeting cell states10.

27/05/2925 Sur le multivers. Concept ou réalité ?

Note.
En physique, l’hypothèse du multivers (appelé aussi « univers multiples ») est un modèle cosmologique dont l’une des fonctions est de résoudre le problème de la mesure quantique, dans le cadre de la physique des particules élémentaires

Qu’est-ce qui se trouve au-delà des limites de l’Univers observable ? Est-il possible que notre Univers fasse partie d’un multivers beaucoup plus vaste ?

Pour certains cosmologistes, le concept de multivers pourrait être plus qu’un simple mythe. En tentant d’expliquer les propriétés de notre Univers, ils ont théorisé l’existence d’autres univers dans lesquels les événements auraient lieu, et ce en dehors de notre perception réaliste

« Notre compréhension de la réalité n’est pas complète, loin de là », a déclaré Andrei Linde, physicien à l’université de Stanford. « La réalité existe indépendamment de nous ». S’ils existent, ces univers sont séparés du nôtre, inatteignables et indétectables par toute mesure directe (du moins pour l’instant). Certains experts se demandent donc si la recherche d’un multivers pourra un jour être véritablement scientifique.

Les scientifiques sauront-ils un jour si notre Univers est unique ? Nous avons analysé les différentes hypothèsesthéories sur un éventuel multivers – y compris les autres univers avec leurs propres lois physiques – et avons tenté de répondre à la question suivante : est-il possible que d’autres versions de nous-mêmes existent dans d’autres réalités ? ? Est-il possible que notre nivers fasse partie d’un multivers beaucoup plus vaste ?

Pour certains cosmologistes, le concept de multivers pourrait être plus qu’un simple mythe. En tentant d’expliquer les propriétés de notre univers, ils ont théorisé l’existence d’autres univers dans lesquels les événements auraient lieu, et ce en dehors de notre perception réaliste

« Notre compréhension de la réalité n’est pas complète, loin de là », a déclaré Andrei Linde, physicien à l’université de Stanford. « La réalité existe indépendamment de nous ».

S’ils existent, ces univers sont séparés du nôtre, inatteignables et indétectables par toute mesure directe (du moins pour l’instant). Certains experts se demandent donc si la recherche d’un multivers pourra un jour être véritablement scientifique.

Ils ont analysé les différentes théories sur un éventuel multivers – y compris les autres univers avec leurs propres lois physiques – et ont tenté de répondre à la question suivante : est-il possible que d’autres versions de nous-mêmes existent dans d’autres réalités ?

Https://www.nationalgeographic.fr/espace/quest-ce-que-le-multivers-ce-quen-disent-les-scientifiques

________________________________________

Une version renouvelée de la célèbre expérience de la double fente de 1801 a permis de mesurer directement un photon situé dans deux emplacements à la fois. C’est ce que vient d’annoncer une équipe de physiciens. Selon eux, ceci devrait tuer le concept du multivers

Cette interprétation demeure contestée. D’autres physiciens affirment que l’expérience ne peut rien nous dire de nouveau concernant la nature de la réalité. L’expérience de la double fente montre qu’elle crée une interférence, même quand les photons sont envoyés un à un, sans possibilité d’interférer l’un avec l’autre.

Beaucoup de physiciens voient ceci comme la preuve qu’ un seul photon peut avoir la qualité d’une onde. Celle-ci décrit toutes les possibles localisations du photon quand il voyage dans l’espace. Dans un sens, il pourrait traverser les deux fentes à la fois.

Cependant, mystérieusement, placer un détecteur dans chaque fente pour signaler celle que le photon empreinte détruit le pattern d’interférence. Le point de vue traditionnel est que cela fait s’effondrer la fonction d’onde” depuis la mesure et sa localisation dans l’espace. Ceci restreint la capacité du photon de passer à travers les deux fentes.

Mais la vraie nature de la fonction d’onde, qu’elle existe réellement ou qu’elle soit un modèle mathématique de la réalité, est un sujet hautement controversé. Ainsi certains physiciens défendent l’interprétation des mondes multiples, dite des “many-worlds”, où l’on trouve une superposition d’univers possibles. Le détecteur oblige la réalité à choisir l’un de ces univers.

Aujourd’hui, Holger Hofmann de la Hiroshima University au Japan et ses collègues affirment qu’ils ont des preuves directes du fait que le photon traverse les deux fentes, du fait d’une version plus sophistiquée de l’expérience qu’ils ont conduite

Ainsi la fonction d’onde est moins un outil mathématique qu’une description de ce qui se produit réellement, c’est-à-dire une évidence expérimentale. Ils ont utilisé un interféromètre pratiquant la « mesure faible  ou weak measurement » qui enregistre les propriétés d’une particule sans la détruire et en en donnant une description statistique. Ils ont pu ainsi vérifier le scenario selon lequel un seul photon se délocalisait en traversant simultanément les deux branches de l’interféromètre.

Suite, non résumée et non traduite

“What we are claiming here is that the rate at which the photon flips its polarisation is a direct measure of the concept of delocalisation,” says Hofmann. “If the photon delocalises, this flip rate goes down; that’s a direct physical effect of delocalisation.”

The fact that the team could perform this measurement challenges the many-worlds interpretation of quantum mechanics, says Hofmann, because it removes the need for a superposition of different universes. “A superposition should not be confused with simultaneous parallel realities of any kind. In our case, I think we have actual evidence that this is not the case, because we are seeing an effect that corresponds to a distribution of a single photon.”

Jonte Hance at Newcastle University, UK, says this could make it slightly more difficult for some physicists to argue that the wave function is a mathematical smokescreen for what is going on. “It makes it harder to believe that quantum mechanics is all just epistemic and probability distributions about real, normal things that behave like we expect them to.”

But Lev Vaidman at Tel Aviv University in Israel argues that these results can still make sense within a many-worlds interpretation, because we are only seeing the delocalisation of the photon in one possible branch of reality – there could be another branch that sees the photon travel down one path or another, which we don’t see.

More fundamentally, the concept of weak measurements is hotly debated by physicists, with some arguing that you can’t use repeated statistical measurements to infer properties about single particles. “I think you can’t make claims about a single photon with this,” says Andrew Jordan at Chapman University in California.

“I do expect disagreements, because we are stepping on a lot of people’s feet by actually taking sides in interpretation issues and claiming that interpretation issues could be solved by experiment,” says Hofmann. “The problem has always been that we had peace between the different interpretation camps because there was an agreement that nobody can decide, and we are claiming that experimental tests are possible.”

26/05/2025 Le temps s’écoule-t-il dans deux directions ?

https://www.newscientist.com/article/mg24933240-900-did-time-flow-in-two-directions-from-the-big-bang-making-two-futures/

Traduction simplifiée

Que le temps s’écoule dans une seule direction, du passé vers le futur, est un constat que nous faisons quotidiennement. De plus la science le confirme tous les jours : nous ne pouvonns pas remonter le temps. Dès que le Big Bang s’est produit, les particules de matière ont évolué dans un seul sens. C’est ce que l’on nomme la flèche du temps

Aujourdhui, un certain nombre de scientifiques cherche à comprendre ce phénomène. Plus précisément, ils se demandent pourquoi dès le Big Bang ne sont pas apparues deux flèches du temps opposées.

Pour répondre à la queston, on évoque un phénomène nommé entropie. Pour celle-ci, la flèche du temps manifeste l’impossibilité pour l’univers d’échapper au désordre résultant de la création d’entités de plus en complexes. Mais ne s’agirait-il pas plutôt de la conséquence d’une loi fondamentale de la nature. Il s’agirait de la nature quantique de la gravité.

Les hypothèses actuelles sur le temps découlent de la théorie générale de la relativité due à Albert Einstein. Les trois dimensions de l’espace et celle du temps aboutissent au concept d’espace-temps. On peut se déplacer dans l’espace comme l’on veut mais pas dans le temps, où l’on est obligé de se déplacer du passé vers le futur. Il n’y a cependant aucune loi naturelle imposant au temps une direction du passé vers le futur, au contraire des autres lois naturelles qui peuvent toujours être appliquées à l’envers.

Afin d expliquer ce paradoxe, les physiciens font appel à la seconde loi de la thermodynamique . Celle-ci, qui n’a rien de fondamental, dispose que dans un système clos, l’entropie augmente toujours. Elle le fait parce qu’il y a a toujours statistiquement plus d’états de désordre que d’ordre . Le terme de statistique signifie que le désordre n’est pas obligé par une loi fondamentale de la nature.

Mais notre univers est-il un système clos ? Il semble au contraire être infini en taille et peut-être même être en expansion.

En 1772 le mathématicien Joseph-Louis Lagrange avait montré que dans un système composé de trois particules interagissant selon la loi de la gravitation de Newton, chaque particule attire les autres avec une force proportionnelle à sa masse et inversement proportionnelle au carré de leur distance

Suite non traduite faute de temps

Lagrange’s result, which extends to any number of particles, showed that if a system’s total energy (potential plus kinetic) is either zero or positive then its size, essentially its diameter, passes through a unique minimum at just one point on the timeline of its evolution. This process runs just as well backwards as forwards, Newton’s gravity being time-symmetric. And with one fascinating exception to which I will return, the size of the system grows to infinity both to the past and future.

Interestingly, the uniformity with which the particles are distributed is greatest around the point of minimum size. It has long been known that a uniform distribution of particles is gravitationally unstable and breaks up into clusters. What nobody seems to have realised, however, is that when you run the evolution of the particles’ motion backwards from the clustered state to the minimum, most uniform state and then take it beyond this point, it goes on to become clustered again.

In a paper I published in 2014, together with Tim Koslowski at the National Autonomous University of Mexico and Flavio Mercati at the University of Naples, Italy, we showed that this is the case in a simple proxy of the universe. A computer simulation of a thousand particles interacting under Newtonian gravity showed that pretty much every configuration of particles would evolve into this minimum state and then expand outwards, becoming gradually more structured in both directions. I call the minimal state the Janus point, after the Roman god who looks simultaneously in opposite directions of time.

What would this mean for us? If we lived in the model universe I have just described, we must be on one side or the other of the Janus point. We find Newton’s time-symmetric law governs what happens around us, but also a pervasive arrow of time that defines our future. In our past direction, we can just make out fog – what we call the big bang – and nothing beyond it. Not realising the fog is a Janus point, we invoke a past hypothesis to explain the inexplicable. But Newton’s laws say the special point must be there, so there is no need to invoke the past hypothesis. Instead, we can mathematically define a quantity that reflects the evolution of our system of particles into something that looks like structure. Let’s call it “complexity”.

Complexity is calculated using all the masses of the particles and all the ratios of the distances between any two of them. It has nothing to do with the statistical likelihood of possible states and differs from entropy in that its growth reflects an increase in structure, or variety, rather than disorder. I argue that it should take the place of entropy as the basis of time’s arrow.

In my recent book The Janus Point, I take things further. I propose that, ultimately, our model suggests that the history of the universe isn’t a story of order steadily degrading into disorder, but rather one of the growth of structure or complexity, as we define it.

“Complexity doesn’t just give time its direction – it literally is time”

The suggestion for this comes in the first place from Newton’s theory of gravity. It isn’t yet clear it can be extended to a general relativistic description of gravity. But in many cases, Newtonian gravity predicts behaviour almost identical to relativity, so there is a hint to look for a similar effect in Einstein’s theory.

This brings me to the fascinating exception to Lagrange’s result I mentioned earlier. In everything discussed so far, the minimum size of the “universe”, at the Janus point, isn’t zero but finite. But general relativity at the big bang leads to a zero size of the universe, known as a singularity, where the equations break down.

It has been known since a remarkable paper by Frenchman Jean Chazy in 1918 that singular events called total collisions can also occur in Newton’s theory. In them, all the particles come together and collide simultaneously at their common centre of mass. At this point, Newton’s equations break down; they can’t be employed to continue any solution past a total collision. Instead of two-sided solutions, we have one-sided solutions.

If we take this exception seriously, we cannot say time has two opposite directions but, significantly, it doesn’t rule out complexity giving time a direction.

The equations for Newton’s gravity are still time symmetrical, so the solutions that terminate at a total collision can run the other way. They become Newtonian “big bangs” in which all the particles suddenly fly apart from each other. Right at the start, the particles are arranged in a remarkably uniform way, but they soon begin to look like the motions on either side of the Janus point we saw in our calculations.

As they emerge from zero size, their configuration, characterised by the complexity, satisfies a very special condition. There are plenty of configurations, or shapes, that satisfy the condition but just one has the absolutely smallest possible value of the complexity. It is more uniform than any other shape the universe could have.

This is where a radical twist in the tale was all but forced on me, during the final stages of writing my book. The fact that the universe had an extremely uniform shape immediately after the big bang set me thinking. Could the special shape I’ve identified, which I call Alpha, serve as a guide to a new theory of time – and also point the way to arguably the biggest prize in physics, a quantum theory of gravity?

Quantum theory describes the often counter-intuitive behaviour of subatomic particles. For all its successes, it has always relied on an essentially classical conception of a time that exists independently of and outside the system. But surely any attempt to create a quantum theory of the universe, and with it gravity, should start without the notion of a pre-existing external time. Time has to originate somewhere, and where else but the quantum realm.

My ideas about complexity can help. What I’m proposing might be called Newtonian quantum gravity because it unifies aspects of Newton’s theory of gravity, above all this value of complexity, and the two key novel features of quantum mechanics: probabilities for the state a system finds itself in, and an entity known as a wave function that determines how these probabilities evolve.

The idea is that a wave function of the universe determines the probabilities of all the possible shapes it can have. This is relatively conventional. What I’m suggesting, however, is how that happens: I put the birth of time at Alpha, this uniquely uniform configuration of particles, and make complexity time itself.

Heaps of time

I said my granddaughter could sort the shuffled snapshots into the correct order. Now suppose I give her snapshots of all possible shapes of the universe to sort into heaps, one for each value of their complexity. In the first heap there will be just that one most uniform shape: Alpha. After that, there will be infinitely many for each value of complexity. The wave function determines relative probabilities for each of the shapes within each heap.

This is what standard quantum mechanics does for the probabilities of a system’s possible states at different external times. My proposal includes something similar but with invisible, external time replaced by complexity, which is visible in the sense that it is directly determined by the shape of the universe. Hence, complexity doesn’t just give time its direction – it literally is time.

The picture I have sketched matches the known history of the universe, but is only a start. The good news for next steps is that there is, at least in principle, an observational test.

Scrutiny of the first light in the universe, known as the cosmic microwave background (CMB), indicates that very soon after the big bang the distribution of matter in the universe was extremely uniform, while also revealing tiny fluctuations of a very specific structure. Inflation, a theory that suggests the universe underwent a huge expansion in its first split second, can explain the form of those fluctuations rather well. But it doesn’t tell us how inflation began and key parameters must be fitted to match observations.

According to my idea, the universe must begin as uniform as it possibly can and then develop small nonuniformities. This might sound like an arbitrary assumption, but it is a direct consequence of the simplest quantum law one can propose for the universe, which forces the wave function to evolve from a necessarily unique condition at its most uniform shape. It is possible we could use first principles to directly predict the form of the fluctuations, which we could at some point verify or rule out by further scrutinising CMB.

This idea could go either way. I am hopeful, and not only because Newtonian complexity has a counterpart in Einstein’s theory. I also find encouragement in the thoughts of Niels Bohr, a founder of quantum mechanics, who said any new quantum idea needs to be crazy. The idea that complexity is time is certainly that – and it could be transformative. If time really is complexity, and it is a big if, it will kill two birds with one stone: provide a new starting point from which to formulate a quantum theory of gravity and show, on the basis of simple first principles, how time gets its direction.

25/05/2025 (2) Présentation de l’ouvrage Nature et communication

https://journals.openedition.org/itineraires/8202

D’une faculté de langage des animaux

La linguistique et le langage animal. Résistances, décentrements, propositions

Marie-Anne Paveau et Catherine Ruchon

https://doi.org/10.4000/itineraires.8202

Introduction

https://journals.openedition.org/itineraires/8202

Alors que de nombreuses disciplines s’intéressent à la production de significations par les animaux, les sciences du langage résistent et campent sur des positions anthropocentrées qui les isolent dans les sciences humaines et sociales au niveau international. Dans cet article, nous tentons de comprendre ce qui bloque les linguistes dans la seule prise en compte du langage humain et d’identifier les verrous qui les empêchent de prendre en compte des éléments non humains, alors que les éthologues, philosophes, cognitivistes, anthropologues, sociologues ou psychologues posent la question du langage animal. Nous examinons d’abord les formes de cette résistance en linguistique, en étudiant trois discours spécifiques : une doxa professionnelle anthropocentrée, la prégnance d’une conception axiologique négative de l’anthropomorphisme et la construction scientifique de cette résistance, fondée sur les notions d’articulation du langage et de symbolisation. Nous identifions ensuite trois verrous pour expliquer cette absence de prise en compte du non-humain : le verrou idéologique de l’anthropocentrisme ou supériorité humaine ; un verrou épistémologique maintenant le logocentrisme comme cadre d’analyse pour la linguistique ; un verrou psycho-professionnel, proche de la dissonance cognitive, qui consiste à réfuter les propositions dont l’acceptation entraînerait un coût théorique et épistémologique trop important.

Plan

1. Doxas : anthropodéni et anthropomorphisme

1.1. Culture chrétienne et Antiquité

1.2. Le travail spéciste de Descartes

2. La prise en compte contemporaine de l’animal

2.1. Un soin éthique

2.2. Une pensée animale

2.3. Les apports de la perspective cognitive

3. Les résistances de la linguistique

3.1. Le frein de la théorie de l’esprit

3.2. Les freins de la théorie linguistique

4. Des catégories d’analyse pour le linguiste

4.1. Des sociétés animales

4.2. Des langages animaux avérés… hors de la linguistique

4.3. De rares réflexions de linguistes

4.4. L’exemple de la chienne Chaser

Conclusion

_____________________________

Commentaire par les auteures

Alors que de nombreuses disciplines se sont intéressées de longue date ou s’intéressent désormais à la production de significations par les animaux, les sciences du langage semblent résister et camper sur des positions anthropocentrées les isolant de plus en plus d’un large mouvement contemporain qui se déploie dans les sciences humaines et sociales au niveau international. Se développe en effet, sur l’impulsion des travaux précurseurs de Latour (1991), Descola (2006) ou Derrida (2006) notamment (pour le champ francophone), une conception écologique du monde appuyée sur une remise en cause des grandes distinctions binaires qui fondent la pensée dite occidentale, et, au premier chef, la distinction entre humain et animal. Des sciences humaines et sociales au-delà de l’humain et avec le non-humain sont en train d’apparaître. Ce mouvement accompagne une évolution politique mondiale sur le statut des animaux : militant·e·s et politiques, à des degrés divers selon les zones géographiques et les conditions socio-économiques, accordent de plus en plus aux animaux une place véritable parmi les êtres vivants.

Exemple

Dans cet exemple, nous voudrions essayer de comprendre ce qui bloque les linguistes dans une humanité (leur humanité ?) qui se fait parfois anthropocentrisme étroit, coupé de l’animalité, et d’identifier les verrous qui les empêchent, alors même que leurs collègues éthologues, philosophes, cognitivistes, anthropologues, sociologues ou psychologues posent largement la question du langage animal, de prendre en compte des éléments de recherche hors de « l’exception humaine » (Schaeffer 2007). Par linguistes, désignation que nous savons trop généraliste et stéréotypée, nous entendons l’ensemble des chercheur·e·s qui travaillent dans les frontières mainstream de la discipline, et qui contribuent à son maintien en tant que telle, tant sur le plan national qu’international.

Nous décrirons d’abord la doxa culturelle et professionnelle des linguistes et plus généralement des sciences humaines et sociales, nourrie de références cultivées sur la spécificité exclusivement humaine du langage, assurant la prégnance d’une conception axiologique négative de l’anthropomorphisme, fondée sur ce que Frans De Waal appelle l’anthropodéni (de Waal 2001).

Nous montrerons qu’à contrario, la question animale est entrée, parfois largement, dans les préoccupations de bien des disciplines tant du côté des sciences de la nature que des sciences humaines et sociales, et souvent par le biais de la communication et du langage.

Nous examinerons ensuite plus précisément la construction scientifique de la résistance de la linguistique à l’intégration des données animales, résistance fondée en grande partie sur les notions d’articulation du langage et de symbolisation, dont la célèbre discussion entre Benveniste et von Frisch sur la danse des abeilles est emblématique (Benveniste 1952).

Nous proposerons enfin quelques pistes et orientations méthodologiques pour travailler le langage animal et l’intégrer aux questionnements des sciences du langage.

Le langage humain permet la néologie, le jeu de mots, le mot d’esprit, la littérature, etc. alors que le langage animal est considéré comme régi par l’instinct ou la nécessité

Remarque : Quel animal comprend le langage humain ?

Une étude de 2016 a montré que les chiens comprennent réellement le langage humain . Ce phénomène ne concerne pas uniquement nos amis canins. Les cochons ventrus, les chimpanzés et les éléphants comprennent tous un peu le langage humain. Les scientifiques pensent que nous pourrions même être prêts à interroger les dauphins à un moment donné..

Les animaux ne jouent pas avec le langage, et en ont un usage transitif, c’est-à-dire dédié à donner des informations ou agir sur le monde.

Certes ce ne sont pas des langages humains, avec sujet. verbe et complément. Ce ne sont pas non pûst des langages parlés, mais des postures que l’homme doit apprendre à déchiffrer

Référence

First evidence for widespread sharing of stereotyped non-signature whistle types by wild dolphins

https://www.biorxiv.org/content/10.1101/2025.04.21.647658v1

Abstract

We have built a unique library of sounds produced by known individual common bottlenose dolphins (Tursiops truncatus), by recording them non-invasively with suction cup hydrophones during brief catch and release health assessments and with digital acoustic tags (DTAGs). We have catalogued the name-like signature whistles (SWs) of most animals in this resident community of 170 dolphins, which has enabled us to begin studying little known “non-signature whistles” (NSW). We have so far identified 22 shared NSW types, of which two, NSWA and NSWB, are known to have been produced by at least 25https://www.biorxiv.org/content/10.1101/2025.04.21.647658v1 and 35 different dolphins respectively. We are studying the functions of shared NSWs with playback experiments to free-swimming dolphins. We provide background on past playback studies and how they have informed our current research; in particular, received level (RL) of playbacks was found to significantly influence strength of response. Varied responses to playbacks reflect the complexity of dolphin communication, and highlight the need for larger sample sizes to be able to correctly interpret NSW functions. However, results so far have provided support for both the referential nature of SW and the affiliative nature of SW copies (SWCs), because a majority of control playbacks of a dolphin’s own signature whistle (self playbacks) elicited positive responses. NSWA elicited a majority of negative responses, suggesting an alarm-type function, and NSWB elicited varying responses, supporting our suggested function of this whistle type as a “query,” produced when something unexpected or unfamiliar is heard. Given that SW and SWC are known to be learned and appear to be referential signals, it is likely that shared, stereotyped NSW are both learned and referential as well, an idea that is supported by the fact that dolphins are flexible, life-long vocal production learners, unlike most other non-human mammals. Our study provides the first evidence in dolphins for a wider repertoire of shared, context-specific signals, which could form the basis for a language-like communication system.