28/053025. Amniotes en Australie

Des empreintes de griffes fossilisées trouvées en Australie suggèrent que des amniotes – les ancêtres des reptiles, des oiseaux et des mammifères, y vivaient. Ces empreintes sont âgées de 354 à 358 millions d’années, soit 40 millions d’années plus tôt que précédemment estimés.

Les traces d’amniotes montrent que ces espèces étaient apparues dans l’ancien continent du Gondwana, soit quelques dizaines de millions d’années avant celles découvertes dans l’hémisphère nord en Europe et en Amérique.

Pour le Pr John Long principal auteur de l’article publié dans Nature .“Ces fossiles permettent de redécouvrir l’histoire des amniotes, apparues beaucoup plus tôt que l’on croyait.”

Les experts des premiers tétrapodes enseignant à Uppsala University en Suède, ont confirmé l’importance de la découverte. Celle-ci a fait remonter l’apparition des amniotes au début du carbonifère. Une période ainsi nommée parce que s’y formèrent les riches gisements de charbon qui ont fait la richesse de l’hémisphère nord au 19e siècle.

Cette période fut un point pivot dans l’histoire de la Terre. Les niveaux d’oxygène y étaient élevés et de grandes forêts recouvraient les terre émergés Les marécages étaient pleins d’amphibiens, certains longs de plus de 5 mètres. et de grands requins avaient envahi les rivières. Une grande diversité d’animaux et de plantes commençait à apparaître, notamment des poissons à arrête et des arbres se reproduisant par semence

23/05/2025 Cancer, le double jeu du fer

Auteur
Mehdi Harmi

https://lejournal.cnrs.fr/articles/cancer-le-double-jeu-du-fer?utm_source=firefox-newtab-fr-fr

Les approches telles que la chimiothérapie ont tendance à n’être efficaces que contre les cellules cancéreuses qui prolifèrent le plus. À l’Institut Curie, Raphaël Rodriguez et son équipe ont opté pour une démarche unique. Ils ciblent les cellules à fort potentiel métastatique grâce à une molécule capable d’induire une mort cellulaire particulière, médiée par le fer : la ferroptose.

Le cancer, le mal du siècle, continue de résister à l’arsenal thérapeutique développé au fil des ans par les scientifiques du monde entier. Le fait est que le cancer est retors. Aujourd’hui, la plupart des thérapies ciblent préférentiellement les cellules cancéreuses en prolifération. Ces divisions rapides, en plus de permettre à la tumeur de croître, induisent une pression de sélection sur leur propre communauté. Ainsi, au sein de la tumeur, certaines cellules s’adaptent et arrêtent de se diviser pour entrer dans une sorte de dormance leur permettant d’échapper aux traitements.

Plus encore, cet état non prolifératif est associé dans certains cas à d’autres propriétés, à savoir la capacité à migrer, à envahir d’autres tissus – bref, à métastaser. Ces cellules métastatiques ont, de surcroît, une plus forte résistance aux chimiothérapies actuelles et un fort potentiel de colonisation. Elles sont l’objet des travaux de scientifiques du CNRS, de l’Institut Curie et de l’Inserm dirigés par le chimiste Raphaël Rodriguez. « La thématique majeure de mon laboratoire est de comprendre qu’elle est la nature de cette adaptation et quelles en sont les bases chimiques et moléculaires sous-jacentes, précise le chercheur. Sachant que si on comprend comment ces cellules s’adaptent, on peut identifier de nouvelles cibles et, par conséquent, inventer de nouveaux médicaments qui cibleront et entraveront ces adaptations. »

Pour la suite, lire

Référence
nature
Published: 07 May 2025

Activation of lysosomal iron triggers ferroptosis in cancer

Nature (2025

Abstract

Iron catalyses the oxidation of lipids in biological membranes and promotes a form of cell death called ferroptosis1. Defining where this chemistry occurs in the cell can inform the design of drugs capable of inducing or inhibiting ferroptosis in various disease-relevant settings. Genetic approaches have revealed suppressors of ferroptosis2,3,4; by contrast, small molecules can provide spatiotemporal control of the chemistry at work5. Here we show that the ferroptosis inhibitor liproxstatin-1 exerts cytoprotective effects by inactivating iron in lysosomes. We also show that the ferroptosis inducer RSL3 initiates membrane lipid oxidation in lysosomes. We designed a small-molecule activator of lysosomal iron—fentomycin-1—to induce the oxidative degradation of phospholipids and ultimately ferroptosis. Fentomycin-1 is able to kill iron-rich CD44high primary sarcoma and pancreatic ductal adenocarcinoma cells, which can promote metastasis and fuel drug tolerance. In such cells, iron regulates cell adaptation6,7 while conferring vulnerability to ferroptosis8,9. Sarcoma cells exposed to sublethal doses of fentomycin-1 acquire a ferroptosis-resistant cell state characterized by the downregulation of mesenchymal markers and the activation of a membrane-damage response. This phospholipid degrader can eradicate drug-tolerant persister cancer cells in vitro and reduces intranodal tumour growth in a mouse model of breast cancer metastasis. Together, these results show that control of iron reactivity confers therapeutic benefits, establish lysosomal iron as a druggable target and highlight the value of targeting cell states10.

27/05/2925 Sur le multivers. Concept ou réalité ?

Note.
En physique, l’hypothèse du multivers (appelé aussi « univers multiples ») est un modèle cosmologique dont l’une des fonctions est de résoudre le problème de la mesure quantique, dans le cadre de la physique des particules élémentaires

Qu’est-ce qui se trouve au-delà des limites de l’Univers observable ? Est-il possible que notre Univers fasse partie d’un multivers beaucoup plus vaste ?

Pour certains cosmologistes, le concept de multivers pourrait être plus qu’un simple mythe. En tentant d’expliquer les propriétés de notre Univers, ils ont théorisé l’existence d’autres univers dans lesquels les événements auraient lieu, et ce en dehors de notre perception réaliste

« Notre compréhension de la réalité n’est pas complète, loin de là », a déclaré Andrei Linde, physicien à l’université de Stanford. « La réalité existe indépendamment de nous ». S’ils existent, ces univers sont séparés du nôtre, inatteignables et indétectables par toute mesure directe (du moins pour l’instant). Certains experts se demandent donc si la recherche d’un multivers pourra un jour être véritablement scientifique.

Les scientifiques sauront-ils un jour si notre Univers est unique ? Nous avons analysé les différentes hypothèsesthéories sur un éventuel multivers – y compris les autres univers avec leurs propres lois physiques – et avons tenté de répondre à la question suivante : est-il possible que d’autres versions de nous-mêmes existent dans d’autres réalités ? ? Est-il possible que notre nivers fasse partie d’un multivers beaucoup plus vaste ?

Pour certains cosmologistes, le concept de multivers pourrait être plus qu’un simple mythe. En tentant d’expliquer les propriétés de notre univers, ils ont théorisé l’existence d’autres univers dans lesquels les événements auraient lieu, et ce en dehors de notre perception réaliste

« Notre compréhension de la réalité n’est pas complète, loin de là », a déclaré Andrei Linde, physicien à l’université de Stanford. « La réalité existe indépendamment de nous ».

S’ils existent, ces univers sont séparés du nôtre, inatteignables et indétectables par toute mesure directe (du moins pour l’instant). Certains experts se demandent donc si la recherche d’un multivers pourra un jour être véritablement scientifique.

Ils ont analysé les différentes théories sur un éventuel multivers – y compris les autres univers avec leurs propres lois physiques – et ont tenté de répondre à la question suivante : est-il possible que d’autres versions de nous-mêmes existent dans d’autres réalités ?

Https://www.nationalgeographic.fr/espace/quest-ce-que-le-multivers-ce-quen-disent-les-scientifiques

________________________________________

Une version renouvelée de la célèbre expérience de la double fente de 1801 a permis de mesurer directement un photon situé dans deux emplacements à la fois. C’est ce que vient d’annoncer une équipe de physiciens. Selon eux, ceci devrait tuer le concept du multivers

Cette interprétation demeure contestée. D’autres physiciens affirment que l’expérience ne peut rien nous dire de nouveau concernant la nature de la réalité. L’expérience de la double fente montre qu’elle crée une interférence, même quand les photons sont envoyés un à un, sans possibilité d’interférer l’un avec l’autre.

Beaucoup de physiciens voient ceci comme la preuve qu’ un seul photon peut avoir la qualité d’une onde. Celle-ci décrit toutes les possibles localisations du photon quand il voyage dans l’espace. Dans un sens, il pourrait traverser les deux fentes à la fois.

Cependant, mystérieusement, placer un détecteur dans chaque fente pour signaler celle que le photon empreinte détruit le pattern d’interférence. Le point de vue traditionnel est que cela fait s’effondrer la fonction d’onde” depuis la mesure et sa localisation dans l’espace. Ceci restreint la capacité du photon de passer à travers les deux fentes.

Mais la vraie nature de la fonction d’onde, qu’elle existe réellement ou qu’elle soit un modèle mathématique de la réalité, est un sujet hautement controversé. Ainsi certains physiciens défendent l’interprétation des mondes multiples, dite des “many-worlds”, où l’on trouve une superposition d’univers possibles. Le détecteur oblige la réalité à choisir l’un de ces univers.

Aujourd’hui, Holger Hofmann de la Hiroshima University au Japan et ses collègues affirment qu’ils ont des preuves directes du fait que le photon traverse les deux fentes, du fait d’une version plus sophistiquée de l’expérience qu’ils ont conduite

Ainsi la fonction d’onde est moins un outil mathématique qu’une description de ce qui se produit réellement, c’est-à-dire une évidence expérimentale. Ils ont utilisé un interféromètre pratiquant la « mesure faible  ou weak measurement » qui enregistre les propriétés d’une particule sans la détruire et en en donnant une description statistique. Ils ont pu ainsi vérifier le scenario selon lequel un seul photon se délocalisait en traversant simultanément les deux branches de l’interféromètre.

Suite, non résumée et non traduite

“What we are claiming here is that the rate at which the photon flips its polarisation is a direct measure of the concept of delocalisation,” says Hofmann. “If the photon delocalises, this flip rate goes down; that’s a direct physical effect of delocalisation.”

The fact that the team could perform this measurement challenges the many-worlds interpretation of quantum mechanics, says Hofmann, because it removes the need for a superposition of different universes. “A superposition should not be confused with simultaneous parallel realities of any kind. In our case, I think we have actual evidence that this is not the case, because we are seeing an effect that corresponds to a distribution of a single photon.”

Jonte Hance at Newcastle University, UK, says this could make it slightly more difficult for some physicists to argue that the wave function is a mathematical smokescreen for what is going on. “It makes it harder to believe that quantum mechanics is all just epistemic and probability distributions about real, normal things that behave like we expect them to.”

But Lev Vaidman at Tel Aviv University in Israel argues that these results can still make sense within a many-worlds interpretation, because we are only seeing the delocalisation of the photon in one possible branch of reality – there could be another branch that sees the photon travel down one path or another, which we don’t see.

More fundamentally, the concept of weak measurements is hotly debated by physicists, with some arguing that you can’t use repeated statistical measurements to infer properties about single particles. “I think you can’t make claims about a single photon with this,” says Andrew Jordan at Chapman University in California.

“I do expect disagreements, because we are stepping on a lot of people’s feet by actually taking sides in interpretation issues and claiming that interpretation issues could be solved by experiment,” says Hofmann. “The problem has always been that we had peace between the different interpretation camps because there was an agreement that nobody can decide, and we are claiming that experimental tests are possible.”

26/05/2025 Le temps s’écoule-t-il dans deux directions ?

https://www.newscientist.com/article/mg24933240-900-did-time-flow-in-two-directions-from-the-big-bang-making-two-futures/

Traduction simplifiée

Que le temps s’écoule dans une seule direction, du passé vers le futur, est un constat que nous faisons quotidiennement. De plus la science le confirme tous les jours : nous ne pouvonns pas remonter le temps. Dès que le Big Bang s’est produit, les particules de matière ont évolué dans un seul sens. C’est ce que l’on nomme la flèche du temps

Aujourdhui, un certain nombre de scientifiques cherche à comprendre ce phénomène. Plus précisément, ils se demandent pourquoi dès le Big Bang ne sont pas apparues deux flèches du temps opposées.

Pour répondre à la queston, on évoque un phénomène nommé entropie. Pour celle-ci, la flèche du temps manifeste l’impossibilité pour l’univers d’échapper au désordre résultant de la création d’entités de plus en complexes. Mais ne s’agirait-il pas plutôt de la conséquence d’une loi fondamentale de la nature. Il s’agirait de la nature quantique de la gravité.

Les hypothèses actuelles sur le temps découlent de la théorie générale de la relativité due à Albert Einstein. Les trois dimensions de l’espace et celle du temps aboutissent au concept d’espace-temps. On peut se déplacer dans l’espace comme l’on veut mais pas dans le temps, où l’on est obligé de se déplacer du passé vers le futur. Il n’y a cependant aucune loi naturelle imposant au temps une direction du passé vers le futur, au contraire des autres lois naturelles qui peuvent toujours être appliquées à l’envers.

Afin d expliquer ce paradoxe, les physiciens font appel à la seconde loi de la thermodynamique . Celle-ci, qui n’a rien de fondamental, dispose que dans un système clos, l’entropie augmente toujours. Elle le fait parce qu’il y a a toujours statistiquement plus d’états de désordre que d’ordre . Le terme de statistique signifie que le désordre n’est pas obligé par une loi fondamentale de la nature.

Mais notre univers est-il un système clos ? Il semble au contraire être infini en taille et peut-être même être en expansion.

En 1772 le mathématicien Joseph-Louis Lagrange avait montré que dans un système composé de trois particules interagissant selon la loi de la gravitation de Newton, chaque particule attire les autres avec une force proportionnelle à sa masse et inversement proportionnelle au carré de leur distance

Suite non traduite faute de temps

Lagrange’s result, which extends to any number of particles, showed that if a system’s total energy (potential plus kinetic) is either zero or positive then its size, essentially its diameter, passes through a unique minimum at just one point on the timeline of its evolution. This process runs just as well backwards as forwards, Newton’s gravity being time-symmetric. And with one fascinating exception to which I will return, the size of the system grows to infinity both to the past and future.

Interestingly, the uniformity with which the particles are distributed is greatest around the point of minimum size. It has long been known that a uniform distribution of particles is gravitationally unstable and breaks up into clusters. What nobody seems to have realised, however, is that when you run the evolution of the particles’ motion backwards from the clustered state to the minimum, most uniform state and then take it beyond this point, it goes on to become clustered again.

In a paper I published in 2014, together with Tim Koslowski at the National Autonomous University of Mexico and Flavio Mercati at the University of Naples, Italy, we showed that this is the case in a simple proxy of the universe. A computer simulation of a thousand particles interacting under Newtonian gravity showed that pretty much every configuration of particles would evolve into this minimum state and then expand outwards, becoming gradually more structured in both directions. I call the minimal state the Janus point, after the Roman god who looks simultaneously in opposite directions of time.

What would this mean for us? If we lived in the model universe I have just described, we must be on one side or the other of the Janus point. We find Newton’s time-symmetric law governs what happens around us, but also a pervasive arrow of time that defines our future. In our past direction, we can just make out fog – what we call the big bang – and nothing beyond it. Not realising the fog is a Janus point, we invoke a past hypothesis to explain the inexplicable. But Newton’s laws say the special point must be there, so there is no need to invoke the past hypothesis. Instead, we can mathematically define a quantity that reflects the evolution of our system of particles into something that looks like structure. Let’s call it “complexity”.

Complexity is calculated using all the masses of the particles and all the ratios of the distances between any two of them. It has nothing to do with the statistical likelihood of possible states and differs from entropy in that its growth reflects an increase in structure, or variety, rather than disorder. I argue that it should take the place of entropy as the basis of time’s arrow.

In my recent book The Janus Point, I take things further. I propose that, ultimately, our model suggests that the history of the universe isn’t a story of order steadily degrading into disorder, but rather one of the growth of structure or complexity, as we define it.

“Complexity doesn’t just give time its direction – it literally is time”

The suggestion for this comes in the first place from Newton’s theory of gravity. It isn’t yet clear it can be extended to a general relativistic description of gravity. But in many cases, Newtonian gravity predicts behaviour almost identical to relativity, so there is a hint to look for a similar effect in Einstein’s theory.

This brings me to the fascinating exception to Lagrange’s result I mentioned earlier. In everything discussed so far, the minimum size of the “universe”, at the Janus point, isn’t zero but finite. But general relativity at the big bang leads to a zero size of the universe, known as a singularity, where the equations break down.

It has been known since a remarkable paper by Frenchman Jean Chazy in 1918 that singular events called total collisions can also occur in Newton’s theory. In them, all the particles come together and collide simultaneously at their common centre of mass. At this point, Newton’s equations break down; they can’t be employed to continue any solution past a total collision. Instead of two-sided solutions, we have one-sided solutions.

If we take this exception seriously, we cannot say time has two opposite directions but, significantly, it doesn’t rule out complexity giving time a direction.

The equations for Newton’s gravity are still time symmetrical, so the solutions that terminate at a total collision can run the other way. They become Newtonian “big bangs” in which all the particles suddenly fly apart from each other. Right at the start, the particles are arranged in a remarkably uniform way, but they soon begin to look like the motions on either side of the Janus point we saw in our calculations.

As they emerge from zero size, their configuration, characterised by the complexity, satisfies a very special condition. There are plenty of configurations, or shapes, that satisfy the condition but just one has the absolutely smallest possible value of the complexity. It is more uniform than any other shape the universe could have.

This is where a radical twist in the tale was all but forced on me, during the final stages of writing my book. The fact that the universe had an extremely uniform shape immediately after the big bang set me thinking. Could the special shape I’ve identified, which I call Alpha, serve as a guide to a new theory of time – and also point the way to arguably the biggest prize in physics, a quantum theory of gravity?

Quantum theory describes the often counter-intuitive behaviour of subatomic particles. For all its successes, it has always relied on an essentially classical conception of a time that exists independently of and outside the system. But surely any attempt to create a quantum theory of the universe, and with it gravity, should start without the notion of a pre-existing external time. Time has to originate somewhere, and where else but the quantum realm.

My ideas about complexity can help. What I’m proposing might be called Newtonian quantum gravity because it unifies aspects of Newton’s theory of gravity, above all this value of complexity, and the two key novel features of quantum mechanics: probabilities for the state a system finds itself in, and an entity known as a wave function that determines how these probabilities evolve.

The idea is that a wave function of the universe determines the probabilities of all the possible shapes it can have. This is relatively conventional. What I’m suggesting, however, is how that happens: I put the birth of time at Alpha, this uniquely uniform configuration of particles, and make complexity time itself.

Heaps of time

I said my granddaughter could sort the shuffled snapshots into the correct order. Now suppose I give her snapshots of all possible shapes of the universe to sort into heaps, one for each value of their complexity. In the first heap there will be just that one most uniform shape: Alpha. After that, there will be infinitely many for each value of complexity. The wave function determines relative probabilities for each of the shapes within each heap.

This is what standard quantum mechanics does for the probabilities of a system’s possible states at different external times. My proposal includes something similar but with invisible, external time replaced by complexity, which is visible in the sense that it is directly determined by the shape of the universe. Hence, complexity doesn’t just give time its direction – it literally is time.

The picture I have sketched matches the known history of the universe, but is only a start. The good news for next steps is that there is, at least in principle, an observational test.

Scrutiny of the first light in the universe, known as the cosmic microwave background (CMB), indicates that very soon after the big bang the distribution of matter in the universe was extremely uniform, while also revealing tiny fluctuations of a very specific structure. Inflation, a theory that suggests the universe underwent a huge expansion in its first split second, can explain the form of those fluctuations rather well. But it doesn’t tell us how inflation began and key parameters must be fitted to match observations.

According to my idea, the universe must begin as uniform as it possibly can and then develop small nonuniformities. This might sound like an arbitrary assumption, but it is a direct consequence of the simplest quantum law one can propose for the universe, which forces the wave function to evolve from a necessarily unique condition at its most uniform shape. It is possible we could use first principles to directly predict the form of the fluctuations, which we could at some point verify or rule out by further scrutinising CMB.

This idea could go either way. I am hopeful, and not only because Newtonian complexity has a counterpart in Einstein’s theory. I also find encouragement in the thoughts of Niels Bohr, a founder of quantum mechanics, who said any new quantum idea needs to be crazy. The idea that complexity is time is certainly that – and it could be transformative. If time really is complexity, and it is a big if, it will kill two birds with one stone: provide a new starting point from which to formulate a quantum theory of gravity and show, on the basis of simple first principles, how time gets its direction.

25/05/2025 (2) Présentation de l’ouvrage Nature et communication

https://journals.openedition.org/itineraires/8202

D’une faculté de langage des animaux

La linguistique et le langage animal. Résistances, décentrements, propositions

Marie-Anne Paveau et Catherine Ruchon

https://doi.org/10.4000/itineraires.8202

Introduction

https://journals.openedition.org/itineraires/8202

Alors que de nombreuses disciplines s’intéressent à la production de significations par les animaux, les sciences du langage résistent et campent sur des positions anthropocentrées qui les isolent dans les sciences humaines et sociales au niveau international. Dans cet article, nous tentons de comprendre ce qui bloque les linguistes dans la seule prise en compte du langage humain et d’identifier les verrous qui les empêchent de prendre en compte des éléments non humains, alors que les éthologues, philosophes, cognitivistes, anthropologues, sociologues ou psychologues posent la question du langage animal. Nous examinons d’abord les formes de cette résistance en linguistique, en étudiant trois discours spécifiques : une doxa professionnelle anthropocentrée, la prégnance d’une conception axiologique négative de l’anthropomorphisme et la construction scientifique de cette résistance, fondée sur les notions d’articulation du langage et de symbolisation. Nous identifions ensuite trois verrous pour expliquer cette absence de prise en compte du non-humain : le verrou idéologique de l’anthropocentrisme ou supériorité humaine ; un verrou épistémologique maintenant le logocentrisme comme cadre d’analyse pour la linguistique ; un verrou psycho-professionnel, proche de la dissonance cognitive, qui consiste à réfuter les propositions dont l’acceptation entraînerait un coût théorique et épistémologique trop important.

Plan

1. Doxas : anthropodéni et anthropomorphisme

1.1. Culture chrétienne et Antiquité

1.2. Le travail spéciste de Descartes

2. La prise en compte contemporaine de l’animal

2.1. Un soin éthique

2.2. Une pensée animale

2.3. Les apports de la perspective cognitive

3. Les résistances de la linguistique

3.1. Le frein de la théorie de l’esprit

3.2. Les freins de la théorie linguistique

4. Des catégories d’analyse pour le linguiste

4.1. Des sociétés animales

4.2. Des langages animaux avérés… hors de la linguistique

4.3. De rares réflexions de linguistes

4.4. L’exemple de la chienne Chaser

Conclusion

_____________________________

Commentaire par les auteures

Alors que de nombreuses disciplines se sont intéressées de longue date ou s’intéressent désormais à la production de significations par les animaux, les sciences du langage semblent résister et camper sur des positions anthropocentrées les isolant de plus en plus d’un large mouvement contemporain qui se déploie dans les sciences humaines et sociales au niveau international. Se développe en effet, sur l’impulsion des travaux précurseurs de Latour (1991), Descola (2006) ou Derrida (2006) notamment (pour le champ francophone), une conception écologique du monde appuyée sur une remise en cause des grandes distinctions binaires qui fondent la pensée dite occidentale, et, au premier chef, la distinction entre humain et animal. Des sciences humaines et sociales au-delà de l’humain et avec le non-humain sont en train d’apparaître. Ce mouvement accompagne une évolution politique mondiale sur le statut des animaux : militant·e·s et politiques, à des degrés divers selon les zones géographiques et les conditions socio-économiques, accordent de plus en plus aux animaux une place véritable parmi les êtres vivants.

Exemple

Dans cet exemple, nous voudrions essayer de comprendre ce qui bloque les linguistes dans une humanité (leur humanité ?) qui se fait parfois anthropocentrisme étroit, coupé de l’animalité, et d’identifier les verrous qui les empêchent, alors même que leurs collègues éthologues, philosophes, cognitivistes, anthropologues, sociologues ou psychologues posent largement la question du langage animal, de prendre en compte des éléments de recherche hors de « l’exception humaine » (Schaeffer 2007). Par linguistes, désignation que nous savons trop généraliste et stéréotypée, nous entendons l’ensemble des chercheur·e·s qui travaillent dans les frontières mainstream de la discipline, et qui contribuent à son maintien en tant que telle, tant sur le plan national qu’international.

Nous décrirons d’abord la doxa culturelle et professionnelle des linguistes et plus généralement des sciences humaines et sociales, nourrie de références cultivées sur la spécificité exclusivement humaine du langage, assurant la prégnance d’une conception axiologique négative de l’anthropomorphisme, fondée sur ce que Frans De Waal appelle l’anthropodéni (de Waal 2001).

Nous montrerons qu’à contrario, la question animale est entrée, parfois largement, dans les préoccupations de bien des disciplines tant du côté des sciences de la nature que des sciences humaines et sociales, et souvent par le biais de la communication et du langage.

Nous examinerons ensuite plus précisément la construction scientifique de la résistance de la linguistique à l’intégration des données animales, résistance fondée en grande partie sur les notions d’articulation du langage et de symbolisation, dont la célèbre discussion entre Benveniste et von Frisch sur la danse des abeilles est emblématique (Benveniste 1952).

Nous proposerons enfin quelques pistes et orientations méthodologiques pour travailler le langage animal et l’intégrer aux questionnements des sciences du langage.

Le langage humain permet la néologie, le jeu de mots, le mot d’esprit, la littérature, etc. alors que le langage animal est considéré comme régi par l’instinct ou la nécessité

Remarque : Quel animal comprend le langage humain ?

Une étude de 2016 a montré que les chiens comprennent réellement le langage humain . Ce phénomène ne concerne pas uniquement nos amis canins. Les cochons ventrus, les chimpanzés et les éléphants comprennent tous un peu le langage humain. Les scientifiques pensent que nous pourrions même être prêts à interroger les dauphins à un moment donné..

Les animaux ne jouent pas avec le langage, et en ont un usage transitif, c’est-à-dire dédié à donner des informations ou agir sur le monde.

Certes ce ne sont pas des langages humains, avec sujet. verbe et complément. Ce ne sont pas non pûst des langages parlés, mais des postures que l’homme doit apprendre à déchiffrer

Référence

First evidence for widespread sharing of stereotyped non-signature whistle types by wild dolphins

https://www.biorxiv.org/content/10.1101/2025.04.21.647658v1

Abstract

We have built a unique library of sounds produced by known individual common bottlenose dolphins (Tursiops truncatus), by recording them non-invasively with suction cup hydrophones during brief catch and release health assessments and with digital acoustic tags (DTAGs). We have catalogued the name-like signature whistles (SWs) of most animals in this resident community of 170 dolphins, which has enabled us to begin studying little known “non-signature whistles” (NSW). We have so far identified 22 shared NSW types, of which two, NSWA and NSWB, are known to have been produced by at least 25https://www.biorxiv.org/content/10.1101/2025.04.21.647658v1 and 35 different dolphins respectively. We are studying the functions of shared NSWs with playback experiments to free-swimming dolphins. We provide background on past playback studies and how they have informed our current research; in particular, received level (RL) of playbacks was found to significantly influence strength of response. Varied responses to playbacks reflect the complexity of dolphin communication, and highlight the need for larger sample sizes to be able to correctly interpret NSW functions. However, results so far have provided support for both the referential nature of SW and the affiliative nature of SW copies (SWCs), because a majority of control playbacks of a dolphin’s own signature whistle (self playbacks) elicited positive responses. NSWA elicited a majority of negative responses, suggesting an alarm-type function, and NSWB elicited varying responses, supporting our suggested function of this whistle type as a “query,” produced when something unexpected or unfamiliar is heard. Given that SW and SWC are known to be learned and appear to be referential signals, it is likely that shared, stereotyped NSW are both learned and referential as well, an idea that is supported by the fact that dolphins are flexible, life-long vocal production learners, unlike most other non-human mammals. Our study provides the first evidence in dolphins for a wider repertoire of shared, context-specific signals, which could form the basis for a language-like communication system.


25/05/2025 Les dauphins communiquent un peu comme les humains

Des dizaines de dauphins du genre turciops truncatus ont été enregistrés alors qu’ils émettaient sous forme de sifflements des messages à l’attention de congénères partageant le même espace de communication. Il s’agissait de messages d’appel, d’attention ou de mise en garde. Or certains chercheurs ont constaté que ces messages s’articulaient comme le langage humain autour de significations individuelles partagées. On ne peut pas évoquer un langage à proprement parler, mais cette communication s’en rapproche.

Observons pour notre part que les échanges langagier entre animaux de la même espèce et surtout entre animaux et hommes, sont encore mal étudiés mais qu’ils s’apparentent souvent à des langages humains, avec sujet. verbe et complément. Certes, ce ne sont pas seulement des langages parlés, mais des postures que l’homme doit apprendre à déchiffrer

Référence

First evidence for widespread sharing of stereotyped non-signature whistle types by wild dolphins

https://www.biorxiv.org/content/10.1101/2025.04.21.647658v1

Abstract

We have built a unique library of sounds produced by known individual common bottlenose dolphins (Tursiops truncatus), by recording them non-invasively with suction cup hydrophones during brief catch and release health assessments and with digital acoustic tags (DTAGs). We have catalogued the name-like signature whistles (SWs) of most animals in this resident community of 170 dolphins, which has enabled us to begin studying little known “non-signature whistles” (NSW). We have so far identified 22 shared NSW types, of which two, NSWA and NSWB, are known to have been produced by at least 25https://www.biorxiv.org/content/10.1101/2025.04.21.647658v1 and 35 different dolphins respectively. We are studying the functions of shared NSWs with playback experiments to free-swimming dolphins. We provide background on past playback studies and how they have informed our current research; in particular, received level (RL) of playbacks was found to significantly influence strength of response. Varied responses to playbacks reflect the complexity of dolphin communication, and highlight the need for larger sample sizes to be able to correctly interpret NSW functions. However, results so far have provided support for both the referential nature of SW and the affiliative nature of SW copies (SWCs), because a majority of control playbacks of a dolphin’s own signature whistle (self playbacks) elicited positive responses. NSWA elicited a majority of negative responses, suggesting an alarm-type function, and NSWB elicited varying responses, supporting our suggested function of this whistle type as a “query,” produced when something unexpected or unfamiliar is heard. Given that SW and SWC are known to be learned and appear to be referential signals, it is likely that shared, stereotyped NSW are both learned and referential as well, an idea that is supported by the fact that dolphins are flexible, life-long vocal production learners, unlike most other non-human mammals. Our study provides the first evidence in dolphins for a wider repertoire of shared, context-specific signals, which could form the basis for a language-like communication system.

24/05/2025 (3) Lire le rapport « Frères Musulmans et islamisme politique en France »

Comme chacun sait, il a provoqué en France un vif débat. Quelques personnalités lui ont reproché de favorisé l’islamophobie. Mais la réaction la plus générale a été du soulagement. Enfin les pouvoirs publics opinion prennent conscience de l’offensive tous azimuts que mène cette organisation terroriste internationale pour prendre le pouvoir en France.

Le combat commence dans les collectivités locales. S’appuyant sur l’appui de quelques électeurs musulmans fanatisés dont ils espèrent recueillir les voix, les maires et autres responsables locaux n’hésitent pas à affirmer que la loi islamique, dite charia, devrait être reconnue comme supérieure au droit européen et au droit français.

Si la Charia se voyait reconnaître ce privilège, il ne resterait plus grand chose en France des institutions de la République. Les premières à en souffrir en seraient les femmes. Voilées des pieds à la tête, elles seraient plus que jamais des victimes de la domination des mâles. Mais ce serait des esclaves consentantes et heureuses de l’être. En terre islamique la femme s’honore d’être une esclave.


2025-05-02-rapport-freres-musulmans.pdf

2/05/2025 (2) Le chaos dans le calcul quantique




L’effort pour produire des calculaleurs quantiques vraiment utiles se traduit souvent par un effort pour les rendre plus importants. On leur ajoute des bits quantiques ou qubits

En informatique quantique, un qubit est un système quantique à deux niveaux. . Ces deux niveaux, notés | 0 ⟩ et | 1 ⟩ représentent chacun un état de base du qubit et en font donc l’analogue quantique du bit.

Grâce à la propriété de superposition quantique, un qubit stocke une information qualitativement différente de celle d’un bit. D’un point de vue quantitatif, il peut être dans une infinité d’états. Mais il se réduira à un seul bit d’information au moment de sa mesure, Le concept de qubit, tout en étant discuté dès les années 1980, fut formalisé par Benjamin Schumacher en 1995

Mais créer un véritable hasard quantique (quantum randomness) ne consiste pas à créer du chaos quantique. Le terme de « chaos quantique » désigne un champ de recherches ouvert dans les années 1970 qui est issu des succès de la théorie du chaos en dynamique hamiltonienne classique ; il tente essentiellement de répondre à la question de savoir si ce terme a un sens en physique quantique

La notion de chaos renvoie à un concept qui remonte à l’Antiquité, dans la perspective d’une explication du monde reposant sur le principe de l’harmonie du cosmos. Le terme est employé ici dans le sens d’une sensibilité extrême aux conditions initiales comme pour la théorie du chaos classique.

Les recherches ont montré que :

  • il n’existe pas de « chaos quantique » au sens strict du terme, c’est-à-dire qu’il n’existe pas de divergence exponentielle des états quantiques au cours du temps dans l’espace de Hilbert qui serait l’analogue de la divergence exponentielle des orbites dans l’espace des phases classique..
  • Cette absence de « sensibilité aux conditions initiales » en mécanique quantique est lié au fait que l’équation de Schrödinger est une équation linéaire ; c’est pourquoi Michael Berry a suggéré d’utiliser l’expression « chaologie quantique » à la place de « chaos quantique » 
  • Cependant, les systèmes physiques classiquement chaotiques présentent certaines propriétés quantiques clairement distinctes de celles des systèmes classiquement intégrables : il existe en quelque sorte des « signatures » quantiques du chaos classique sous-jacent
  • Même s’il ne s’agit pas de comportement chaotique, la mécanique quantique introduit une imprécision intrinsèque avec le principe d’incertitude et les fluctuations quantiques. De plus, le phénomène de décoherence est aléatoire. Les mesures sur les systèmes quantiques sont donc imprévisibles, ce qui rend les systèmes macroscopiques imprévisibles sur le long terme.

D’autre part, la décoherence rend les systèmes non linéaires par l’effondrement de la fonction d’onde. Elle permet l’émergence des phénomènes classiques et notamment de la sensibilité aux conditions initiales. Les mesures sur les systèmes quantiques peuvent donc être chaotiques.

Créer un véritable hasard quantique (à ne pas confondre avec le chaos quantique) qui peut ê tre utile dans les technologies quantiques, exige beaucoup d’ingénierie. Mais Wai-Keong Mok du California Institute of Technologyet ses collègues ont découvert comment le faire pour nous.

Suite non traduite et non résumée

“They found a very efficient way of effectively translating classical randomness, which is something we understand very well, which is very easy to generate, into quantum randomness, which is something that’s hard to understand and also much harder to generate,” says Pieter Claeys at Max Planck Institute for the Physics of Complex Systems in Germany.

Quantum randomness means a complete lack of patterns and predictability. In a truly random system, there is no way to predict the properties of a quantum object even if you have interacted with it before. Because quantum physics allows for more correlations than exist for non-quantum objects, quantum and classical randomness are also not equivalent – and the classical kind is much easier to create. Chaos, on the other hand, can be more predictable, but chaotic systems are extremely sensitive to their conditions, so even slight changes in the environment can change a chaotic object’s behaviour.

The researchers analysed how the quantum version of this sensitivity may help quantum objects become more random. They simulated a chaotic system that was made up of many qubits. In their set-up, making measurements on some qubits pushed others into random quantum states and the researchers could quantify the amount of quantum randomness in that final state.

They ran many simulations to determine the initial properties that would result in the system gaining the most quantum randomness after being allowed some time to experience chaos. Ultimately, making the qubits’ initial state more classically random turned out to be the best choice. Mok says the team was surprised to find that this conversion turned each unit, or bit, of classical randomness into as much quantum randomness as if they had added a whole extra qubit to the system. He says his team found a shortcut.

Mok says it may already be possible to concretely test this result because some experiments with extremely cold atoms have previously created chaotic systems like the one his team studied. The next step is to use similar experiments to confirm that a mix of classical randomness and quantum chaos can indeed be helpful for tasks such as benchmarking the atoms’ ability to work as qubits or a process called “shadow tomography”, which is used to examine qubits’ quantum states, both of which require quantum randomness.

Journal reference: Physical Review Letters, in press



Même s’il ne s’agit pas de comportement chaotique, la mécanique quantique introduit une imprécision intrinsèque avec le principe d’incertitude et les fluctuations quantiques. De plus, le phénomène de décoherence est aléatoire. Les mesures sur les systèmes quantiques sont donc imprévisibles, ce qui rend les systèmes macroscopiques imprévisibles sur le long terme.

D’autre part, la décoherence rend les systèmes non linéaires par l’effondrement de la fonction d’onde. Elle permet l’émergence des phénomènes classiques et notamment de la sensibilité aux conditions initiales. Les mesures sur les systèmes quantiques peuvent donc être chaotiques.

Créer un véritable hasard quantique (à ne pas confondre avec le chaos quantique) qui peut tre utile dans les technologies quantiques, exige beaucoup d’ingénierie. Mais Wai-Keong Mok du California Institute of Technologyet ses collègues ont découvert comment le faire pour nous.










24/05/2025 Le hasard et le calcul quantique

La banque américaine JPMorgan Chase annonce avoir généré pour la première fois des nombres aléatoires véritablement certifiés à l’aide d’un ordinateur quantique, une avancée technologique qui pourrait transformer les systèmes de sécurité et les marchés financiers.

JPMorgan Chase vient d’atteindre une étape inédite dans le domaine de l’informatique quantique. En collaboration avec Quantinuum — la filiale quantique de Honeywell — ainsi que les laboratoires nationaux américains d’Argonne et d’Oak Ridge, la banque a réussi à générer des nombres dits « véritablement aléatoires » à l’aide d’un ordinateur quantique, puis à les certifier mathématiquement comme tels. Une avancée qui marque un tournant dans l’exploitation concrète de la puissance des machines quantiques.

Jusqu’à présent, les générateurs de nombres aléatoires utilisés dans les systèmes informatiques traditionnels reposaient sur des algorithmes déterministes. Leur fonctionnement, prévisible dans certaines conditions, posait un risque croissant en matière de cybersécurité, notamment face à des attaquants disposant de ressources informatiques avancées. La promesse du quantique, à savoir exploiter les propriétés fondamentales de la physique pour produire un véritable hasard, restait encore à démontrer dans des conditions réelles et certifiables.Ceci vient d’être fait

Un protocole de vérification inédit

L’expérimentation a été menée sur l’un des ordinateurs quantiques de Quantinuum. Entre mai 2023 et mai 2024, les chercheurs de JPMorgan ont conçu un algorithme spécifique pour générer du hasard à l’aide de circuits quantiques aléatoires. Une fois les données produites, elles ont été testées par les superordinateurs du Département américain de l’Énergie, qui ont permis de confirmer qu’aucun système classique ne pouvait reproduire ces résultats dans un laps de temps équivalent.

Ce processus, fondé sur un protocole de double vérification, constitue la première démonstration rigoureuse et documentée d’un phénomène appelé « certified quantum randomness ». En d’autres termes, il s’agit d’une séquence de données dont le caractère aléatoire peut être prouvé formellement — une exigence cruciale dans les applications de sécurité.

Vers des applications concrètes

La réussite de cette démonstration ouvre un champ d’applications concrètes dans plusieurs secteurs critiques. En premier lieu, la cybersécurité. De nombreux systèmes de chiffrement reposent sur des générateurs de nombres aléatoires. Le passage à un générateur quantique certifié permettrait de renforcer considérablement la robustesse des protocoles cryptographiques, notamment face à l’émergence attendue de l’informatique quantique à grande échelle.

Dans le secteur financier, JPMorgan envisage également des usages dans le trading algorithmique, les audits aléatoires ou encore la simulation de scénarios économiques. D’autres pistes incluent la loterie, les jeux en ligne, les protocoles de vote électronique ou la sélection de jurys, autant de domaines où la garantie d’un hasard absolu est essentielle.

Une avancée stratégique pour JPMorgan

Depuis six ans, la banque américaine investit massivement dans la recherche quantique, convaincue du potentiel de cette technologie pour transformer le secteur financier. Elle s’intéresse notamment à ses applications en optimisation de portefeuilles, en intelligence artificielle et en modélisation des risques complexes. Ce dernier projet renforce sa position de pionnier parmi les acteurs financiers explorant l’informatique quantique.

Cette initiative s’inscrit aussi dans un contexte d’accélération mondiale des investissements en calcul quantique. Si les promesses de la technologie sont encore limitées par des contraintes matérielles, les avancées comme celle réalisée par JPMorgan commencent à franchir le seuil de la recherche fondamentale pour déboucher sur des usages opérationnels. De plus en plus d’analystes estiment que la prochaine décennie verra l’intégration de modules quantiques dans les architectures classiques, apportant des gains ciblés dans des cas d’usage bien identifiés.

Une course mondiale encore ouverte

21/05/2025. Comment être plus intelligent qu’un agent généré par l’Intelligence artificielle, IA?

Cette question se pose désormais à chacun d’entre nous. Constamment, nous allons devoir démontrer que nous sommes plus intelligent que des agents générés par l’IA et avec lequels nous serons en concurrence. Si nous ne sommes pas capbles de le faire, les employeurs s’adresseront à eux et non à nous.

Il ne nous restera pour nous consoler que des allocations chômage qui ne seront même des ARE, allocations d’aide au retour à l’emploi, car personne ne voudra nous réemployer.

Prenons l’exemple des chatbots Des chatbots comme ELIZA existent depuis la fin des années 1960. Conçus principalement pour des applications spécifiques, ils reposaient sur des règles prédéfinies programmées par des humains. Leurs capacités étant limitées, ils échouaient face à des interactions plus complexes. Au fil des décennies, leur utilisation s’est étendue, notamment avec leur intégration dans des sites web et des services clients, ainsi que dans les années 2010 avec des assistants personnels intelligents tels que Siri ou Cortana.

Les performances des chatbots se sont rapidement améliorées au début des années 2020 avec les grands modèles de langage. Ces chatbots apprennent d’eux-mêmes à générer du texte en étant entraînés sur de vastes quantités de texte issu d’internet. ChatGPT a connu une forte popularité dès son lancement en novembre 2022, atteignant 100 millions de comptes enregistrés en seulement deux mois, la croissance la plus rapide de l’histoire pour une application logicielle. Des modèles concurrents sont rapidement apparus, comme Claude ou Gemini.

Le problème pour nous est que les textes générés par des chatbots sont plus complets et de meilleure qualité que ceux que nous écririons nous mêmes. Prenons l’exemple d’un journaliste auquel le rédacteur en chef demande d’écrire un article sur un sujet d’actualité tel que la guerre en Ukraine. S’il veut écrire un bon article, le journaliste passera plusieurs heures à consulter des sources sur Internet et à en faire des synthèses aussi intelligentes que possible.

Mais s’il avait posé la question à un chatbot, le rédacteur en chef aurait obtenu en quelques minutes et pour un coût quasiment nul, un article aussi bien documenté que celui du journaliste. Cet article aurait comporté, non seulement des faits mais des opinions, car il aurait pu citer des extraits contradictoires de communiqués produits par des hommes politique ou des experts militaires sur la question.

La seule façon pour nous de résister à cette concurrence de l’intelligence artificielle serait de nous montrer plus intelligent qu’elle et de le faire plus rapidement. Ceci ne nous serait pas impossible mais nous obligerait à réfléchir en profondeur tant sur sur le contenu que sur la forme des articles que nous écririons.

Autrement dit nous ne passerions pas auparavant une nuit tranquille et reposante.

Anne B., JPB