25/05/2025 Les dauphins communiquent un peu comme les humains

Des dizaines de dauphins du genre turciops truncatus ont été enregistrés alors qu’ils émettaient sous forme de sifflements des messages à l’attention de congénères partageant le même espace de communication. Il s’agissait de messages d’appel, d’attention ou de mise en garde. Or certains chercheurs ont constaté que ces messages s’articulaient comme le langage humain autour de significations individuelles partagées. On ne peut pas évoquer un langage à proprement parler, mais cette communication s’en rapproche.

Observons pour notre part que les échanges langagier entre animaux de la même espèce et surtout entre animaux et hommes, sont encore mal étudiés mais qu’ils s’apparentent souvent à des langages humains, avec sujet. verbe et complément. Certes, ce ne sont pas seulement des langages parlés, mais des postures que l’homme doit apprendre à déchiffrer

Référence

First evidence for widespread sharing of stereotyped non-signature whistle types by wild dolphins

https://www.biorxiv.org/content/10.1101/2025.04.21.647658v1

Abstract

We have built a unique library of sounds produced by known individual common bottlenose dolphins (Tursiops truncatus), by recording them non-invasively with suction cup hydrophones during brief catch and release health assessments and with digital acoustic tags (DTAGs). We have catalogued the name-like signature whistles (SWs) of most animals in this resident community of 170 dolphins, which has enabled us to begin studying little known “non-signature whistles” (NSW). We have so far identified 22 shared NSW types, of which two, NSWA and NSWB, are known to have been produced by at least 25https://www.biorxiv.org/content/10.1101/2025.04.21.647658v1 and 35 different dolphins respectively. We are studying the functions of shared NSWs with playback experiments to free-swimming dolphins. We provide background on past playback studies and how they have informed our current research; in particular, received level (RL) of playbacks was found to significantly influence strength of response. Varied responses to playbacks reflect the complexity of dolphin communication, and highlight the need for larger sample sizes to be able to correctly interpret NSW functions. However, results so far have provided support for both the referential nature of SW and the affiliative nature of SW copies (SWCs), because a majority of control playbacks of a dolphin’s own signature whistle (self playbacks) elicited positive responses. NSWA elicited a majority of negative responses, suggesting an alarm-type function, and NSWB elicited varying responses, supporting our suggested function of this whistle type as a “query,” produced when something unexpected or unfamiliar is heard. Given that SW and SWC are known to be learned and appear to be referential signals, it is likely that shared, stereotyped NSW are both learned and referential as well, an idea that is supported by the fact that dolphins are flexible, life-long vocal production learners, unlike most other non-human mammals. Our study provides the first evidence in dolphins for a wider repertoire of shared, context-specific signals, which could form the basis for a language-like communication system.

24/05/2025 (3) Lire le rapport « Frères Musulmans et islamisme politique en France »

Comme chacun sait, il a provoqué en France un vif débat. Quelques personnalités lui ont reproché de favorisé l’islamophobie. Mais la réaction la plus générale a été du soulagement. Enfin les pouvoirs publics opinion prennent conscience de l’offensive tous azimuts que mène cette organisation terroriste internationale pour prendre le pouvoir en France.

Le combat commence dans les collectivités locales. S’appuyant sur l’appui de quelques électeurs musulmans fanatisés dont ils espèrent recueillir les voix, les maires et autres responsables locaux n’hésitent pas à affirmer que la loi islamique, dite charia, devrait être reconnue comme supérieure au droit européen et au droit français.

Si la Charia se voyait reconnaître ce privilège, il ne resterait plus grand chose en France des institutions de la République. Les premières à en souffrir en seraient les femmes. Voilées des pieds à la tête, elles seraient plus que jamais des victimes de la domination des mâles. Mais ce serait des esclaves consentantes et heureuses de l’être. En terre islamique la femme s’honore d’être une esclave.


2025-05-02-rapport-freres-musulmans.pdf

2/05/2025 (2) Le chaos dans le calcul quantique




L’effort pour produire des calculaleurs quantiques vraiment utiles se traduit souvent par un effort pour les rendre plus importants. On leur ajoute des bits quantiques ou qubits

En informatique quantique, un qubit est un système quantique à deux niveaux. . Ces deux niveaux, notés | 0 ⟩ et | 1 ⟩ représentent chacun un état de base du qubit et en font donc l’analogue quantique du bit.

Grâce à la propriété de superposition quantique, un qubit stocke une information qualitativement différente de celle d’un bit. D’un point de vue quantitatif, il peut être dans une infinité d’états. Mais il se réduira à un seul bit d’information au moment de sa mesure, Le concept de qubit, tout en étant discuté dès les années 1980, fut formalisé par Benjamin Schumacher en 1995

Mais créer un véritable hasard quantique (quantum randomness) ne consiste pas à créer du chaos quantique. Le terme de « chaos quantique » désigne un champ de recherches ouvert dans les années 1970 qui est issu des succès de la théorie du chaos en dynamique hamiltonienne classique ; il tente essentiellement de répondre à la question de savoir si ce terme a un sens en physique quantique

La notion de chaos renvoie à un concept qui remonte à l’Antiquité, dans la perspective d’une explication du monde reposant sur le principe de l’harmonie du cosmos. Le terme est employé ici dans le sens d’une sensibilité extrême aux conditions initiales comme pour la théorie du chaos classique.

Les recherches ont montré que :

  • il n’existe pas de « chaos quantique » au sens strict du terme, c’est-à-dire qu’il n’existe pas de divergence exponentielle des états quantiques au cours du temps dans l’espace de Hilbert qui serait l’analogue de la divergence exponentielle des orbites dans l’espace des phases classique..
  • Cette absence de « sensibilité aux conditions initiales » en mécanique quantique est lié au fait que l’équation de Schrödinger est une équation linéaire ; c’est pourquoi Michael Berry a suggéré d’utiliser l’expression « chaologie quantique » à la place de « chaos quantique » 
  • Cependant, les systèmes physiques classiquement chaotiques présentent certaines propriétés quantiques clairement distinctes de celles des systèmes classiquement intégrables : il existe en quelque sorte des « signatures » quantiques du chaos classique sous-jacent
  • Même s’il ne s’agit pas de comportement chaotique, la mécanique quantique introduit une imprécision intrinsèque avec le principe d’incertitude et les fluctuations quantiques. De plus, le phénomène de décoherence est aléatoire. Les mesures sur les systèmes quantiques sont donc imprévisibles, ce qui rend les systèmes macroscopiques imprévisibles sur le long terme.

D’autre part, la décoherence rend les systèmes non linéaires par l’effondrement de la fonction d’onde. Elle permet l’émergence des phénomènes classiques et notamment de la sensibilité aux conditions initiales. Les mesures sur les systèmes quantiques peuvent donc être chaotiques.

Créer un véritable hasard quantique (à ne pas confondre avec le chaos quantique) qui peut ê tre utile dans les technologies quantiques, exige beaucoup d’ingénierie. Mais Wai-Keong Mok du California Institute of Technologyet ses collègues ont découvert comment le faire pour nous.

Suite non traduite et non résumée

“They found a very efficient way of effectively translating classical randomness, which is something we understand very well, which is very easy to generate, into quantum randomness, which is something that’s hard to understand and also much harder to generate,” says Pieter Claeys at Max Planck Institute for the Physics of Complex Systems in Germany.

Quantum randomness means a complete lack of patterns and predictability. In a truly random system, there is no way to predict the properties of a quantum object even if you have interacted with it before. Because quantum physics allows for more correlations than exist for non-quantum objects, quantum and classical randomness are also not equivalent – and the classical kind is much easier to create. Chaos, on the other hand, can be more predictable, but chaotic systems are extremely sensitive to their conditions, so even slight changes in the environment can change a chaotic object’s behaviour.

The researchers analysed how the quantum version of this sensitivity may help quantum objects become more random. They simulated a chaotic system that was made up of many qubits. In their set-up, making measurements on some qubits pushed others into random quantum states and the researchers could quantify the amount of quantum randomness in that final state.

They ran many simulations to determine the initial properties that would result in the system gaining the most quantum randomness after being allowed some time to experience chaos. Ultimately, making the qubits’ initial state more classically random turned out to be the best choice. Mok says the team was surprised to find that this conversion turned each unit, or bit, of classical randomness into as much quantum randomness as if they had added a whole extra qubit to the system. He says his team found a shortcut.

Mok says it may already be possible to concretely test this result because some experiments with extremely cold atoms have previously created chaotic systems like the one his team studied. The next step is to use similar experiments to confirm that a mix of classical randomness and quantum chaos can indeed be helpful for tasks such as benchmarking the atoms’ ability to work as qubits or a process called “shadow tomography”, which is used to examine qubits’ quantum states, both of which require quantum randomness.

Journal reference: Physical Review Letters, in press



Même s’il ne s’agit pas de comportement chaotique, la mécanique quantique introduit une imprécision intrinsèque avec le principe d’incertitude et les fluctuations quantiques. De plus, le phénomène de décoherence est aléatoire. Les mesures sur les systèmes quantiques sont donc imprévisibles, ce qui rend les systèmes macroscopiques imprévisibles sur le long terme.

D’autre part, la décoherence rend les systèmes non linéaires par l’effondrement de la fonction d’onde. Elle permet l’émergence des phénomènes classiques et notamment de la sensibilité aux conditions initiales. Les mesures sur les systèmes quantiques peuvent donc être chaotiques.

Créer un véritable hasard quantique (à ne pas confondre avec le chaos quantique) qui peut tre utile dans les technologies quantiques, exige beaucoup d’ingénierie. Mais Wai-Keong Mok du California Institute of Technologyet ses collègues ont découvert comment le faire pour nous.










24/05/2025 Le hasard et le calcul quantique

La banque américaine JPMorgan Chase annonce avoir généré pour la première fois des nombres aléatoires véritablement certifiés à l’aide d’un ordinateur quantique, une avancée technologique qui pourrait transformer les systèmes de sécurité et les marchés financiers.

JPMorgan Chase vient d’atteindre une étape inédite dans le domaine de l’informatique quantique. En collaboration avec Quantinuum — la filiale quantique de Honeywell — ainsi que les laboratoires nationaux américains d’Argonne et d’Oak Ridge, la banque a réussi à générer des nombres dits « véritablement aléatoires » à l’aide d’un ordinateur quantique, puis à les certifier mathématiquement comme tels. Une avancée qui marque un tournant dans l’exploitation concrète de la puissance des machines quantiques.

Jusqu’à présent, les générateurs de nombres aléatoires utilisés dans les systèmes informatiques traditionnels reposaient sur des algorithmes déterministes. Leur fonctionnement, prévisible dans certaines conditions, posait un risque croissant en matière de cybersécurité, notamment face à des attaquants disposant de ressources informatiques avancées. La promesse du quantique, à savoir exploiter les propriétés fondamentales de la physique pour produire un véritable hasard, restait encore à démontrer dans des conditions réelles et certifiables.Ceci vient d’être fait

Un protocole de vérification inédit

L’expérimentation a été menée sur l’un des ordinateurs quantiques de Quantinuum. Entre mai 2023 et mai 2024, les chercheurs de JPMorgan ont conçu un algorithme spécifique pour générer du hasard à l’aide de circuits quantiques aléatoires. Une fois les données produites, elles ont été testées par les superordinateurs du Département américain de l’Énergie, qui ont permis de confirmer qu’aucun système classique ne pouvait reproduire ces résultats dans un laps de temps équivalent.

Ce processus, fondé sur un protocole de double vérification, constitue la première démonstration rigoureuse et documentée d’un phénomène appelé « certified quantum randomness ». En d’autres termes, il s’agit d’une séquence de données dont le caractère aléatoire peut être prouvé formellement — une exigence cruciale dans les applications de sécurité.

Vers des applications concrètes

La réussite de cette démonstration ouvre un champ d’applications concrètes dans plusieurs secteurs critiques. En premier lieu, la cybersécurité. De nombreux systèmes de chiffrement reposent sur des générateurs de nombres aléatoires. Le passage à un générateur quantique certifié permettrait de renforcer considérablement la robustesse des protocoles cryptographiques, notamment face à l’émergence attendue de l’informatique quantique à grande échelle.

Dans le secteur financier, JPMorgan envisage également des usages dans le trading algorithmique, les audits aléatoires ou encore la simulation de scénarios économiques. D’autres pistes incluent la loterie, les jeux en ligne, les protocoles de vote électronique ou la sélection de jurys, autant de domaines où la garantie d’un hasard absolu est essentielle.

Une avancée stratégique pour JPMorgan

Depuis six ans, la banque américaine investit massivement dans la recherche quantique, convaincue du potentiel de cette technologie pour transformer le secteur financier. Elle s’intéresse notamment à ses applications en optimisation de portefeuilles, en intelligence artificielle et en modélisation des risques complexes. Ce dernier projet renforce sa position de pionnier parmi les acteurs financiers explorant l’informatique quantique.

Cette initiative s’inscrit aussi dans un contexte d’accélération mondiale des investissements en calcul quantique. Si les promesses de la technologie sont encore limitées par des contraintes matérielles, les avancées comme celle réalisée par JPMorgan commencent à franchir le seuil de la recherche fondamentale pour déboucher sur des usages opérationnels. De plus en plus d’analystes estiment que la prochaine décennie verra l’intégration de modules quantiques dans les architectures classiques, apportant des gains ciblés dans des cas d’usage bien identifiés.

Une course mondiale encore ouverte

21/05/2025. Comment être plus intelligent qu’un agent généré par l’Intelligence artificielle, IA?

Cette question se pose désormais à chacun d’entre nous. Constamment, nous allons devoir démontrer que nous sommes plus intelligent que des agents générés par l’IA et avec lequels nous serons en concurrence. Si nous ne sommes pas capbles de le faire, les employeurs s’adresseront à eux et non à nous.

Il ne nous restera pour nous consoler que des allocations chômage qui ne seront même des ARE, allocations d’aide au retour à l’emploi, car personne ne voudra nous réemployer.

Prenons l’exemple des chatbots Des chatbots comme ELIZA existent depuis la fin des années 1960. Conçus principalement pour des applications spécifiques, ils reposaient sur des règles prédéfinies programmées par des humains. Leurs capacités étant limitées, ils échouaient face à des interactions plus complexes. Au fil des décennies, leur utilisation s’est étendue, notamment avec leur intégration dans des sites web et des services clients, ainsi que dans les années 2010 avec des assistants personnels intelligents tels que Siri ou Cortana.

Les performances des chatbots se sont rapidement améliorées au début des années 2020 avec les grands modèles de langage. Ces chatbots apprennent d’eux-mêmes à générer du texte en étant entraînés sur de vastes quantités de texte issu d’internet. ChatGPT a connu une forte popularité dès son lancement en novembre 2022, atteignant 100 millions de comptes enregistrés en seulement deux mois, la croissance la plus rapide de l’histoire pour une application logicielle. Des modèles concurrents sont rapidement apparus, comme Claude ou Gemini.

Le problème pour nous est que les textes générés par des chatbots sont plus complets et de meilleure qualité que ceux que nous écririons nous mêmes. Prenons l’exemple d’un journaliste auquel le rédacteur en chef demande d’écrire un article sur un sujet d’actualité tel que la guerre en Ukraine. S’il veut écrire un bon article, le journaliste passera plusieurs heures à consulter des sources sur Internet et à en faire des synthèses aussi intelligentes que possible.

Mais s’il avait posé la question à un chatbot, le rédacteur en chef aurait obtenu en quelques minutes et pour un coût quasiment nul, un article aussi bien documenté que celui du journaliste. Cet article aurait comporté, non seulement des faits mais des opinions, car il aurait pu citer des extraits contradictoires de communiqués produits par des hommes politique ou des experts militaires sur la question.

La seule façon pour nous de résister à cette concurrence de l’intelligence artificielle serait de nous montrer plus intelligent qu’elle et de le faire plus rapidement. Ceci ne nous serait pas impossible mais nous obligerait à réfléchir en profondeur tant sur sur le contenu que sur la forme des articles que nous écririons.

Autrement dit nous ne passerions pas auparavant une nuit tranquille et reposante.

Anne B., JPB

22/05/2025 Peut-on espérer élaborer une hypothèse scientifique concernant la conscience ?



La question a été posée formellement lors d’une conférence en 2023 et a fait l’objet d’un article dans Nature. Elle n’a pas reçu de réponse précise ;

Voir https://www.nature.com/articles/s41583-022-00587-4 Nature Reviews Neuroscience volume 23, pages 439–452 (2022)

Voir aussi https://maxplanckneuroscience.org/rethinking-consciousness-when-science-puts-itself-to-the-test/

Certains intervenants ont évoqué l’ITT (Integrated Theory of Information). Ainsi des messages relatifs à la vision consciente ou à l’orientation sont décodés dans le cerveau postérieur et entraînent une activité soutenue dans les aires correspondantes.

Cependant 124 neuroscientfiiques ont en 2023 rejette l »ITT présentée comme une pseudoscience. Ils ont réitéré récemment dans un commentaire plus détaillé.

Chris Frith de l’ University of London, co-auteur de ces critiques, a rappelé que le débat n’était pas que philosophique. Constamment la question de la conscience d’un sujet dans le coma se pose dans les salles d’opération ou après un accident. S’en tenir à l’III peut conduire à des décisions trop rapides, éthiquement contestables.

21/05/2025 Faut-il renoncer à utiliser internet comme source d’information ?

Dans notre naïveté, nous pensions qu’Internet était une irremplaçable source d’information. En quelques instants, il donne accès à tout ce qu’il faut savoir dans l’actualité des sciences, de la politique et de la culture. Mais nous apprenons aujourd’hui que, selon des experts d’Europol, 90% des contenus en ligne seront produits par des logiciels d’Intelligence Artificielle.

https://www.europol.europa.eu/cms/sites/default/files/documents/Europol_Innovation_Lab_Facing_Reality_Law_Enforcement_And_The_Challenge_Of_Deepfakes.pdf

Cela n’ a priori rien d’inquiétant. L’IA est partout aujourd’hui. Mais, pour les experts d’Europol, elle sert à manipuler l’information afin d’en faire de la désinformation à grande échelle, quand ce n’est pas faciliter les crimes et délits. Elle montre des évènements qui n’ont jamais eu lieu, déforme les interprétations , prépare des rejets de grande ampleur.

De plus il existe désormais une deepfake technology autrement dit une technologie permettant de fabriquer de fausses images et de faux contenus, sans que l’utilisateur s’en aperçoive. La Russie en ferait, selon des sources, un grand usage.

_______________________________________________

Internet est-il mort, et sommes-nous en train de l’achever ? C’est. en tout cas ce qu’affirme la « Dead Internet Theory » Une théorie du complot qui, comme beaucoup d’autres, est née sur 4chan https://fr.wikipedia.org/wiki/4chan, avant d’être popularisée en 2021 par un post sur le forum Agora Road.

Selon la Dead Internet Theory l’invasion des bots et des « faux » contenus se généralise. En effet, selon un rapport d’Imperva, une société de cybersécurité, des bots étaient à l’origine de plus de la moitié du trafic Internet en 2024. Concrètement, cela veut dire que les interactions entre humains en ligne sont peu à peu remplacées par des logiciels les imitant.

« Le meilleur moyen de comprendre la Dead Internet Theory, c’est de comprendre que l’Internet que tu as connu et aimé pendant les dernières décennies a disparu », résume au HuffPost Jake Renzella, enseignant en sciences informatiques à l’Université de Nouvelle-Galles du Sud. « C’est la fin de la période où la majorité du contenu en ligne était écrite par des humains. Nous sommes des citoyens de seconde classe d’Internet » Si ce contenu artificiel ne fait qu’augmenter, c’est en partie à cause des IA génératives, devenues accessibles au grand public avec ChatGPT fin 2022.

Depuis, on a vu l’arrivée des vidéos créées par Midjourney, des chatbots à toutes les sauces, et même des influenceurs virtuels que l’on peut créer en quelques clics. Mais même avant ChatGPT, Internet était déjà mal parti, explique Jake Renzella.

« Il n’y a pas besoin d’IA générative pour créer du contenu automatisé par des bots », indique l’enseignant spécialiste de l’IA pédagogique. « Par exemple, si je voulais propager le message qu’il faut voter pour moi lors d’une élection, je peux créer 1 000 comptes Twitter qui répètent la même phrase. Ce que les IA génératives vont nous permettre, c’est de dire “parle de quelque chose, mais en même temps propage l’idée qu’il faut voter pour moi” », . « Çela va donner des milliers de messages tous uniques, ce qui rend la détection de bots beaucoup plus difficile ».

Si on en est arrivés là, c’est aussi à cause de l’appât du gain. L’Internet n’est plus optimisé pour être pratique ou divertissant explique le Financial Times, mais pour pousser au clic, à l’achat, au scroll infini.

Pour se protéger face à un Internet mourant, où d’ici 2026, 90 % du contenu pourrait être généré par IA prévient Futurism, il n’y a pas 10 000 solutions. Il faut remettre en question ce qu’on voit en ligne, surtout ce qui nous choque, et bien sûr ne pas présumer qu’on parle à des humains. Pour Jake Renzella, une « bascule vers des réseaux sociaux plus privés », tels que Discord, est également probable. Une façon de recréer des communautés fermées aux bots – en tout cas pour le moment.

20/05/2025 Forte probabilité de la présence d’une vie océanique semblable à la vie terrestre sur la planète K2-18 b

L’information doit doit être reçue avec prudence avant de futures confirmations, néanmoins les astronomes du monde entier semblent la prendre très au sérieux.

C’est la première fois que nous voyons un monde extraterrestre possiblement habité par une vie proche de la vie terrestre, a avancé l’astronome Nikku Madhusudhan de l’Université de Cambridge lors d’une conférence de presse le 15 avril

https://www.newscientist.com/article/2477008-astronomers-claim-strongest-evidence-of-alien-life-yet/

Les astronomes avaient découvert cette exoplanète en 2015. Huit fois plus massive que la terre elle se trouve dans la zone habitable de son étoile, où de l’eau liquide peut se trouver. Elle est distante de la Terre de 124 années-lumière.

D’autres observations avaient mis en évidence de la vapeur d’eau provenant d’océans s’étendant sous une atmosphère apparemment riche en hydrogène.

https://www.newscientist.com/article/2477008-astronomers-claim-strongest-evidence-of-alien-life-yet/

En 2023 , Nikku Madhusudhan et son équipe avaient renouvelé leurs observations en utilisant le James Webb Space Telescope. Mais, facteur plus important, ils avaient identifié du dimethyl DMS qui sur Terre n’est produit que par des organismes marins du type phytoplancton. Ces observations sont en cours de vérification.

Aujourd’hui l’équipe dispose d’outils plus performants fournis par le James Webb Space Telescope. Elle a de nouveau identifié du dimethyl sulphide qui sur terre n’est produit que par des organismes marins.

Voir l’article dont nous donnons ci-dessous les références et l’abstract.

Inutile de préciser que si l’observation était confirmée, elle serait d’une extrème importance, y compris au plan philosophique

Référence
New Constraints on DMS and DMDS in the Atmosphere offrom JWST MIRI

Nikku C, Savvas Constantinou, Måns Holmberg, Subhajit Sarkar, Anjali A. A. Piette, and Julianne I. Moses

Published 2025 April 17 • © 2025. The Author(s). Published by the American Astronomical Society.he Astrophysical Journal Letters, Volume 983, Number 2

Abstract

The sub-Neptune frontier has opened a new window into the rich diversity of planetary environments beyond the solar system. The possibility of hycean worlds, with planet-wide oceans and H2-rich atmospheres, significantly expands and accelerates the search for habitable environments elsewhere. Recent JWST transmission spectroscopy of the candidate hycean world K2-18 b in the near-infrared led to the first detections of the carbon-bearing molecules CH4 and CO2 in its atmosphere, with a composition consistent with predictions for hycean conditions. The observations also provided a tentative hint of dimethyl sulfide (DMS), a possible biosignature gas, but the inference was of low statistical significance. We report a mid-infrared transmission spectrum of K2-18 b obtained using the JWST MIRI LRS instrument in the ∼6–12 μm range. The spectrum shows distinct features and is inconsistent with a featureless spectrum at 3.4σ significance compared to our canonical model. We find that the spectrum cannot be explained by most molecules predicted for K2-18 b, with the exception of DMS and dimethyl disulfide (DMDS), also a potential biosignature gas. We report new independent evidence for DMS and/or DMDS in the atmosphere at 3σ significance, with high abundance (≳10 ppmv) of at least one of the two molecules. More observations are needed to increase the robustness of the findings and resolve the degeneracy between DMS and DMDS. The results also highlight the need for additional experimental and theoretical work to determine accurate cross sections of important biosignature gases and identify potential abiotic sources. We discuss the implications of the present findings for the possibility of biological activity on K2-18 b.

20/05/2025  Repenser la maladie de Parkinson

Le Dr Per Borghammer est professeur de médecine nucléaire et de neuroscience à la Faculté de Médecine de l’Université d’Aarhus, Danemark . Il s’est spécialisé dans l’imagerie clinique (clinical imaging) des maladies neurodégénératives et en particulier de la maladie de Parkinson, MP

La maladie de Parkinson est une affection qui touche près de 200 000 personnes en France. Deuxième cause de handicap moteur chez l’adulte après les accidents vasculaires cérébraux, elle se caractérise par une disparition progressive de certains neurones dans le cerveau.

Les maladies neurodégénératives sont des affections incurables et débilitantes qui entraînent une dégénérescence et/ou une mort progressive des cellules nerveuses. Il s’ensuit des problèmes de mouvement (appelés ataxies) ou de fonctionnement mental (appelés démences).

Les recherches du Dr. Borghammer incluent la compréhension des phases débutantes et prodromiques de cette maladie. En médecine, la phase prodromique est la période d’une maladie pendant laquelle un ensemble de symptômes avant-coureurs, généralement bénins, annoncent la survenue de la phase principale de la maladie. Ses recherches se focalisent principalement sur la pathogenèse ou mode de développement de MP ou de ses versions silencieuses qui souvent apparaissent dans le système nerveux périphérique autonome.

Il fait appel à une méthode hautement multidisciplinaire incluant une analyse approfondie du patient et de son histoire, ainsi que l’étude des modèles animaux de la MP. Ses recherches sont financées par les fondations Lundbeck, The Michael J. Fox Foundation, le Danish Research Council et le Parlement Danois

L’élément décisif de ces recherches lui fut suggéré il y a 20 ans alors qu’il lisait un article sur les troubles du comportement en sommeil paradoxal (REM sleep behaviour disorder ou RBD). Les symptômes du trouble du comportement en sommeil paradoxal peuvent inclure : des mouvements, comme donner des coups de pied, des coups de poing, agiter les bras ou sauter du lit, en réaction à des rêves violents ou chargés d’action, comme être poursuivi ou se défendre contre une attaque. On les observe souvent sur des personnes qui développent plus tard la MP.

Plutôt qu’une analyse des neurones du cerveau, Borghammer eut l’idée d’étudier les pertes de cellules nerveuses dans le cœur du patient. La MP entraîne en effet souvent des pertes de neurones dans le cœur. Il s’agit des neurones qui commandent des fonctions comme le rythme cardiaque et la pression sanguine. Chez ces malades le cœur a quasiment disparu, en ce sens que les neurones commandant les battements cardiaques sont si dégradés qu’ils n’apparaissaient pas dans les analyses par scanner. Cependant beaucoup d’entre eux ne sont pas diagnostiqués comme parkinsoniens. « J’ai compris qu’il existe deux types de Parkinson (MP), a reconnu Borghammer, l’un où la perte de neurones commence hors du cerveau et l’autre où la perte de neurones est initialement limitée au cerveau quitte à s’étendre ensuite..En 2019, Borghammer, alors à Aarhus University in Denmark, a formalisé son hypothèse des deux Parkinson “brain-first” and “body-first” .

Aujour’hui l’idée fait son chemin. Pour Timothy Greenamyre, l s’agira d’un grand progrès. Aujourd’hui, Parkinson s’étend. En 2050, 25 millions de personnes dans le monde vivront avec la maladie . Certains parlent de pandémie (voir “Parkinson’s on the rise). Cependant la recherche de nouveaux traitements n’a pas encore abouti.

On sait aujourd’ui que la maladie se traduit par la perte de cellules nerveuses dans les parties du cerveau qui aident à contrôler le mouvement, telle que la substantia nigra ou substance noire. Certains produisent un neurotransmetteur, la dopamine. La réduction de dopamine se traduit par une réduction du contrôle de l’apparail moteur, conduisant à la “tremulous motion”

Voir https://fr.wikipedia.org/wiki/Trouble_du_comportement_en_sommeil_paradoxal

Celle réduction serait causée par la production de formes dégradées de la protéine alpha-synucleine. L’α-synucléine est une protéine de la famille des synucléines qui est abondante dans le cerveau humain. On en trouve aussi de petites quantités dans le cœur, les muscles et d’autres tissus. Wikipedia

Alpha-synuclein se retrouve dans tout le corps et joue un rôle crique en contrôlant la délivrance de neurotransmetteurs, y compris la dopamine, dans les synapses, lieu où s’opère les liaisons entre neurones permettant le mouvement. Mais pour que la protéine joue convenablement son rôle, elle doit avoir une forme convenable. Quand Alpha-synuclein fonctionne mal, elle provoques dans les neurones la formation de corps parasites dits corps de Levy qui les tuent progressivement.

Ce qui cause les dysfonctionnements de alpha-synuclein n’est pas encore clair. Par contre l’on sait depuis longtemps qu’un des mécanismes utilisés par les cellules pour se débarrasser des protéines nuisibles est de les enfermer dans un petit sac dit exosme et de rejeter celui-ci à l’extérieur. Malheureusement une cellule voisine s’en empare souvent et s’incorpore le contenu, ce qui diffuse le mal .

Suite non traduite et non résumée

Trying to understand why and how alpha-synuclein goes wrong, researchers began to search for the places in the body where the misfolding could originate. In the 1990s, neuroanatomist Heiko Braak at Goethe University Frankfurt in Germany observed that the proliferation of the Lewy body clumps resembled “a falling row of dominoes”. This led him to suspect that the disease might originate outside the central nervous system and somehow find its way in. In 2003, Braak proposed that some kind of pathogen could trigger local inflammation in a network of nerve cells within the gut called the enteric nervous system and initiate the corruption of alpha-synuclein. Neurons in the vagus nerve, a conduit that connects the gut and brain, would then carry the misfolded protein to the vulnerable brain regions.

Braak’s hypothesis has gained ground in the years since. However, critics note that it doesn’t describe the development of Parkinson’s in all cases. In a small but pivotal 2020 study, Borghammer, Aarhus University PhD student Jacob Horsager and their colleagues assessed 37 people with Parkinson’s, of whom 13 also had RBD, as well as 22 people with only RBD. The team showed that, on average, people with RBD had more neuron loss in the heart and gut than those with only Parkinson’s, hinting that the disease originated there before making its way to the brain.

The lifestyle choices you make in middle age play a particularly important role in how your brain ages

But crucially, the team also found that those without RBD “lose the dopamine system first but have more normal hearts and guts”, says Borghammer, implying that for them, the disease started in the brain.

Borghammer realised that, though Braak might have been correct in thinking that neuronal degradation starts “body-first” in some people with Parkinson’s, that didn’t describe everyone. There are other people for whom the dopamine-producing structures in the brain are affected from the start, “brain-first”. “It is completely two separate categories with no overlap,” says Borghammer.

Brain-first, body-first

Borghammer’s post-mortem analyses of people who died with Parkinson’s offered yet more evidence that the disease followed at least two trajectories: some people had misfolded alpha-synuclein only in the centre of their brain, supporting the brain-first idea, but for others, it was found only at the bottom of the brainstem, as if it had just reached the brain from somewhere else. “When you’ve got several hundred brains [showing this], it starts to get pretty convincing,” says John Hardy, a neurologist at University College London.

Borghammer’s team isn’t alone in pursuing this idea. Married neurologists Valina and Ted Dawson at Johns Hopkins University in Maryland have tested the body-first theory by injecting misfolded alpha-synuclein into mice’s guts. “It just seemed like a reasonable experiment to do, to formally test the hypothesis,” says Ted Dawson.

One month later, the misfolded protein was in the mice’s brains, killing off their dopamine-producing neurons and inducing the onset of symptoms such as movement difficulties and loss of smell. “They got the whole spectrum of disease,” says Valina Dawson.

Crucially, this didn’t occur for mice that had their vagus nerve cut shortly after the injections. “I think that the data is very persuasive,” says Dario Alessi, who researches Parkinson’s genetic pathways at the University of Dundee, UK.

Such research cannot ethically be done in humans, but scientists can study people who had their vagus nerve cut as a last-resort treatment for peptic ulcer disease. In one study, those who had the nerve cut at the junction between the oesophagus and the stomach – the “trunk” of the nerve tree that communicates with digestive organs – were 15 per cent less likely to develop Parkinson’s 20 years later than people in the general population who hadn’t had the procedure. In a separate study, Borghammer and his team uncovered more evidence for a gut connection. They analysed gut tissue samples taken from 57 people up to 20 years before they were diagnosed with Parkinson’s disease and found misfolded alpha-synuclein in more than half of them, at significantly higher levels than in people who never developed the disease.

Though much of the research focus in body-first Parkinson’s has been on the gut, some scientists have gone looking for and found misfolded alpha-synuclein in other places in the bodies of people who don’t have neuron loss in the brain, including the appendix and the nasal cavity. “I think that it is plausible that an initiating event in a Parkinson’s disease cascade can occur in the periphery and then move centrally,” says Alastair Noyce, a neurologist at Queen Mary University of London.

Different types, different symptoms

The two subtypes also align with how differently the condition can manifest in people. “We are confronted with a very broad spectrum of what we call Parkinson’s disease that can be very differentially expressed in different patients,” says Filip Scheperjans, a neurologist at Helsinki University Hospital in Finland.

For example, people with signs of body-first Parkinson’s – exhibiting misfolded alpha-synuclein in peripheral tissues outside of the brain – are more likely to experience disruption to autonomic systems. In such people, RBD, unexplained drops in blood pressure, urinary dysfunction and constipation can occur years before their movement is affected. “When you see them in the street, you wouldn’t know that this is a sick person,” says Borghammer. “And in 70 per cent of these cases, when you do a dopamine scan, it is normal, [but] sooner or later it becomes abnormal.”

For brain-first Parkinson’s disease, movement-related symptoms dominate from the start. “These are the people who are more likely to have tremor,” says Camille Carroll at the University of Plymouth, UK.

New paths to treatment

Knowing that Parkinson’s might actually be two different types of disease can offer new pathways to treating it. “The point is: why the hell is there a brain-[first] and body-first type?” says Borghammer. “If there are some differences – molecular differences, genetic differences, cellular differences – these might constitute treatment targets, but we have no idea, because nobody has studied Parkinson’s disease in this framework.”

At the moment, says Borghammer, only a handful of medical centres around the world have the scanning equipment needed to differentiate between body-first or brain-first forms of the disease. However, future studies could divide trial participants into these two groups, so drugs are tested on those who have the best shot of benefiting from them. This could be particularly important when targeting the gut microbiome, which can be dramatically altered in people with Parkinson’s disease.

Several teams are already working on this. In a study published in 2020, neurologist Haydeh Payami at the University of Alabama at Birmingham examined the gut microbiomes of 490 people with Parkinson’s and 234 people without the condition. She found that 30 per cent of the species of gut microorganisms in people with Parkinson’s were either abnormally elevated or depleted, compared with those without the condition. One species that was elevated was Escherichia coli; some kinds of E. coli have been found to induce alpha-synuclein misfolding in the gut. Some bacteria can also stimulate inflammation, which could damage dopamine-producing neurons in the gut, says Scheperjans.

But these findings throw up the age-old dilemma of correlation versus causation. Is the gut microbiome intrinsically different in people who will go on to develop Parkinson’s or do symptoms such as constipation lead to changes? To investigate this question, a team led by microbiologist Sarkis Mazmanian at the California Institute of Technology transplanted faecal samples from people with Parkinson’s disease into germ-free mice bred to overexpress the normal alpha-synuclein protein, seeding the rodents with bacteria from the patients’ guts. Within six weeks, the mice developed signs of impaired movement, including being unable to perform mouse-specific motor function tests as well as before. “That is a nice step in the direction of causation,” says Carroll.

That raised the tantalising idea that the reverse procedure – transplanting healthy bacteria into the guts of people with Parkinson’s – could treat symptoms. The prospect has shown promise in animal studies and in at least one 2024 human trial that found “mild, but long-lasting beneficial effects” on motor symptoms in people with early-stage Parkinson’s.

Other research, however, has shown mixed results. In July 2024, Scheperjans and his colleagues gave 45 people with mild to moderate Parkinson’s either a faecal microbiome transplant (FMT) from a healthy donor or a placebo infusion. Six months later, there was no difference in movement-related symptoms between the two groups. However, those who had a transplant went on to need a lower dose of levodopa, a drug that helps replace the lost dopamine, than those in the placebo group. The transplant may have improved their body’s ability to use levodopa, so they required a smaller dose even if their symptoms progressed as much as those who had a placebo, says Scheperjans.

Researchers aren’t yet done investigating the link between the gut microbiome and Parkinson’s symptoms: two more FMT studies are under way, as well as a trial testing the antibiotic rifaximin’s effects on symptoms via its action on the gut microbiome. And though the July 2024 trial wasn’t quite the bullseye researchers might have hoped for, it could nevertheless lend further support to the idea that Parkinson’s exists in two types. Because the trial didn’t separate participants into subtypes, it’s unclear whether the treatment could be beneficial solely for individuals whose Parkinson’s originates in the gut, for example. “It could be that there are some mechanisms that we try to attack with new treatments, [but] they only work for one subtype,” says Horsager, who was not involved in the trial.

And that, say researchers, is an incredibly important step in the direction of more effective treatment. “We need to be able to give tailored treatments to subgroups of patients that really benefit from them,” says Borghammer. “How do we get there? We get there by subtyping.”

But more than that, says Horsager, “It has revolutionised our understanding of the disease, if it is correct. We have to start thinking about the disease in whole new way.”

Parkinson’s on the rise

Parkinson’s is the fastest-growing neurodegenerative condition in the world. The question is: why? Initial rises in disease rates were attributed to increased life expectancy – diagnoses generally occur among people aged 60 or older and “as more people get old, there’ll be more people with Parkinson’s”, says Dario Alessi at the University of Dundee, UK. But that can’t be the whole answer. Rates of Parkinson’s are rising faster than would be expected even if people are living longer, says Filip Scheperjans at Helsinki University Hospital in Finland.

Many point the finger at pesticides, which have been the subject of dozens of Parkinson’s-related studies over the past 40 years. They enter cells and damage mitochondria, which provide cells with energy, says Alessi. “You get to that level where the body can’t compensate anymore and you start getting symptoms.” Much of this research is observational and cannot prove cause and effect, but the sheer volume of evidence makes the idea increasingly convincing. “It is very robust, very consistent across studies,” says Alastair Noyce at Queen Mary University of London. Studies of agricultural workers also show that greater pesticide exposure is linked to greater likelihood of diagnosis. “If you sprayed more [pesticides] and were protected less, that seemed to increase your risk even more,” says Lee Neilson at Oregon Health & Science University.

Air pollution is also increasingly under scrutiny. Traffic exhaust fumes release particles known as PM2.5. These measure just 2.5 micrometres across and contain even smaller particles that can cross the blood-brain barrier, the membrane that keeps harmful substances in the blood out of the brain, triggering inflammation that may damage dopamine-producing neurons. In a recent study, people who had the greatest PM2.5 exposure, determined by their home address, were 23 per cent more likely to have a Parkinson’s diagnosis than those with the lowest exposure. However, the scientific consensus isn’t unanimous – defining PM2.5 exposure is difficult, as is quantifying an individual’s exposure over their lifetime.

Source

NewScientist Rethinking Parkinson.s
26 april 2025

Alexandra Thompson

.

19/05/2025  Sur l’écoulement du temps

nouvelle rédaction de l’article 18/05/2025 Le temps ne s’écoule pas de la même façon dans tout l’univers

Aujourd’hui un groupe de cosmologistes proposent l’hypothèse selon laquelle l’écoulement du temps n’est pas identique dans tout l’univers. Il varierait dans cette hypothèse dite timescape cosmology. Selon celle-ci, dans de grandes parties de l’univers, le temps aurait duré des millions d’années plus longtemps que dans le reste de l’univers.

Selon David Wiltshire de l’University of Canterbury en Nouvelle Zélande, cette hypothèse pourrait exliquer un des plus grands mystères de la physique. Il ne s’agit pas du fait que l’univers soit en expansion, mais du fait que celle-ci s’accélère. Pour expliquer cette accélération, le concept d’énergie noire avait été imaginé. Mais celui-ci contredit le principe cosmologique selon lequel il n’y a pas de place spéciale dans l’univers. Tout ce qui est bon pour la Terre l’est également pour tout l’espace.

On dit que l’univers est à la fois isotrope et homogène aux grandes échelles. Si je regardes la distribution des galaxies à grande distance j’en vois le même nombre du nord au sud et de l’est à l’ouest rappelle Joshua Frieman, cosmologiste à l’Université de Chicago.

Cependant avec ce principe et la loi de la relativité générale il est impossible d’expliquer l’univers qui n’apparait isotrope et homogène qu’à des échelles de 400 millions d’années-lumière. En dessous, selon les emplacements, l’on trouve des amas de galaxies et des espaces vides.

Vers la mi 2000, Wiltshire pris connaissance du travail de Thomas Buchert, alors en service au laboratoire des particules élémentaires du CERN, qui avait été frappé par ce manque d’homogénéité comportant des vides faisant 95% du volume de l’univers. L’un et l’autre élaborèrent jusqu’en 2007 le modèle dit time escape.

Celui-ci repose sur un phénomène dit de la dilatation gravitationnelle du temps. L’attraction gravitationnelle de corps massifs courberait l’espace-temps, si bien que le temps s’écoulerait plus lentement près de ces corps. Sans discuter nécessairement cette proposition, les cosmologistes avaient convenu qu’il ne s’appliquait pas sur de longues distances .

Comme il y a peu de matière dans un vide, celui-ci pourrait être 4 milliards d’années plus vieux qu’un amas de galaxies voisin, a remarqué Ryan Ridden-Harper, University of Canterbury. Autrement dit, tout le monde n’a pas le même âge dans le cosmos. Dans ce cas, le besoin d’évoquer une énergie noire disparaît.

Cette hypothèse a provoqué la recherche d’autres approches pour expliquer les évidentes inhomogénéités de la structure du cosmos. Aucune n’a convaincu. Aucune explication ne paraît permettre de se passer de l’hypothèse de l’énergie noire.

Cependant, pour Wiltshire, les efforts pour construire des cosmologies non homogènes, continuent à attribuer un âge constant à l’univers. Or si le timesape est différent, c’est parce qu’il inclut un age variable pour l’univers. Wiltshire attend beaucoup d’un nouvel ensemble de données nommé Pantheon+. Celui-ci s’appuie sur l’observation de 1535 supernovae, or exploding stars de type 1a. Toutes produisent la même quantité d’énergie, si bien que des différences dans leur luminosité provient de différences dans leur éloignement. Ceci en fait un excellent outil pour mesurer l’univers.

Les dernière analyses publiée récemment confirment l’hypothèse du modèle timescape. Mais Frieman, qui a dirigé la Dark Energy Survey (DES), avec la collaboration de 400 scientifiques du monde entier, n’est toujours pas convaincu. La mesure d’un phénomène dit baryon acoustic oscillations (BAOs) conduit à des conclusions opposées. Les BAOs peuvent être considérées comme des ondulations dans la structure à grande échelle de l’univers primitif qui auraient donné naissance aux galaxies d’aujourd’hui. Des observations testeés des prédictions de lambda-CDM et de timescape ont montré que lambda-CDM l’emportait largement.

Y verra-t-on plus clair prochainement? L’observatoire Vera Rubin va bientôt entrer en service au Chili. Il doit observer plus précisément les supernovae afin de construire des cartes détaillées du cosmos . Voir https://fr.wikipedia.org/wiki/Observatoire_Vera-C.-Rubin