21/05/2025. Comment être plus intelligent qu’un agent généré par l’Intelligence artificielle, IA?

Cette question se pose désormais à chacun d’entre nous. Constamment, nous allons devoir démontrer que nous sommes plus intelligent que des agents générés par l’IA et avec lequels nous serons en concurrence. Si nous ne sommes pas capbles de le faire, les employeurs s’adresseront à eux et non à nous.

Il ne nous restera pour nous consoler que des allocations chômage qui ne seront même des ARE, allocations d’aide au retour à l’emploi, car personne ne voudra nous réemployer.

Prenons l’exemple des chatbots Des chatbots comme ELIZA existent depuis la fin des années 1960. Conçus principalement pour des applications spécifiques, ils reposaient sur des règles prédéfinies programmées par des humains. Leurs capacités étant limitées, ils échouaient face à des interactions plus complexes. Au fil des décennies, leur utilisation s’est étendue, notamment avec leur intégration dans des sites web et des services clients, ainsi que dans les années 2010 avec des assistants personnels intelligents tels que Siri ou Cortana.

Les performances des chatbots se sont rapidement améliorées au début des années 2020 avec les grands modèles de langage. Ces chatbots apprennent d’eux-mêmes à générer du texte en étant entraînés sur de vastes quantités de texte issu d’internet. ChatGPT a connu une forte popularité dès son lancement en novembre 2022, atteignant 100 millions de comptes enregistrés en seulement deux mois, la croissance la plus rapide de l’histoire pour une application logicielle. Des modèles concurrents sont rapidement apparus, comme Claude ou Gemini.

Le problème pour nous est que les textes générés par des chatbots sont plus complets et de meilleure qualité que ceux que nous écririons nous mêmes. Prenons l’exemple d’un journaliste auquel le rédacteur en chef demande d’écrire un article sur un sujet d’actualité tel que la guerre en Ukraine. S’il veut écrire un bon article, le journaliste passera plusieurs heures à consulter des sources sur Internet et à en faire des synthèses aussi intelligentes que possible.

Mais s’il avait posé la question à un chatbot, le rédacteur en chef aurait obtenu en quelques minutes et pour un coût quasiment nul, un article aussi bien documenté que celui du journaliste. Cet article aurait comporté, non seulement des faits mais des opinions, car il aurait pu citer des extraits contradictoires de communiqués produits par des hommes politique ou des experts militaires sur la question.

La seule façon pour nous de résister à cette concurrence de l’intelligence artificielle serait de nous montrer plus intelligent qu’elle et de le faire plus rapidement. Ceci ne nous serait pas impossible mais nous obligerait à réfléchir en profondeur tant sur sur le contenu que sur la forme des articles que nous écririons.

Autrement dit nous ne passerions pas auparavant une nuit tranquille et reposante.

Anne B., JPB

22/05/2025 Peut-on espérer élaborer une hypothèse scientifique concernant la conscience ?



La question a été posée formellement lors d’une conférence en 2023 et a fait l’objet d’un article dans Nature. Elle n’a pas reçu de réponse précise ;

Voir https://www.nature.com/articles/s41583-022-00587-4 Nature Reviews Neuroscience volume 23, pages 439–452 (2022)

Voir aussi https://maxplanckneuroscience.org/rethinking-consciousness-when-science-puts-itself-to-the-test/

Certains intervenants ont évoqué l’ITT (Integrated Theory of Information). Ainsi des messages relatifs à la vision consciente ou à l’orientation sont décodés dans le cerveau postérieur et entraînent une activité soutenue dans les aires correspondantes.

Cependant 124 neuroscientfiiques ont en 2023 rejette l »ITT présentée comme une pseudoscience. Ils ont réitéré récemment dans un commentaire plus détaillé.

Chris Frith de l’ University of London, co-auteur de ces critiques, a rappelé que le débat n’était pas que philosophique. Constamment la question de la conscience d’un sujet dans le coma se pose dans les salles d’opération ou après un accident. S’en tenir à l’III peut conduire à des décisions trop rapides, éthiquement contestables.

21/05/2025 Faut-il renoncer à utiliser internet comme source d’information ?

Dans notre naïveté, nous pensions qu’Internet était une irremplaçable source d’information. En quelques instants, il donne accès à tout ce qu’il faut savoir dans l’actualité des sciences, de la politique et de la culture. Mais nous apprenons aujourd’hui que, selon des experts d’Europol, 90% des contenus en ligne seront produits par des logiciels d’Intelligence Artificielle.

https://www.europol.europa.eu/cms/sites/default/files/documents/Europol_Innovation_Lab_Facing_Reality_Law_Enforcement_And_The_Challenge_Of_Deepfakes.pdf

Cela n’ a priori rien d’inquiétant. L’IA est partout aujourd’hui. Mais, pour les experts d’Europol, elle sert à manipuler l’information afin d’en faire de la désinformation à grande échelle, quand ce n’est pas faciliter les crimes et délits. Elle montre des évènements qui n’ont jamais eu lieu, déforme les interprétations , prépare des rejets de grande ampleur.

De plus il existe désormais une deepfake technology autrement dit une technologie permettant de fabriquer de fausses images et de faux contenus, sans que l’utilisateur s’en aperçoive. La Russie en ferait, selon des sources, un grand usage.

_______________________________________________

Internet est-il mort, et sommes-nous en train de l’achever ? C’est. en tout cas ce qu’affirme la « Dead Internet Theory » Une théorie du complot qui, comme beaucoup d’autres, est née sur 4chan https://fr.wikipedia.org/wiki/4chan, avant d’être popularisée en 2021 par un post sur le forum Agora Road.

Selon la Dead Internet Theory l’invasion des bots et des « faux » contenus se généralise. En effet, selon un rapport d’Imperva, une société de cybersécurité, des bots étaient à l’origine de plus de la moitié du trafic Internet en 2024. Concrètement, cela veut dire que les interactions entre humains en ligne sont peu à peu remplacées par des logiciels les imitant.

« Le meilleur moyen de comprendre la Dead Internet Theory, c’est de comprendre que l’Internet que tu as connu et aimé pendant les dernières décennies a disparu », résume au HuffPost Jake Renzella, enseignant en sciences informatiques à l’Université de Nouvelle-Galles du Sud. « C’est la fin de la période où la majorité du contenu en ligne était écrite par des humains. Nous sommes des citoyens de seconde classe d’Internet » Si ce contenu artificiel ne fait qu’augmenter, c’est en partie à cause des IA génératives, devenues accessibles au grand public avec ChatGPT fin 2022.

Depuis, on a vu l’arrivée des vidéos créées par Midjourney, des chatbots à toutes les sauces, et même des influenceurs virtuels que l’on peut créer en quelques clics. Mais même avant ChatGPT, Internet était déjà mal parti, explique Jake Renzella.

« Il n’y a pas besoin d’IA générative pour créer du contenu automatisé par des bots », indique l’enseignant spécialiste de l’IA pédagogique. « Par exemple, si je voulais propager le message qu’il faut voter pour moi lors d’une élection, je peux créer 1 000 comptes Twitter qui répètent la même phrase. Ce que les IA génératives vont nous permettre, c’est de dire “parle de quelque chose, mais en même temps propage l’idée qu’il faut voter pour moi” », . « Çela va donner des milliers de messages tous uniques, ce qui rend la détection de bots beaucoup plus difficile ».

Si on en est arrivés là, c’est aussi à cause de l’appât du gain. L’Internet n’est plus optimisé pour être pratique ou divertissant explique le Financial Times, mais pour pousser au clic, à l’achat, au scroll infini.

Pour se protéger face à un Internet mourant, où d’ici 2026, 90 % du contenu pourrait être généré par IA prévient Futurism, il n’y a pas 10 000 solutions. Il faut remettre en question ce qu’on voit en ligne, surtout ce qui nous choque, et bien sûr ne pas présumer qu’on parle à des humains. Pour Jake Renzella, une « bascule vers des réseaux sociaux plus privés », tels que Discord, est également probable. Une façon de recréer des communautés fermées aux bots – en tout cas pour le moment.

20/05/2025 Forte probabilité de la présence d’une vie océanique semblable à la vie terrestre sur la planète K2-18 b

L’information doit doit être reçue avec prudence avant de futures confirmations, néanmoins les astronomes du monde entier semblent la prendre très au sérieux.

C’est la première fois que nous voyons un monde extraterrestre possiblement habité par une vie proche de la vie terrestre, a avancé l’astronome Nikku Madhusudhan de l’Université de Cambridge lors d’une conférence de presse le 15 avril

https://www.newscientist.com/article/2477008-astronomers-claim-strongest-evidence-of-alien-life-yet/

Les astronomes avaient découvert cette exoplanète en 2015. Huit fois plus massive que la terre elle se trouve dans la zone habitable de son étoile, où de l’eau liquide peut se trouver. Elle est distante de la Terre de 124 années-lumière.

D’autres observations avaient mis en évidence de la vapeur d’eau provenant d’océans s’étendant sous une atmosphère apparemment riche en hydrogène.

https://www.newscientist.com/article/2477008-astronomers-claim-strongest-evidence-of-alien-life-yet/

En 2023 , Nikku Madhusudhan et son équipe avaient renouvelé leurs observations en utilisant le James Webb Space Telescope. Mais, facteur plus important, ils avaient identifié du dimethyl DMS qui sur Terre n’est produit que par des organismes marins du type phytoplancton. Ces observations sont en cours de vérification.

Aujourd’hui l’équipe dispose d’outils plus performants fournis par le James Webb Space Telescope. Elle a de nouveau identifié du dimethyl sulphide qui sur terre n’est produit que par des organismes marins.

Voir l’article dont nous donnons ci-dessous les références et l’abstract.

Inutile de préciser que si l’observation était confirmée, elle serait d’une extrème importance, y compris au plan philosophique

Référence
New Constraints on DMS and DMDS in the Atmosphere offrom JWST MIRI

Nikku C, Savvas Constantinou, Måns Holmberg, Subhajit Sarkar, Anjali A. A. Piette, and Julianne I. Moses

Published 2025 April 17 • © 2025. The Author(s). Published by the American Astronomical Society.he Astrophysical Journal Letters, Volume 983, Number 2

Abstract

The sub-Neptune frontier has opened a new window into the rich diversity of planetary environments beyond the solar system. The possibility of hycean worlds, with planet-wide oceans and H2-rich atmospheres, significantly expands and accelerates the search for habitable environments elsewhere. Recent JWST transmission spectroscopy of the candidate hycean world K2-18 b in the near-infrared led to the first detections of the carbon-bearing molecules CH4 and CO2 in its atmosphere, with a composition consistent with predictions for hycean conditions. The observations also provided a tentative hint of dimethyl sulfide (DMS), a possible biosignature gas, but the inference was of low statistical significance. We report a mid-infrared transmission spectrum of K2-18 b obtained using the JWST MIRI LRS instrument in the ∼6–12 μm range. The spectrum shows distinct features and is inconsistent with a featureless spectrum at 3.4σ significance compared to our canonical model. We find that the spectrum cannot be explained by most molecules predicted for K2-18 b, with the exception of DMS and dimethyl disulfide (DMDS), also a potential biosignature gas. We report new independent evidence for DMS and/or DMDS in the atmosphere at 3σ significance, with high abundance (≳10 ppmv) of at least one of the two molecules. More observations are needed to increase the robustness of the findings and resolve the degeneracy between DMS and DMDS. The results also highlight the need for additional experimental and theoretical work to determine accurate cross sections of important biosignature gases and identify potential abiotic sources. We discuss the implications of the present findings for the possibility of biological activity on K2-18 b.

20/05/2025  Repenser la maladie de Parkinson

Le Dr Per Borghammer est professeur de médecine nucléaire et de neuroscience à la Faculté de Médecine de l’Université d’Aarhus, Danemark . Il s’est spécialisé dans l’imagerie clinique (clinical imaging) des maladies neurodégénératives et en particulier de la maladie de Parkinson, MP

La maladie de Parkinson est une affection qui touche près de 200 000 personnes en France. Deuxième cause de handicap moteur chez l’adulte après les accidents vasculaires cérébraux, elle se caractérise par une disparition progressive de certains neurones dans le cerveau.

Les maladies neurodégénératives sont des affections incurables et débilitantes qui entraînent une dégénérescence et/ou une mort progressive des cellules nerveuses. Il s’ensuit des problèmes de mouvement (appelés ataxies) ou de fonctionnement mental (appelés démences).

Les recherches du Dr. Borghammer incluent la compréhension des phases débutantes et prodromiques de cette maladie. En médecine, la phase prodromique est la période d’une maladie pendant laquelle un ensemble de symptômes avant-coureurs, généralement bénins, annoncent la survenue de la phase principale de la maladie. Ses recherches se focalisent principalement sur la pathogenèse ou mode de développement de MP ou de ses versions silencieuses qui souvent apparaissent dans le système nerveux périphérique autonome.

Il fait appel à une méthode hautement multidisciplinaire incluant une analyse approfondie du patient et de son histoire, ainsi que l’étude des modèles animaux de la MP. Ses recherches sont financées par les fondations Lundbeck, The Michael J. Fox Foundation, le Danish Research Council et le Parlement Danois

L’élément décisif de ces recherches lui fut suggéré il y a 20 ans alors qu’il lisait un article sur les troubles du comportement en sommeil paradoxal (REM sleep behaviour disorder ou RBD). Les symptômes du trouble du comportement en sommeil paradoxal peuvent inclure : des mouvements, comme donner des coups de pied, des coups de poing, agiter les bras ou sauter du lit, en réaction à des rêves violents ou chargés d’action, comme être poursuivi ou se défendre contre une attaque. On les observe souvent sur des personnes qui développent plus tard la MP.

Plutôt qu’une analyse des neurones du cerveau, Borghammer eut l’idée d’étudier les pertes de cellules nerveuses dans le cœur du patient. La MP entraîne en effet souvent des pertes de neurones dans le cœur. Il s’agit des neurones qui commandent des fonctions comme le rythme cardiaque et la pression sanguine. Chez ces malades le cœur a quasiment disparu, en ce sens que les neurones commandant les battements cardiaques sont si dégradés qu’ils n’apparaissaient pas dans les analyses par scanner. Cependant beaucoup d’entre eux ne sont pas diagnostiqués comme parkinsoniens. « J’ai compris qu’il existe deux types de Parkinson (MP), a reconnu Borghammer, l’un où la perte de neurones commence hors du cerveau et l’autre où la perte de neurones est initialement limitée au cerveau quitte à s’étendre ensuite..En 2019, Borghammer, alors à Aarhus University in Denmark, a formalisé son hypothèse des deux Parkinson “brain-first” and “body-first” .

Aujour’hui l’idée fait son chemin. Pour Timothy Greenamyre, l s’agira d’un grand progrès. Aujourd’hui, Parkinson s’étend. En 2050, 25 millions de personnes dans le monde vivront avec la maladie . Certains parlent de pandémie (voir “Parkinson’s on the rise). Cependant la recherche de nouveaux traitements n’a pas encore abouti.

On sait aujourd’ui que la maladie se traduit par la perte de cellules nerveuses dans les parties du cerveau qui aident à contrôler le mouvement, telle que la substantia nigra ou substance noire. Certains produisent un neurotransmetteur, la dopamine. La réduction de dopamine se traduit par une réduction du contrôle de l’apparail moteur, conduisant à la “tremulous motion”

Voir https://fr.wikipedia.org/wiki/Trouble_du_comportement_en_sommeil_paradoxal

Celle réduction serait causée par la production de formes dégradées de la protéine alpha-synucleine. L’α-synucléine est une protéine de la famille des synucléines qui est abondante dans le cerveau humain. On en trouve aussi de petites quantités dans le cœur, les muscles et d’autres tissus. Wikipedia

Alpha-synuclein se retrouve dans tout le corps et joue un rôle crique en contrôlant la délivrance de neurotransmetteurs, y compris la dopamine, dans les synapses, lieu où s’opère les liaisons entre neurones permettant le mouvement. Mais pour que la protéine joue convenablement son rôle, elle doit avoir une forme convenable. Quand Alpha-synuclein fonctionne mal, elle provoques dans les neurones la formation de corps parasites dits corps de Levy qui les tuent progressivement.

Ce qui cause les dysfonctionnements de alpha-synuclein n’est pas encore clair. Par contre l’on sait depuis longtemps qu’un des mécanismes utilisés par les cellules pour se débarrasser des protéines nuisibles est de les enfermer dans un petit sac dit exosme et de rejeter celui-ci à l’extérieur. Malheureusement une cellule voisine s’en empare souvent et s’incorpore le contenu, ce qui diffuse le mal .

Suite non traduite et non résumée

Trying to understand why and how alpha-synuclein goes wrong, researchers began to search for the places in the body where the misfolding could originate. In the 1990s, neuroanatomist Heiko Braak at Goethe University Frankfurt in Germany observed that the proliferation of the Lewy body clumps resembled “a falling row of dominoes”. This led him to suspect that the disease might originate outside the central nervous system and somehow find its way in. In 2003, Braak proposed that some kind of pathogen could trigger local inflammation in a network of nerve cells within the gut called the enteric nervous system and initiate the corruption of alpha-synuclein. Neurons in the vagus nerve, a conduit that connects the gut and brain, would then carry the misfolded protein to the vulnerable brain regions.

Braak’s hypothesis has gained ground in the years since. However, critics note that it doesn’t describe the development of Parkinson’s in all cases. In a small but pivotal 2020 study, Borghammer, Aarhus University PhD student Jacob Horsager and their colleagues assessed 37 people with Parkinson’s, of whom 13 also had RBD, as well as 22 people with only RBD. The team showed that, on average, people with RBD had more neuron loss in the heart and gut than those with only Parkinson’s, hinting that the disease originated there before making its way to the brain.

The lifestyle choices you make in middle age play a particularly important role in how your brain ages

But crucially, the team also found that those without RBD “lose the dopamine system first but have more normal hearts and guts”, says Borghammer, implying that for them, the disease started in the brain.

Borghammer realised that, though Braak might have been correct in thinking that neuronal degradation starts “body-first” in some people with Parkinson’s, that didn’t describe everyone. There are other people for whom the dopamine-producing structures in the brain are affected from the start, “brain-first”. “It is completely two separate categories with no overlap,” says Borghammer.

Brain-first, body-first

Borghammer’s post-mortem analyses of people who died with Parkinson’s offered yet more evidence that the disease followed at least two trajectories: some people had misfolded alpha-synuclein only in the centre of their brain, supporting the brain-first idea, but for others, it was found only at the bottom of the brainstem, as if it had just reached the brain from somewhere else. “When you’ve got several hundred brains [showing this], it starts to get pretty convincing,” says John Hardy, a neurologist at University College London.

Borghammer’s team isn’t alone in pursuing this idea. Married neurologists Valina and Ted Dawson at Johns Hopkins University in Maryland have tested the body-first theory by injecting misfolded alpha-synuclein into mice’s guts. “It just seemed like a reasonable experiment to do, to formally test the hypothesis,” says Ted Dawson.

One month later, the misfolded protein was in the mice’s brains, killing off their dopamine-producing neurons and inducing the onset of symptoms such as movement difficulties and loss of smell. “They got the whole spectrum of disease,” says Valina Dawson.

Crucially, this didn’t occur for mice that had their vagus nerve cut shortly after the injections. “I think that the data is very persuasive,” says Dario Alessi, who researches Parkinson’s genetic pathways at the University of Dundee, UK.

Such research cannot ethically be done in humans, but scientists can study people who had their vagus nerve cut as a last-resort treatment for peptic ulcer disease. In one study, those who had the nerve cut at the junction between the oesophagus and the stomach – the “trunk” of the nerve tree that communicates with digestive organs – were 15 per cent less likely to develop Parkinson’s 20 years later than people in the general population who hadn’t had the procedure. In a separate study, Borghammer and his team uncovered more evidence for a gut connection. They analysed gut tissue samples taken from 57 people up to 20 years before they were diagnosed with Parkinson’s disease and found misfolded alpha-synuclein in more than half of them, at significantly higher levels than in people who never developed the disease.

Though much of the research focus in body-first Parkinson’s has been on the gut, some scientists have gone looking for and found misfolded alpha-synuclein in other places in the bodies of people who don’t have neuron loss in the brain, including the appendix and the nasal cavity. “I think that it is plausible that an initiating event in a Parkinson’s disease cascade can occur in the periphery and then move centrally,” says Alastair Noyce, a neurologist at Queen Mary University of London.

Different types, different symptoms

The two subtypes also align with how differently the condition can manifest in people. “We are confronted with a very broad spectrum of what we call Parkinson’s disease that can be very differentially expressed in different patients,” says Filip Scheperjans, a neurologist at Helsinki University Hospital in Finland.

For example, people with signs of body-first Parkinson’s – exhibiting misfolded alpha-synuclein in peripheral tissues outside of the brain – are more likely to experience disruption to autonomic systems. In such people, RBD, unexplained drops in blood pressure, urinary dysfunction and constipation can occur years before their movement is affected. “When you see them in the street, you wouldn’t know that this is a sick person,” says Borghammer. “And in 70 per cent of these cases, when you do a dopamine scan, it is normal, [but] sooner or later it becomes abnormal.”

For brain-first Parkinson’s disease, movement-related symptoms dominate from the start. “These are the people who are more likely to have tremor,” says Camille Carroll at the University of Plymouth, UK.

New paths to treatment

Knowing that Parkinson’s might actually be two different types of disease can offer new pathways to treating it. “The point is: why the hell is there a brain-[first] and body-first type?” says Borghammer. “If there are some differences – molecular differences, genetic differences, cellular differences – these might constitute treatment targets, but we have no idea, because nobody has studied Parkinson’s disease in this framework.”

At the moment, says Borghammer, only a handful of medical centres around the world have the scanning equipment needed to differentiate between body-first or brain-first forms of the disease. However, future studies could divide trial participants into these two groups, so drugs are tested on those who have the best shot of benefiting from them. This could be particularly important when targeting the gut microbiome, which can be dramatically altered in people with Parkinson’s disease.

Several teams are already working on this. In a study published in 2020, neurologist Haydeh Payami at the University of Alabama at Birmingham examined the gut microbiomes of 490 people with Parkinson’s and 234 people without the condition. She found that 30 per cent of the species of gut microorganisms in people with Parkinson’s were either abnormally elevated or depleted, compared with those without the condition. One species that was elevated was Escherichia coli; some kinds of E. coli have been found to induce alpha-synuclein misfolding in the gut. Some bacteria can also stimulate inflammation, which could damage dopamine-producing neurons in the gut, says Scheperjans.

But these findings throw up the age-old dilemma of correlation versus causation. Is the gut microbiome intrinsically different in people who will go on to develop Parkinson’s or do symptoms such as constipation lead to changes? To investigate this question, a team led by microbiologist Sarkis Mazmanian at the California Institute of Technology transplanted faecal samples from people with Parkinson’s disease into germ-free mice bred to overexpress the normal alpha-synuclein protein, seeding the rodents with bacteria from the patients’ guts. Within six weeks, the mice developed signs of impaired movement, including being unable to perform mouse-specific motor function tests as well as before. “That is a nice step in the direction of causation,” says Carroll.

That raised the tantalising idea that the reverse procedure – transplanting healthy bacteria into the guts of people with Parkinson’s – could treat symptoms. The prospect has shown promise in animal studies and in at least one 2024 human trial that found “mild, but long-lasting beneficial effects” on motor symptoms in people with early-stage Parkinson’s.

Other research, however, has shown mixed results. In July 2024, Scheperjans and his colleagues gave 45 people with mild to moderate Parkinson’s either a faecal microbiome transplant (FMT) from a healthy donor or a placebo infusion. Six months later, there was no difference in movement-related symptoms between the two groups. However, those who had a transplant went on to need a lower dose of levodopa, a drug that helps replace the lost dopamine, than those in the placebo group. The transplant may have improved their body’s ability to use levodopa, so they required a smaller dose even if their symptoms progressed as much as those who had a placebo, says Scheperjans.

Researchers aren’t yet done investigating the link between the gut microbiome and Parkinson’s symptoms: two more FMT studies are under way, as well as a trial testing the antibiotic rifaximin’s effects on symptoms via its action on the gut microbiome. And though the July 2024 trial wasn’t quite the bullseye researchers might have hoped for, it could nevertheless lend further support to the idea that Parkinson’s exists in two types. Because the trial didn’t separate participants into subtypes, it’s unclear whether the treatment could be beneficial solely for individuals whose Parkinson’s originates in the gut, for example. “It could be that there are some mechanisms that we try to attack with new treatments, [but] they only work for one subtype,” says Horsager, who was not involved in the trial.

And that, say researchers, is an incredibly important step in the direction of more effective treatment. “We need to be able to give tailored treatments to subgroups of patients that really benefit from them,” says Borghammer. “How do we get there? We get there by subtyping.”

But more than that, says Horsager, “It has revolutionised our understanding of the disease, if it is correct. We have to start thinking about the disease in whole new way.”

Parkinson’s on the rise

Parkinson’s is the fastest-growing neurodegenerative condition in the world. The question is: why? Initial rises in disease rates were attributed to increased life expectancy – diagnoses generally occur among people aged 60 or older and “as more people get old, there’ll be more people with Parkinson’s”, says Dario Alessi at the University of Dundee, UK. But that can’t be the whole answer. Rates of Parkinson’s are rising faster than would be expected even if people are living longer, says Filip Scheperjans at Helsinki University Hospital in Finland.

Many point the finger at pesticides, which have been the subject of dozens of Parkinson’s-related studies over the past 40 years. They enter cells and damage mitochondria, which provide cells with energy, says Alessi. “You get to that level where the body can’t compensate anymore and you start getting symptoms.” Much of this research is observational and cannot prove cause and effect, but the sheer volume of evidence makes the idea increasingly convincing. “It is very robust, very consistent across studies,” says Alastair Noyce at Queen Mary University of London. Studies of agricultural workers also show that greater pesticide exposure is linked to greater likelihood of diagnosis. “If you sprayed more [pesticides] and were protected less, that seemed to increase your risk even more,” says Lee Neilson at Oregon Health & Science University.

Air pollution is also increasingly under scrutiny. Traffic exhaust fumes release particles known as PM2.5. These measure just 2.5 micrometres across and contain even smaller particles that can cross the blood-brain barrier, the membrane that keeps harmful substances in the blood out of the brain, triggering inflammation that may damage dopamine-producing neurons. In a recent study, people who had the greatest PM2.5 exposure, determined by their home address, were 23 per cent more likely to have a Parkinson’s diagnosis than those with the lowest exposure. However, the scientific consensus isn’t unanimous – defining PM2.5 exposure is difficult, as is quantifying an individual’s exposure over their lifetime.

Source

NewScientist Rethinking Parkinson.s
26 april 2025

Alexandra Thompson

.

19/05/2025  Sur l’écoulement du temps

nouvelle rédaction de l’article 18/05/2025 Le temps ne s’écoule pas de la même façon dans tout l’univers

Aujourd’hui un groupe de cosmologistes proposent l’hypothèse selon laquelle l’écoulement du temps n’est pas identique dans tout l’univers. Il varierait dans cette hypothèse dite timescape cosmology. Selon celle-ci, dans de grandes parties de l’univers, le temps aurait duré des millions d’années plus longtemps que dans le reste de l’univers.

Selon David Wiltshire de l’University of Canterbury en Nouvelle Zélande, cette hypothèse pourrait exliquer un des plus grands mystères de la physique. Il ne s’agit pas du fait que l’univers soit en expansion, mais du fait que celle-ci s’accélère. Pour expliquer cette accélération, le concept d’énergie noire avait été imaginé. Mais celui-ci contredit le principe cosmologique selon lequel il n’y a pas de place spéciale dans l’univers. Tout ce qui est bon pour la Terre l’est également pour tout l’espace.

On dit que l’univers est à la fois isotrope et homogène aux grandes échelles. Si je regardes la distribution des galaxies à grande distance j’en vois le même nombre du nord au sud et de l’est à l’ouest rappelle Joshua Frieman, cosmologiste à l’Université de Chicago.

Cependant avec ce principe et la loi de la relativité générale il est impossible d’expliquer l’univers qui n’apparait isotrope et homogène qu’à des échelles de 400 millions d’années-lumière. En dessous, selon les emplacements, l’on trouve des amas de galaxies et des espaces vides.

Vers la mi 2000, Wiltshire pris connaissance du travail de Thomas Buchert, alors en service au laboratoire des particules élémentaires du CERN, qui avait été frappé par ce manque d’homogénéité comportant des vides faisant 95% du volume de l’univers. L’un et l’autre élaborèrent jusqu’en 2007 le modèle dit time escape.

Celui-ci repose sur un phénomène dit de la dilatation gravitationnelle du temps. L’attraction gravitationnelle de corps massifs courberait l’espace-temps, si bien que le temps s’écoulerait plus lentement près de ces corps. Sans discuter nécessairement cette proposition, les cosmologistes avaient convenu qu’il ne s’appliquait pas sur de longues distances .

Comme il y a peu de matière dans un vide, celui-ci pourrait être 4 milliards d’années plus vieux qu’un amas de galaxies voisin, a remarqué Ryan Ridden-Harper, University of Canterbury. Autrement dit, tout le monde n’a pas le même âge dans le cosmos. Dans ce cas, le besoin d’évoquer une énergie noire disparaît.

Cette hypothèse a provoqué la recherche d’autres approches pour expliquer les évidentes inhomogénéités de la structure du cosmos. Aucune n’a convaincu. Aucune explication ne paraît permettre de se passer de l’hypothèse de l’énergie noire.

Cependant, pour Wiltshire, les efforts pour construire des cosmologies non homogènes, continuent à attribuer un âge constant à l’univers. Or si le timesape est différent, c’est parce qu’il inclut un age variable pour l’univers. Wiltshire attend beaucoup d’un nouvel ensemble de données nommé Pantheon+. Celui-ci s’appuie sur l’observation de 1535 supernovae, or exploding stars de type 1a. Toutes produisent la même quantité d’énergie, si bien que des différences dans leur luminosité provient de différences dans leur éloignement. Ceci en fait un excellent outil pour mesurer l’univers.

Les dernière analyses publiée récemment confirment l’hypothèse du modèle timescape. Mais Frieman, qui a dirigé la Dark Energy Survey (DES), avec la collaboration de 400 scientifiques du monde entier, n’est toujours pas convaincu. La mesure d’un phénomène dit baryon acoustic oscillations (BAOs) conduit à des conclusions opposées. Les BAOs peuvent être considérées comme des ondulations dans la structure à grande échelle de l’univers primitif qui auraient donné naissance aux galaxies d’aujourd’hui. Des observations testeés des prédictions de lambda-CDM et de timescape ont montré que lambda-CDM l’emportait largement.

Y verra-t-on plus clair prochainement? L’observatoire Vera Rubin va bientôt entrer en service au Chili. Il doit observer plus précisément les supernovae afin de construire des cartes détaillées du cosmos . Voir https://fr.wikipedia.org/wiki/Observatoire_Vera-C.-Rubin

18/05/2025 Le temps ne s’écoule pas de la même façon dans tout l’univers

Aujourd’hui un groupe de cosmologistes proposent l’hypothèse selon laquelle l’écoulement du temps n’est pas identique dans tout l’univers. Il varierait dans cette hypothèse dite timescape cosmology. Selon celle-ci, dans de grandes parties de l’univers, le temps aurait duré des millions d’années plus longtemps que dans le reste de l’univers.

Selon David Wiltshire de l’University of Canterbury en Nouvelle Zélande, cette hypothèse pourrait exliquer un des plus grands mystères de la physique. Il ne s’agit pas du fait que l’univers soit en expansion, mais du fait que celle-ci s’accélère. Pour expliquer cette accélération, le concept d’énergie noire avait été imaginé. Mais celui-di contredit le principe cosmologique selon lequel il n’y a pas de place spéciale dans l’univers. Tout ce qui est bon pour la Terre l’est également pour tout l’espace. On dit que l’univers est à la fois isotrope et homogène aux grandes échelles. Si je regardes la distribution des galaxies à grande distance j’en vois le même nombre du nord au sud et de l’est à l’ouest rappelle Joshua Frieman, cosmologiste à l’Université de Chicago.

Cependant avec ce principe et la loi de la relativité générale il est impossible d’expliquer l’univers qui n’apparait isotrope et homogène qu’à des échelles de 400 millions d’années-lumière. En dessous selon les emplacements, l’on trouve des amas de galaxies et des espaces vides.

Vers la mi 2000, Wiltshire pris connaissance du travail de Thomas Buchert, alors en service au laboratoire des particules élémentaires du CERN, qui avait été frappé par ce manque d’homogénéité comportant des vides faisant 95% du volume de l’univers L’un et l’autre élaborèrent jusqu’en 2007 le modèle dit time escape.

Celui-ci repose sur un phénomène dit de la dilatation gravitationnelle du temps

(à suivre)

18/05/2025 Les prévisions sur l’avenir de l’univers remises en question

Les scientifiques travaillant sur le Dark Energy Spectroscopic Instrument (DESI, instrument spectroscopique pour l’énergie sombre) ont réalisé la plus grande carte en 3D de l’univers et en ont tiré une mesure aussi précise que possible de l’énergie sombre (dite aussi énergie noire), cause supposée de l’expansion, elle même supposée, de l’univers.

DESI est monté sur un télescope. Il mesure le redshift de la lumière émise par les galaxies éloignées . Le redshift ou expansion vers le rouge est un accroissement de la longueur d’onde de la lumière émise par ces galaxies. Il correspond à une diminution de la fréquence et de l’énergie de la lumière provenant de ces mêmes galaxies alors qu’elles se déplacent dans l’univers.

C’est ce qui est représenté par le concept de constante cosmologique. La constante cosmologique est un paramètre ajouté par Einstein en février 1917 à ses équations de la relativité générale, dans le but de rendre sa théorie compatible avec l’idée qu’il se faisait alors d’un Univers statique.

A partir de ces données, les scientifiques peuvent déterminer l’importance de l’expansion de l’univers. Or aujourd’hui l’étude de cette lumière semble montrer qu’elle ne correspond pas à ce qu’elle serait si l’univers était en expansion.

Mais si l’univers n’était pas en expansion, il serait stable ou en régression. Le concept de stabilité de l’univers correspond à une stabilité de la constante cosmologique, hypothèse qu’aucune observation ne permet de confirmer.

Par contre un univers en régression finirait par s’effondrer sur lui-même (big crunch). Que se passerait-il ensuite ? Aucun théoricien ne se risque aujourd’hui à imaginer une réponse à cette question.

17/05/2025 Des astéroides comme Bennu ont-ils transporté les éléments nécessaires à la vie à l’intérieur de la galaxie ?

OSIRIS-REx (acronyme de Origins-Spectral Interpretation-Resource Identification-Security-Regolith Explorer) est une mission de la NASA, qui a pour objectif d’étudier l’astéroïde Bénnu et de ramener un échantillon de son sol sur Terre. La sonde spatiale est lancée le 8septembre2016 par une fusée Atlas V 411. Bénou est un astéroïde de type Apollon, dont l’orbite croise celle de la Terre (astéroïde géocroiseur), sélectionné pour cette mission pour deux raisons : il a très peu évolué depuis la formation du système solaire et son orbite, proche de celle de la Terre, facilite son approche.

La sonde spatiale d’environ deux tonnes emporte plusieurs caméras, des spectromètres pour déterminer la composition de la surface et un altimètre destiné à dresser une carte topographique de l’astéroïde. Les données recueillies in situ doivent contribuer à améliorer nos connaissances sur le processus de formation et et d’évolution du Système solaire. Mais l’objectif principal de la mission est de ramener sur Terre un échantillon de sol de l’astéroïde qui permettra, grâce aux instruments disponibles dans les laboratoires terrestres, d’isoler éventuellement les composants primordiaux du Système solaire que l’astéroïde a théoriquement préservés.

La mission OSIRIS-REx, proposée par une équipe scientifique de l’université de l’Arizona, est sélectionnée en mai 2011. C’est la troisième sonde spatiale du programme New Frontiers de la NASA, qui regroupe des missions interplanétaires de classe moyenne, dont le coût hors lancement est plafonné à 800 millions de dollars américains. La sonde spatiale, après deux années de transit, s’est placée en orbite autour de l’astéroïde Bénou début décembre 2018. Après une phase de reconnaissance et d’étude, la sonde spatiale effectue le prélèvement des échantillons de sol de l’astéroïde (122 grammes) le 20 octobre 2020. Le retour sur Terre de la capsule contenant ces échantillons a eu lieu le 24 septembre 2023. La sonde spatiale doit alors débuter une nouvelle mission ayant pour objectif l’étude de l’astéroïdegéocroiseurApophis autour duquel elle se placera en orbite en 2029

L’étude de ces échantillons a fait apparaître des molécules qui, sur la Terre, sont nécessaires à la vie. Il ne s’agit pas de vie elle-même, mais d’éléments qui sont présents dans tout le système solaire et qui, en présence d’eau salée, peuvent interagir et se combiner pour donner naissance à la vie et lui servir ensuite de support.

Ceci suggère l’hypothèse que la vie soit apparue sur les autres planètes de la même façon qu’elle l’a fait sur la Terre et ce dès la formation du jeune système solaire

Dans un article de recherche récemment édité par Nature et Nature Astronomy, dont on trouvera ci-dessous les références et les abstracts, des scientifiques de la NASA et d’autres institutions présentent les analyses en profondeur des minéraux et molécules présents dans les échantillons de Bennu rapportés sur Terre en 2023 par la mission OSIRIS-REx.

On y trouve 14 des éléments constituant les acides aminée terrestres qui servent sur Terre à fabriquer les protéines des organismes vivants. On y trouve aussi cinq des nucléobases que la vie sur Terre utilise sur conserver et transmettre les molécules de l’ARN et de l’ADN multicellulaires.

Si tout le système solaire comporte les molécules nécessaires à la vie pourquoi n’y voyons nous pas de vie? Peut-être est ce parce que nous ne voulons pas la voir?

————————————————————–

Suite non traduite et non résumé,

Scientists also described exceptionally high abundances of ammonia in the Bennu samples. Ammonia is important to biology because it can react with formaldehyde, which also was detected in the samples, to form complex molecules, such as amino acids – given the right conditions. When amino acids link up into long chains, they make proteins, which go on to power nearly every biological function.

These building blocks for life detected in the Bennu samples have been found before in extraterrestrial rocks. However, identifying them in a pristine sample collected in space supports the idea that objects that formed far from the Sun could have been an important source of the raw precursor ingredients for life throughout the solar system.

“The clues we’re looking for are so minuscule and so easily destroyed or altered from exposure to Earth’s environment,” said Danny Glavin, a senior sample scientist at NASA’s Goddard Space Flight Center in Greenbelt, Maryland, and co-lead author of the Nature Astronomy paper. “That’s why some of these new discoveries would not be possible without a sample-return mission, meticulous contamination-control measures, and careful curation and storage of this precious material from Bennu.”

While Glavin’s team analyzed the Bennu samples for hints of life-related compounds, their colleagues, led by Tim McCoy, curator of meteorites at the Smithsonian’s National Museum of Natural History in Washington, and Sara Russell, cosmic mineralogist at the Natural History Museum in London, looked for clues to the environment these molecules would have formed. Reporting in the journal Nature, scientists further describe evidence of an ancient environment well-suited to kickstart the chemistry of life.

Ranging from calcite to halite and sylvite, scientists identified traces of 11 minerals in the Bennu sample that form as water containing dissolved salts evaporates over long periods of time, leaving behind the salts as solid crystals.

Similar brines have been detected or suggested across the solar system, including at the dwarf planet Ceres and Saturn’s moon Enceladus.

Although scientists have previously detected several evaporites in meteorites that fall to Earth’s surface, they have never seen a complete set that preserves an evaporation process that could have lasted thousands of years or more. Some minerals found in Bennu, such as trona, were discovered for the first time in extraterrestrial samples.

“These papers really go hand in hand in trying to explain how life’s ingredients actually came together to make what we see on this aqueously altered asteroid,” said McCoy.

For all the answers the Bennu sample has provided, several questions remain. Many amino acids can be created in two mirror-image versions, like a pair of left and right hands. Life on Earth almost exclusively produces the left-handed variety, but the Bennu samples contain an equal mixture of both. This means that on early Earth, amino acids may have started out in an equal mixture, as well. The reason life “turned left” instead of right remains a mystery.

“OSIRIS-REx has been a highly successful mission,” said Jason Dworkin, OSIRIS-REx project scientist at NASA Goddard and co-lead author on the Nature Astronomy paper. “Data from OSIRIS-REx adds major brushstrokes to a picture of a solar system teeming with the potential for life. Why we, so far, only see life on Earth and not elsewhere, that’s the truly tantalizing question

Référence

https://www.nature.com/articles/s41550-024-02472-9

https://www.asc-csa.gc.ca/fra/satellites/osiris-rex/

Abundant ammonia and nitrogen-rich soluble organic matter in samples from asteroid (101955) Bennu

Nature Astronomy volume 9, pages 199–210 (2025)

Abstract

Organic matter in meteorites reveals clues about early Solar System chemistry and the origin of molecules important to life, but terrestrial exposure complicates interpretation. Samples returned from the B-type asteroid Bennu by the Origins, Spectral Interpretation, Resource Identification, and Security–Regolith Explorer mission enabled us to study pristine carbonaceous astromaterial without uncontrolled exposure to Earth’s biosphere. Here we show that Bennu samples are volatile rich, with more carbon, nitrogen and ammonia than samples from asteroid Ryugu and most meteorites. Nitrogen-15 isotopic enrichments indicate that ammonia and other N-containing soluble molecules formed in a cold molecular cloud or the outer protoplanetary disk. We detected amino acids (including 14 of the 20 used in terrestrial biology), amines, formaldehyde, carboxylic acids, polycyclic aromatic hydrocarbons and N-heterocycles (including all five nucleobases found in DNA and RNA), along with ~10,000 N-bearing chemical species. All chiral non-protein amino acids were racemic or nearly so, implying that terrestrial life’s left-handed chirality may not be due to bias in prebiotic molecules delivered by impacts. The relative abundances of amino acids and other soluble organics suggest formation and alteration by low-temperature reactions, possibly in NH3-rich fluids. Bennu’s parent asteroid developed in or accreted ices from a reservoir in the outer Solar System where ammonia ice was stable.

16/05/2025 La mission Dragonfly de la Nasa rencontrera sur Titan des vents de 500 à 1200 Kms/heure en haute atmosphère

Cette mission prévoit de faire se poser une douzaine de fois sur Titan, un des satellites de Saturne, en 2034, un petit hélicoptère (rotorcraft) destiné à étudier son potentiel d’habitabilié. Mais il apparait que celui-ci se heurtera à des vents de surface capables de déplacer des rochers cylindriques de plus d’un demi-mètre de diamètre. Précédemment la sonde Huyghens, dans le cadre de la mission Cassini, avait atteint Titan en 2005, Elle y avait observé des champs de roches s’étendant à l’infini, ainsi que des blocs de glace balayés par un vent violent.

Pour mieux évaluer les enjeux de la mission Dragonfly, la Nasa a fait réaliser un document public dont on trouvera ci-dessous les principales dispositions.

Référence

Dragonfly (en français : « Libellule ») est une mission d’exploration du système solaire de l’agence spatiale américaine, la NASA, dont l’objectif est d’étudier Titan, le plus gros satellite naturel de Saturne. Les caractéristiques de cette lune — atmosphère épaisse, lacs de méthane et d’éthane liquides, substances organiques complexes, cryovolcanisme, pluie de méthane — en font un monde d’un très grand intérêt sur le plan scientifique.

La mission spatiale exploite la présence d’une atmosphère dense (1,5 fois celle de la Terre) et d’une gravité inférieure à celle de la Lune : elle met en œuvre un aérobot de type aérogire d’une masse de 875 kg, qui effectuera de multiples vols de courte durée pour étudier la basse atmosphère et la surface de Titan. Pour disposer de suffisamment d’énergie pour fonctionner et survivre dans une température moyenne de −180 °C, l’engin spatial dispose d’un générateur thermoélectrique à radioisotope.

Dragonfly est un des deux finalistes retenus en décembre 2017 pour la quatrième mission du programme New Frontiers, qui regroupe des sondes spatiales chargées d’explorer le système solaire avec un coût plafonné à un milliard de dollars. La NASA sélectionne cette mission en juin 2019. Celle-ci doit décoller en 2028 et se poser sur Titan en décembre 2034.

Contexte

La mission Cassini-Huygens, qui a étudié Titan entre 2004 et 2017, a révélé un monde d’un grand intérêt scientifique. Une chimie complexe et diversifiée reposant sur le carbone se déroule à la surface de cette lune de Saturne. On retrouve les mêmes processus que sur Terre mais le cycle du méthane remplace celui de l’eau. C’est un laboratoire naturel unique pour étudier la chimie prébiotique et pour rechercher des signatures de formes de vie basées sur les hydrocarbures.

Il se peut que les matières organiques interagissent avec de l’eau liquide à la surface ou non loin de la surface accroissent la possibilité de l’apparition d’une chimie prébiotique. Par ailleurs, des échanges pourraient avoir lieu avec un océan intérieur.

Les mesures effectuées par les instruments de la mission ont laissé beaucoup d’inconnues sur la composition des matériaux en surface. Par contre, les scientifiques ont la certitude que celle-ci est très variable selon les lieux. Il est donc essentiel de collecter des données sur différents sites pour déterminer dans quelle mesure la chimie prébiotique a pu progresser dans des environnements géologiques différents. Compte tenu de cet objectif, la mobilité d’un engin spatial est essentielle pour pouvoir effectuer les mesures sur les différents sites

Projets d’exploration précédents

Avant même l’arrivée de Cassini-Huygens dans le système saturnien, des groupes de travail préparant pour la NASA le plan décennal d’exploration du système solaire de 2003 avaient identifié à la fois l’importance scientifique de la chimie à l’œuvre à la surface de Titan et le potentiel d’une mission exploitant la mobilité d’un aéronef. Les premiers scénarios de mission reposant sur des engins plus lourds que l’air et sur des hélicoptères datent de cette époque.

Depuis la réception des premiers résultats fournis par Cassini-Huygens, plusieurs projets aux caractéristiques et aux coûts variables ont été proposés sans qu’aucun ne soit retenu :

  • Titan Prebiotic Explorer (TIPEX) est une étude interne du centre JPL de la NASA datant de 2006 comprenant un orbiteur et une montgolfière. Des échantillons de sol sont collectés à l’aide d’un dispositif de prélèvement largué puis ramené dans la gondole 
  • Titan Explorer est la première proposition répondant au cahier des charges définissant les attentes scientifiques de la NASA. Ce projet de 2007 très ambitieux, élaboré par le laboratoire Applied Physics Laboratory (constructeur de Dragonfly), comprend un orbiteur utilisant l’aérocapture, une montgolfière et un atterrisseur statique ;
  • l’Agence spatiale européenne, qui a développé l’atterrisseur Huygens propose à peu près à la même époque Titan and Enceladus Mission (TandEM) un projet combinant l’étude de Titan et d’Encelade, autre satellite de Saturne ;
  • Titan Saturn System Mission (TSSM) résulte de la fusion en 2009 des études menées jusque-là par la NASA et l’Agence spatiale européenne. La mission devait comprendre un orbiteur américain et deux engins développés par l’Europe : une montgolfière fournie par le CNES et un atterrisseur fonctionnant sur batterie et donc avec une durée de vie brève, qui devrait se poser sur l’une des mers de méthane de Titan ;
  • AVIATR est un projet d’aéronef alimenté en énergie par un générateur thermoélectrique à radioisotope et moteur Stirling (ASRG) développé en réponse à l’appel à propositions de 2010 du programme Discovery. Mais le projet s’est avéré incompatible avec les contraintes budgétaires de ce programme destiné aux missions à faible budget .
  • Titan Mare Explorer (TIME) est un des trois finalistes retenus en 2011 pour la sélection de la 12e mission du programme Discovery. Il s’agissait de faire atterrir sur un lac de méthane Ligeia Mare un engin alimenté en énergie par un ASRG. Le projet ne sera pas retenu dans la sélection finale en 2012.

Historique du projet

La réactivation du programme New Frontiers

Article détaillé : programme New Frontiers.

Après une pause d’un an imposée par des contraintes budgétaires, le programme New Frontiers de la NASA, qui rassemble des missions d’exploration du système solaire à coût intermédiaire, est réactivé début 2015. Un appel à propositions est lancé fin 2016. Il est prévu à l’époque qu’une présélection débouchant sur des études approfondies soit finalisée en novembre 2017 puis que la sélection finale soit effectuée en juillet 2019. Les propositions de mission doivent porter sur un des six thèmes énoncés dans le plan stratégique et le plan scientifique de la NASA de 2014:

  • mission de retour d’échantillons de la surface d’une comète ;
  • mission de retour d’échantillons du sol prélevés dans le Bassin Pôle Sud-Aitken près du pôle sud de la Lune ;
  • mondes océaniques ; Encelade et/ou Titan ;
  • sonde atmosphérique de Saturne ;
  • étude des astéroïdes troyens orbitant aux point de Lagrange L4 ou L5 de la planète Jupiter ;
  • étude de la composition et des caractéristiques de la surface de Vénus visant à répondre aux deux objectifs suivants : formation des planètes terrestres et modalités de l’évolution de Vénus depuis son origine sans doute similaire à celle de la Terre.

Sélection du projet Dragonfly (2017-2019)

Douze projets sont proposés. Dragonfly est le fruit des travaux d’une équipe du laboratoire Applied Physics Laboratory (APL) de l’Université Johns-Hopkins dans le Maryland dirigée par la planétologue Elizabeth Turtle.

Le laboratoire APL joue un rôle de pointe dans la réalisation des satellites scientifiques et des sondes spatiales d’exploration du système solaire lancées par la NASA avec des missions comme MESSENGER (2004), première sonde spatiale à s’être placée en orbite autour de la planète Mercure, New Horizons (2006) première sonde spatiale à avoir étudié in situ la planète naine Pluton, l’observatoire solaire Solar Probe Plus lancé en 2018, Europa Clipper (2023) (partenariat avec le Jet Propulsion Laboratory) chargée d’étudier la lune Europe de la planète géante Jupiter et DART (2020)

Dragonfly est avec CAESAR (Mission de retour d’échantillons de la comète 67P/Tchourioumov-Guérassimenko) une des deux missions retenues en décembre 2017 pour la sélection finale qui doit avoir lieu en 2019. La mission Dragonfly est finalement sélectionnée le 27 juin 2019 bien que Titan ne fasse pas partie des destinations retenues par le dernier rapport décennal sur les sciences planétaires sur lequel la NASA doit normalement baser son choix. En sélectionnant cette mission l’agence spatiale a voulu réagir rapidement aux dernières découvertes effectuées sur cette lune par la mission Cassini Huygens et le télescope Hubble sans attendre la prochaine actualisation de ce rapport.

Développement de la mission (2019-2028)

Le lancement de la mission est programmé initialement pour 2026 mais en septembre 2020 la date est repoussée en 2027 puis en 2028 pour prendre en compte des facteurs exogènes comme l’épidémie de COVID en cours.

Malgré ces reports l’arrivée à la surface de Titan reste programmée pour 2034 En novembre 2024, la NASA sélectionne le lanceur Falcon Heavy de la société SpaceX pour le lancement de sa sonde spatiale qui doit décoller depuis le complexe de lancement 39A du centre spatial Kennedy. La prestation est facturée un montant de 256,6 millions de dollars. La fenêtre de lancement s’ouvre le 5 juillet 2028 et se referme le 25 juillet.

En avril 2024 le cout du projet qui avait été estimé initialement à 2,2 atteint désormais 3,5 milliards de dollars (avril 2024) ce qui alimente les rumeurs d’annulation compte tenu des dépassements que connait à la même époque le projet Mars Sample Return. Mais la NASA confirme à cette date la poursuite des développements en annonçant par ailleurs que le projet a franchi avec succès la revue de conception critique (en anglais : Critical Design Review ou CDR) qui fige la conception du véhicule et confirme son coût de fabrication.

Le développement de l’aérobot qui doit pouvoir fonctionner dans une atmosphère très particulière à des températures extrêmement basses (−180 °C) fait face à de nombreuses difficultés. Pour vérifier le fonctionnement des composants dans cet environnement le laboratoire APL dans ses locaux met en service fin 2023 une chambre cubique de plus de 4 mètres de côté, réalisée en acier inoxydable, dans laquelle est reproduite la température et la pression que subira Dragonfly[12].

Le spectromètre de masse DraMS devait initialement analyser la composition des échantillons de sol prélevées mais également celle de l’atmosphère. Mais les ingénieurs ne parviennent pas à concevoir une ouverture du fuselage qui ne compromettrait pas la sécurité de l’engin (chute de la température interne) et ils doivent renoncer à cette fonctionnalité. La conception des lubrifiants qui subissent des températures anormalement basses constituent une autre difficulté.

Certaines caractéristiques de l’aérobot évoluent durant la phase de conception comme l’utilisation de rotors à trois pales (au lieu de deux) et la modification de l’emplacement de certains instruments[10].

Objectifs de la mission

Durant sa mission, Dragonfly doit collecter les données suivantes:

  • Prélever des échantillons des matériaux en surface et identifier à l’aide d’un spectromètre de masse ses éléments chimiques et les processus produisant des composants significatifs sur le plan biologique ;
  • Mesurer les éléments chimiques présents à la surface à l’aide d’un spectromètre à rayons gamma ;
  • Enregistrer à l’aide de capteurs météorologiques les conditions atmosphériques et de la surface en particulier les changements dus au lieu et au cycle diurne ;
  • Réaliser des photos permettant de caractériser les formations géologiques ;
  • Mesurer les mouvements sismiques pour déterminer la structure du sous-sol et son activité ;
  • En vol établir des profils atmosphériques ;
  • En vol réaliser des photos aériennes de la géologie de la surface ;
  • En vol fournir le contexte des mesures effectuées en surface et effectuer des reconnaissances des sites présentant un intérêt scientifique.

Site d’atterrissage

Le site d’atterrissage retenu est un champ de dunes situé près du cratère d’impact Selk (7° N, 199° O) de 90 kilomètres de diamètre. La région fait partie de l’immense champ de dunes de Shangri-La où s’était déjà posé l’atterrisseur européen Huygens. La sélection de ce site résulte d’un ensemble de contraintes:

  • Pour que Dragonfly se pose sans risquer de se renverser, le site retenu doit comporter un sol présentant une pente modérée (inférieure à 10-15 %) et dépourvu d’obstacles importants (diamètre des roches inférieur à un mètre). Les champs de dunes de Titan, bien qu’ils n’aient été cartographiés par la sonde spatiale Cassini entre 2004 et 2017 qu’avec une résolution spatiale très grossière (de l’ordre du kilomètre), présentent généralement ces caractéristiques.
  • La sonde spatiale va subir une forte décélération durant sa rentrée dans l’atmosphère de Titan et son bouclier thermique doit résister à des températures d’autant plus fortes que sa vitesse d’arrivée est élevée. Les ingénieurs ont choisi d’effectuer une rentrée directe (sans insertion en orbite) sous un angle de 65° (identique à celui d’Huygens) ce qui limite les zones d’atterrissage. Par ailleurs la rentrée se fera dans l’hémisphère délimitée par les longitudes 180 et 360 Ouest pour soustraire la vitesse de rotation de la lune à la vitesse d’arrivée de la sonde spatiale et de ce fait limiter l’épaisseur du bouclier thermique.
  • Lorsque la sonde spatiale arrivera sur Titan, ce sera l’hiver dans l’hémisphère nord/ Les latitudes élevées où se situent les lacs d’hydrocarbures ne seront pas éclairées et sont donc exclues des sites d’atterrissage potentiels.
  • La rentrée dans l’atmosphère, la descente vers le sol, l’atterrissage ainsi que les deux à trois premiers jours (jour terrestre) de la mission consacrés aux vérifications des systèmes doivent pouvoir être suivis en temps réel par les équipes au sol. Pour y parvenir la Terre doit être visible depuis cette région durant tout ce laps de temps. Compte tenu de la vitesse de rotation de la lune, le terminater se déplace de 22,5° par jour terrestre. Cette contrainte impose donc que le site d’atterrissage se situe à plus de 70° à l’ouest du terminateur.
  • Dans la zone de forme toroïdale satisfaisant ces différentes contraintes, le cratère d’impact Selk constitue l’objectif scientifique le plus évident. Le spectromètre imageur VIMS de la sonde spatiale Cassini y a détecté la présence de matériaux riches en eau qui ont permis des interactions avec les matériaux organiques.

Caractéristiques techniques de rentrée

Comme toutes les sondes spatiales de la NASA destinées à se poser sur un corps planétaire doté d’une atmosphère, Dragonfly est composé d’un étage de croisière qui prend en charge le transit de la Terre jusqu’au voisinage de Titan ..L’ aérobot est encapsulé dans un véhicule de rentrée qui doit le protéger de l’échauffement thermique subie par la sonde spatiale durant sa rentrée atmosphérique à grande vitesse. Une fois que la vitesse a suffisamment décrue, les deux moitiés du bouclier thermique sont éjectés et des parachutes sont déployés pour réduire la vitesse jusqu’à l’arrivée au sol.e de rentrée

Le véhicule de rentrée comprend un bouclier thermique de 4,5 mètres de diamètre qui reprend les technologies mises en œuvre par les astromobiles martiens Curiosity et Perseverance. Le bouclier comprend un ensemble de capteurs DrEAM (en anglais : Dragonfly Entry Aerosciences Measurements), développés conjointement par le centre de recherche Ames de la NASA et l’Agence spatiale allemande, qui doivent collecter des données sur les conditions rencontrées (pression, température), sur les caractéristiques de la haute atmosphère (abondance du méthane, etc.) et sur les performances du bouclier thermique.

Architecture de l’aérobot

Dragonfly est comme ce drone, un octorotor utilisant des paires de rotor. Cette formule mécaniquement simple et disposant d’une redondance satisfaisante permet d’obtenir un aéronef très manœuvrant.

Pour pouvoir explorer plusieurs sites à la surface de Titan distants de 10 à 100 km entre eux, différents scénarios ont été étudiés. Le recours à plusieurs atterrisseurs nécessite de développer plusieurs copies des instruments scientifiques et du système d’acquisition avec un impact fort en termes de masse et donc de coût. L’approche la plus favorable consiste à utiliser un seul ensemble instrumental et à le déplacer d’un site à un autre.

Plusieurs architectures d’aéronef ont été étudiées : hélicoptère, ballon gonflé à l’hélium ou à l’hydrogène, montgolfière (ballon à air chaud) et avion. La solution retenue exploite le fait que Titan a une gravité sept fois plus réduite que celle de la Terre et dispose d’une atmosphère 1,45 fois plus épaisse. Ces deux caractéristiques sont favorables à la mise en œuvre d’un engin volant plus lourd que l’air, puisque les deux combinés font qu’il est presque 11 fois moins énergivore de faire voler un drone sur Titan que sur la Terre..

Les ingénieurs ont choisi la formule de l’octorotor, aéronef équipé de huit rotors à trois pales de 1,85 mètres de diamètre (deux à chaque coin de sa structure). C’est l’équivalent d’un quadrirotor mais la présence de paires de rotors fournit une redondance essentielle dans un contexte où aucune réparation ne peut être envisagée. Les déplacements de l’aéronef sont obtenus uniquement en faisant varier la vitesse de rotation d’un ou plusieurs rotors. Cette architecture, rendue possible par les progrès de l’électronique chargée du pilotage de la vitesse des rotors, permet d’obtenir un ensemble mécanique plus simple que celle d’un hélicoptère. La facilité de sa mise en œuvre est illustrée par la multiplication récente des drones de ce type.

Cette formule permet de mieux contrôler les phases de vol et d’atterrissage. Par ailleurs un engin de ce type peut être facilement testé sur Terre. Son encombrement est compatible avec le volume disponible dans le module de descente chargé de le protéger durant la rentrée atmosphérique dans l’atmosphère de Titan

Structure

Dragonfly est un engin de 875 kg long de 3,85 mètres pour une largeur de 3,85 mètres et une hauteur de 1,75 mètres. Il avait été envisagé initialement de munir Dragonfly d’un système de flottaison pour que l’aérobot puisse se poser sur les lacs de méthane de Titan. Mais cette option a été abandonnée au profit d’un système d’atterrissage constitué par deux patins ne permettant de se poser que sur le sol ferme.

La forme et la taille de l’aéronef ont dû prendre en compte le volume disponible dans le module de descente chargé de protéger l’engin durant la rentrée atmosphérique sur Titan. En position de stockage dans le module de descente, les patins sont repliés. Le corps de l’aéronef est de forme rectangulaire avec le MMRTG (système de production d’énergie) fixé à l’arrière en position inclinée dans une configuration analogue à celle du MMRTG du rover Curiosity.

Une antenne parabolique grand gain, utilisée pour les communications avec la Terre, est fixée sur la partie supérieure de l’aérobot. Lorsqu’elle n’est pas utilisée, elle est repliée. Deux systèmes de prélèvement d’échantillons du sol de Titan (un par patin), de conception très simple, permettent d’alimenter le spectromètre de masse. Il s’agit d’une foreuse disposant d’un actuateur avec un seul degré de liberté.

La densité de l’atmosphère de Titan permet de convoyer pneumatiquement l’échantillon de sol prélevé, quelle que soit sa nature, par un système d’aspiration jusqu’à l’instrument effectuant son analyse.

Capacités

Dragonfly peut effectuer des vols de quelques heures en pilotage automatique en utilisant une batterie électrique comme source d’énergie. Celle-ci, d’une capacité de 135 Ah, est rechargée au sol à l’aide d’un générateur thermoélectrique à radioisotope embarqué. Durant la phase de vol, le drone analyse la composition de l’atmosphère et établit le profil vertical de celle-ci.

Lorsqu’il est au sol, il étudie la composition des matériaux organiques et des glaces de la surface en utilisant un spectromètre de masse et un spectromètre gamma à neutrons actifs. Le drone dispose également d’instruments pour étudier la météorologie et effectuer des études sismiques

Énergie

Un MMRTG similaire à celui situé à l’arrière du rover Curiosity sur Mars pourrait être utilisé pour fournir l’énergie de l’aérobot Dragonfly.

L’énergie constitue la principale contrainte à laquelle doit faire face un aérobot sur Titan. L’énergie solaire disponible au niveau de l’orbite de cette lune est 100 fois moins importante que sur Terre. Par ailleurs, l’atmosphère épaisse et brumeuse de Titan filtre le rayonnement du Soleil divisant encore par 10 cette faible quantité d’énergie solaire. Les besoins en énergie sont accrus par la température particulièrement basse qui nécessite de produire de la chaleur pour maintenir en fonctionnement de nombreux composants de l’aérobot.

Dans ces conditions le recours à un générateur thermoélectrique à radioisotope (MMRTG), produisant de l’énergie électrique par conversion de l’énergie thermique résultant de la désintégration radioactive de plutonium 238 constitue la seule option disponible.

Le programme New Frontiers met à disposition de la mission qui sera retenue trois MMRTG analogues à celui utilisé par le rover Curiosity sur Mars. Chaque MMRTG fournit en début de vie 2 000 watts thermiques convertis en 120 watts électriques. Compte tenu de leur masse unitaire, il ne peut pas être envisagé d’utiliser plus d’un MMRTG sur Dragonfly. La durée du transit entre la Terre et Titan (environ 9 ans) qui entraînera une diminution sensible de l’énergie produite et le retour d’expérience pour l’instant limité à 5 ans sur Curiosity, ont incité les concepteurs de Dragonfly à tabler sur la production de 70 watts électriques.

L’énergie thermique non convertie en électricité sera utilisée pour maintenir l’intérieur de l’aéronef et en particulier les batteries à des températures suffisamment élevées. D’épaisses couches d’isolant thermique envelopperont le corps de l’aéronef. Seul le capteur de l’instrument DraGNS qui, dans des conditions normales nécessite un cryoréfrigérateur, sera exposé sans aucune protection thermique.

La consommation électrique générée par la collecte et l’analyse chimique des échantillons du sol est importante mais porte sur des durées relativement brèves. Ce sont les activités de collecte continue de données (données météorologiques et sismiques) qui, bien que nécessitant une puissance électrique faible, demandent le plus d’énergie en ce qui concerne la charge utile.

Pour les télécommunications réalisées par l’intermédiaire d’une antenne parabolique à grand gain, 5 millijoules d’énergie sont nécessaires pour transmettre 1 bit d’information à la Terre. La transmission de 10 gigabits de données[Note 7] nécessite donc 140 kWh soit environ 80 jours de production du MMRTG.

Le jour sur Titan dure 384 heures (16 jours terrestres). Au niveau de Titan, la Terre se trouve pratiquement dans la même direction que le Soleil. Les communications avec la Terre se font donc uniquement de jour et la nuit est donc consacrée à la recharge des batteries. Malheureusement, du fait de sa durée (192 heures), il faudrait disposer d’une batterie de 140 kg pour stocker toute l’énergie produite ce qui dépasse largement les contraintes de masse de la mission. Les concepteurs de la mission ont donc accepté qu’une partie de l’énergie produite durant la nuit ne soit pas stockée pour son utilisation dans la journée.

Les communications avec la Terre se font via une antenne parabolique grand gain et une antenne moyen gain utilisant un Tube à ondes progressives de 100 watts en bande X[21],[18].

Performances en vol et aérodynamisme

L’atmosphère de Titan est beaucoup plus dense (4,4 fois) et plus froide que celle de la Terre. Elle est composée à 95 % d’azote ce qui abaisse sa viscosité. En conséquence, le nombre de Reynolds de Dragonfly sur Titan est plusieurs fois plus élevé que s’il volait sur Terre.

Le profil des pales des rotors est adapté pour optimiser son efficacité et il est proche de celui adopté par les pales des éoliennes terrestres ce qui présente l’avantage d’accroitre sa robustesse. Dans l’atmosphère de Titan, la vitesse du son est de 194 m/s, contre 340 m/s sur Terre, ce qui limite à la fois la vitesse de rotation des rotors et la longueur des pales. En pratique, cette contrainte a un impact réduit sur les performances de l’aéronef.

Compte tenu de ces caractéristiques, Dragonfly (masse environ 875 kg) pourra atteindre une vitesse maximale en vol de 10 m/s (36 km/h). Pour un vol sur une distance d’environ 40 km, la consommation électrique serait d’environ 2 kWh. Une batterie d’environ 30 kg, avec une densité énergétique de 100 Wh/kg, permettrait donc de franchir 60 km.

L’énergie nécessaire pour un vol ne croît pas de manière linéaire par rapport à la masse de l’aéronef mais en portant cette valeur à la puissance 1,5 ce qui constitue une des caractéristiques limitant la masse de Dragonfly. Malgré la vitesse maximale modeste envisagée, les concepteurs de l’aéronef ont soigné son aérodynamisme qui constitue un facteur de consommation électrique significatif dans l’atmosphère épaisse de Titan. Pour limiter les forces de trainée, la face avant de l’aéronef présente une forme aérodynamique, un carénage enveloppe les foreuses fixées sur les patins et l’antenne parabolique est repliée à plat pont en vol.

L’aéronef pourra être utilisé pour réaliser des sondages verticaux de la basse atmosphère jusqu’à une altitude d’environ 4 km. Le mode de propulsion permet une ascension verticale mais interdit une descente verticale. Le modèle de circulation atmosphérique de Titan établi à l’aide des données recueillies par la sonde spatiale Cassini prédit des vents dont la vitesse atteint au maximum de 1 à 2 m/s. Ceux-ci ne devraient donc avoir qu’un impact mineur sur la distance franchissable par Dragonfly[