30/06/2025 Les calculateurs quantiques au cœur de la physique fondamentale




Les calclateurs quantiques nous aideront à mieuxc comprendre ce qui se passe au cœur du LHC du CERN (Grand Accélérateur-Collisionneur de particules). Ils devraient faire bien mieux, en nous introduisant progressivement au coeur de la physique fondamentale, physique nucléaire et physique des particules.

Deux groupes de chercheurs, dans deux expériences différentes, dont on trouvera ci-dessous les références et les résumés, en ont apporté la preuve. Il s’agissait de montrer comment des particules chargées donc très énergétiques, se comportaient dans des champs quantiques analogues à ceux que l’on rencontre dans la théorie quantique des champs

https://fr.wikipedia.org/wiki/Th%C3%A9orie_quantique_des_champs

Ceux-ci s’étendent à travers l’espace et exercent des forces sur les particules comme sur les astres. L’on commence seulement à découvrir leurs analogues, à une toute autre échelle, dans les accélérateurs.

Les chercheurs utilisèrent des calculateurs quantiques extrêmement refroidis et commandés par des lasers. Nous n’insisterons pas ici sur ces expériences qui sortent du cadre de cet article. Leurs auteurs estiment que des calculateurs quantiques de plus grande taille pourraient aborder des questions aujourd’hui sans réponses, tant en physique des particules qu’en cosmologie.

Sources

Published: 04 June 2025

Observation of string breaking on a (2 + 1)D Rydberg quantum simulator

Nature volume 642, pages 321–326 (2025

Abstract

Lattice gauge theories (LGTs) describe a broad range of phenomena in condensed matter and particle physics. A prominent example is confinement, responsible for bounding quarks inside hadrons such as protons or neutrons1. When quark–antiquark pairs are separated, the energy stored in the string of gluon fields connecting them grows linearly with their distance, until there is enough energy to create new pairs from the vacuum and break the string. Although these phenomena are ubiquitous in LGTs, simulating the resulting dynamics is a challenging task2. Here we report the observation of string breaking in synthetic quantum matter using a programmable quantum simulator based on neutral atom arrays3,4,5. We show that a (2 + 1)-dimensional LGT with dynamical matter can be efficiently implemented when the atoms are placed on a Kagome geometry6, with a local U(1) symmetry emerging from the Rydberg blockade7. Long-range Rydberg interactions naturally give rise to a linear confining potential for a pair of charges, allowing us to tune both their masses and the string tension. We experimentally probe string breaking in equilibrium by adiabatically preparing the ground state of the atom array in the presence of defects, distinguishing regions within the confined phase dominated by fluctuating strings or by broken string configurations. Finally, by harnessing local control over the atomic detuning, we quench string states and observe string-breaking dynamics exhibiting a many-body resonance phenomenon. Our work provides opportunities for exploring phenomena in high-energy physics using programmable quantum simulators

Visualizing dynamics of charges and strings in (2 + 1)D lattice gauge theories

Nature volume 642, pages 315–320 (2025)

Abstract

Lattice gauge theories (LGTs)1,2,3,4 can be used to understand a wide range of phenomena, from elementary particle scattering in high-energy physics to effective descriptions of many-body interactions in materials5,6,7. Studying dynamical properties of emergent phases can be challenging, as it requires solving many-body problems that are generally beyond perturbative limits8,9,10. Here we investigate the dynamics of local excitations in a Lattice gauge theories (LGTs)1,2,3,4 can be used to understand a wide range of phenomena, from elementary particle scattering in high-energy physics to effective descriptions of many-body interactions in materials5,6,7. Studying dynamical properties of emergent phases can be challenging, as it requires solving many-body problems that are generally beyond perturbative limits8,9,10. Here we investigate the dynamics of local excitations in a GT using a two-dimensional lattice of superconducting qubits. We first construct a simple variational circuit that prepares low-energy states that have a large overlap with the ground state; then we create charge excitations with local gates and simulate their quantum dynamics by means of a discretized time evolution. As the electric field coupling constant is increased, our measurements show signatures of transitioning from deconfined to confined dynamics. For confined excitations, the electric field induces a tension in the string connecting them. Our method allows us to experimentally image string dynamics in a (2+1)D LGT, from which we uncover two distinct regimes inside the confining phase: for weak confinement, the string fluctuates strongly in the transverse direction, whereas for strong confinement, transverse fluctuations are effectively frozen11,12. We also demonstrate a resonance condition at which dynamical string breaking is facilitated. Our LGT implementation on a quantum processor presents a new set of techniques for investigating emergent excitations and string dynamics.



30/06/2025 (2) L’informatique Quantique. Tout comprendre en quelques minutes.

Nour republions ici, en la remerciant, un article de Isabelle Dunné
L’ordinateur quantique : tout comprendre en 15 minutes

  • Les qubits peuvent représenter à la fois 0 et 1, contrairement aux ordinateurs classiques. Ils effectuent plusieurs calculs en même temps grâce à leur état superposé, accélérant la résolution de problèmes complexes.
  • À l’heure actuelle, un processeur quantique est encore au stade exploratoire : il prend beaucoup de place et l’optique sophistiquée nécessaire pour contrôler les qubits se compose de lasers, de lentilles et de miroirs.
  • Pour qu’un ordinateur quantique fonctionne, il doit être capable de corriger les erreurs dues à la nature imparfaite du matériel actuel et qui empêchent d’arriver au résultat final du calcul.
  • L’ordinateur quantique ne remplacera pas l’ordinateur personnel ou le smartphone, les premiers clients seront certainement les gouvernements et les grandes entreprises plutôt que le grand public.

Les ordinateurs quantiques fonctionnent avec des bits quantiques, ou qubits, qui, contrairement aux bits informatiques standard ayant une valeur de soit 0 soit 1, peuvent être à la fois 0 et 1. Cette caractéristique signifie que les ordinateurs quantiques pourraient être beaucoup plus rapides que les ordinateurs classiques pour de nombreuses tâches. Ils pourraient également être utilisés pour résoudre certains problèmes qu’un ordinateur classique ne peut pas résoudre. 

« Un ordinateur quantique manipulera de nombreux qubits dans un état massivement superposé : 0000 plus 1111, par exemple, explique Landry Bretheau. Dans cet état “intriqué”, plusieurs calculs peuvent être effectués en parallèle. Un exemple concret : imaginez que le calcul, le problème, soit de sortir d’un labyrinthe. Comment s’y prendre ? Un être humain ou un programme informatique va tester différents chemins. À chaque fois, il arrivera à une impasse, puis revendra sur ses pas. Il testera ainsi tous les chemins jusqu’à ce qu’il sorte du labyrinthe. Mais un système quantique peut être dans une superposition d’états, c’est-à-dire qu’il peut se trouver à plusieurs endroits en même temps. Il peut donc essayer d’explorer les différents chemins en parallèle et sortir du labyrinthe plus rapidement. »

Les qubits peuvent être fabriqués à partir de différentes plateformes ou briques de base matérielles, telles que les qubits supraconducteurs, les particules élémentaires ou les ions piégés. D’autres méthodes en devenir sont les processeurs quantiques photoniques qui utilisent la lumière. « Nous utilisons le terme d’ordinateur quantique, mais il serait préférable de parler de processeur quantique, car l’intégralité d’un calcul ne peut pas être implémentée sur un ordinateur quantique, seulement une petite partie, explique Loïc Henriet. Nous aurons toujours besoin d’un processeur classique pour orchestrer l’ensemble des taches de calcul. »

À l’heure actuelle, un processeur quantique est encore au stade exploratoire : il prend beaucoup de place — par exemple, celui sur lequel travaille l’équipe de Loïc Henriet occupe une grosse boîte de 3 mètres sur 2 mètres sur 2 mètres. Un vide très poussé, de 10-11 mbar, est également nécessaire pour placer les qubits dans des positions bien définies dans l’espace. Cela correspond à peu près à la pression à la surface de la lune.

L’optique sophistiquée nécessaire pour contrôler les qubits se compose de lasers, de lentilles et de miroirs. Pour coordonner le fonctionnement de chacun de ces différents équipements (qui constituent le matériel ou hardware) et de les synchroniser, un logiciel embarqué est nécessaire. Ce logiciel correspond au système d’exploitation du processeur quantique.

Applications potentielles

Il existe de nombreux domaines dans lesquels un ordinateur quantique pourrait s’avérer plus utile qu’un ordinateur conventionnel, que ce soit en termes de temps de calcul ou de qualité des résultats obtenus. L’exemple le plus connu est l’algorithme de Shor, qui permet de factoriser efficacement un grand nombre en facteurs premiers, pour des applications en cryptographie et en sécurité informatique, par exemple. Les ordinateurs quantiques seront également très performants dans l’utilisation d’algorithmes spéciaux pour résoudre des problèmes d’optimisation complexes, tels que ceux liés à l’ordonnancement, au routage et à la logistique. Ces problèmes consistent à trouver la solution optimale parmi un grand nombre de possibilités — le plus célèbre étant le problème du « voyageur de commerce », qui doit trouver l’itinéraire le plus court possible entre plusieurs villes. Les entreprises de livraison et de logistique voudront certainement de ce fait adopter la technologie quantique.

Les problèmes liés à la réactivité des molécules en bénéficieront également. « Il y a beaucoup de recherches dans ce domaine, explique Loïc Henriet. Avec un processeur quantique, nous pourrons effectuer des calculs beaucoup plus efficaces pour déterminer la réactivité de certaines protéines, par exemple, ce qui aura d’énormes applications pour l’industrie pharmaceutique et la synthèse de nouveaux médicaments. Nous pourrons également calculer les propriétés de nouveaux matériaux qui présentent un intérêt dans de nombreux domaines technologiques. »

L’apprentissage automatique et l’intelligence artificielle sont également des domaines d’application importants, car les ordinateurs quantiques devraient être en mesure d’améliorer les algorithmes d’apprentissage automatique — potentiellement de manière spectaculaire — en fournissant des routines d’optimisation plus rapides et plus efficaces ou en explorant de nouveaux modèles et de nouvelles architectures. Il pourrait s’agir d’un nouveau marché massif, mais il dépendra de la construction d’ordinateurs quantiques pratiques à grande échelle et du développement d’algorithmes et d’applications capables de tirer parti de leurs capacités uniques.

Vers l’universalité

Pour qu’un ordinateur quantique fonctionne, il doit être « universel », c’est-à-dire qu’il doit être capable de corriger les erreurs dues à la nature imparfaite du matériel actuel et qui empêchent d’arriver au résultat final du calcul. La cause principale de ces erreurs est la décohérence des qubits eux-mêmes, qui détruit le caractère quantique des qubits et les ramène à l’état de bits classiques. La décohérence est provoquée par l’interaction des qubits avec leur environnement. 

La véritable difficulté consiste donc à isoler efficacement le système. Pour ce faire, les qubits doivent généralement fonctionner à une température proche de 0 K, tout en étant protégés les uns des autres et de l’environnement. En plus de cela, des techniques de correction d’erreurs quantiques (QEC) peuvent être utilisées dans le but d’atteindre une « informatique quantique tolérante aux pannes ». Ces techniques consistent à utiliser un grand nombre de qubits pour créer un « qubit logique » beaucoup moins sujet aux erreurs. Selon les experts, un véritable « avantage », ou « suprématie » quantique ne pourra être atteint que lorsque les ordinateurs quantiques fonctionneront avec un million de qubits. Et comme le record actuel est encore inférieur à 100 qubits, il reste encore beaucoup de chemin à parcourir.

Les défis importants

Si, en théorie, rien n’empêche la création d’ordinateurs quantiques à grande échelle, il faut d’abord résoudre certains problèmes d’ingénierie d’envergure. « Les entreprises considèrent l’informatique quantique comme un investissement stratégique et ne veulent pas rater le virage, explique Loïc Henriet. Ce n’est plus maintenant une question de si, mais plutôt une question de quand le processeur quantique fera partie intégrante des solutions informatiques. »

Nous sommes actuellement à l’aube d’une transformation technologique et, en France, nous avons les moyens d’être au cœur de cette révolution, tant au niveau académique qu’au niveau des entreprises et des start-ups. Bien sûr, les clients en bout de chemin et les entreprises doivent aussi être de la partie.

Depuis environ cinq ans, nous assistons à une véritable montée en puissance 

« Cela dit, un ordinateur quantique, universel ou non, ne remplacera pas votre ordinateur personnel ou votre smartphone de sitôt et les premiers clients seront certainement les gouvernements et les grandes entreprises plutôt que le grand public, ajoute Landry Bretheau. Les scientifiques eux-mêmes seront également les premiers utilisateurs et c’est pourquoi le monde de l’informatique quantique intéresse autant de disciplines : la chimie, la science des matériaux, la biologie et la physique. Chacune de ces disciplines va proposer un algorithme qui permettrait de résoudre une question bien précise. »

« Depuis environ cinq ans, nous assistons à une véritable montée en puissance », explique-t-il. Certains parlent de « boum quantique » avec la création de nombreuses start-ups et des levées de fonds importantes.

PsiQuantum et IonQ, qui ont levé respectivement 600 et 400 millions d’euros, en sont deux exemples marquants. « En France, nous avons le Plan Quantum, annoncé par le président Macron début 2021, et la start-up qui a le plus de vent en poupe d’un point de vue financier en France à l’heure actuelle est Pasqal, qui vient de lever 100 millions d’euros. »

Bien que nous ne parviendrons probablement pas à fabriquer un ordinateur entièrement opérationnel et tolérant aux pannes dans les dix prochaines années, nous pouvons être sûrs que nous ferons en cours de route des découvertes insoupçonnées qui seront potentiellement utiles et changeront peut-être même le visage de la société, tout comme l’informatique classique l’a fait au cours des 50 dernières années et, plus récemment, l’Internet.

« C’est une très belle période pour travailler dans ce domaine, déclare Landry Bretheau. Il y a beaucoup d’excitation et le secteur évolue très vite. »

Isabelle Dumé

30/06/2025 De nouveaux processeurs quantiques chez IBM

Il avait été dit lors de la décennie précédente que celui qui dominera l’informatique quantique dominera le mone . Est-ce l’espoir d’IBM qui vient d’annoncer deux nouvaux processurs quantiques. En décembre 2023

, lors de l’IBM Quantum Summit annuel à New York, IBM a présenté l’« IBM Quantum Heron », le premier d’une nouvelle série de processeurs permettant un calcul quantique utile, dont l’architecture a été conçue au cours des quatre dernières années afin d’ offrir les indicateurs de performance les plus élevés et les taux d’erreur les plus bas de tous les processeurs IBM Quantum à ce jour.

IBM a également dévoilé l’IBM Quantum System Two, le premier ordinateur quantique modulaire de la compagnie et la pierre angulaire de l’architecture du superordinateur quantique d’IBM. Le premier IBM Quantum System Two, situé à Yorktown Heights, New York, a commencé à fonctionner avec trois processeurs IBM Heron et l’électronique de commande associée.

Ce socle essentiel étant désormais en place, ainsi que d’autres percées dans le domaine du matériel, de la théorie et des logiciels quantiques, la compagnie étend sa feuille de route de développement IBM Quantum, avec de nouveaux objectifs visant à faire progresser de manière significative la qualité des opérations des portes quantiques. Cela devrait augmenter la taille des circuits quantiques pouvant être exécutés et contribuer à réaliser le plein potentiel de l’informatique quantique à grande échelle.

« Nous sommes résolument entrés dans l’ère où les ordinateurs quantiques sont utilisés comme outil pour explorer les nouvelles frontières de la science », a déclaré Dario Gil, IBM SVP and Director of Research. « En continuant à faire progresser la manière dont les systèmes quantiques peuvent évoluer et apporter de la valeur grâce à des architectures modulaires, nous augmenterons encore la qualité d’une pile de technologies quantiques utiles – et la mettrons entre les mains de nos utilisateurs et partenaires qui repousseront les limites de problèmes plus complexes. »

Comme l’a démontré IBM au début de l’année sur un processeur « IBM Quantum Eagle » de 127 qubits, les systèmes IBM Quantum peuvent désormais servir d’outil scientifique pour explorer des classes de problèmes utiles en chimie, en physique et en matériaux au-delà de la simulation classique brute de la mécanique quantique.

Depuis cette démonstration, d’éminents chercheurs, scientifiques et ingénieurs d’organisations telles que le laboratoire national Argonne du ministère américain de l’énergie, l’université de Tokyo, l’université de Washington, l’université de Cologne, l’Université de Harvard, Qedma, Algorithmiq, l’Université de Berkeley, Q-CTRL, la Fondation Ikerbasque, le centre international de physique de Donostia et l’université du Pays basque, ainsi qu’IBM, ont multiplié les démonstrations de calcul quantique de taille utile, afin de confirmer sa valeur dans l’exploration de territoires informatiques inexplorés.

Il s’agit notamment d’expériences déjà réalisées sur le nouveau processeur Quantum Heron de 133 qubits, qu’IBM met aujourd’hui à la disposition des utilisateurs via le Cloud. Le processeur IBM Heron est le premier de la nouvelle classe de processeurs performants d’IBM dont les taux d’erreur ont été considérablement améliorés, offrant une amélioration cinq fois supérieure par rapport aux précédents records établis par le processeur IBM Eagle. D’autres processeurs IBM Heron rejoindront la flotte de systèmes utiles, leader du secteur, d’IBM au cours de l’année prochaine.

L’IBM Quantum System Two constitue le socle de l’architecture du système informatique quantique de nouvelle génération d’IBM. Il combine une infrastructure cryogénique évolutive et des serveurs d’exécution classiques avec une électronique modulaire de contrôle des qubits. Le nouveau système est un élément constitutif de la vision d’IBM d’un superordinateur quantique. Cette architecture combine la communication et le calcul quantiques, assistés par des ressources de calcul classiques, et s’appuie sur une couche middleware pour intégrer de manière appropriée les flux de travail quantiques et classiques.

Dans le cadre de la nouvelle feuille de route de développement IBM Quantum sur dix ans, IBM prévoit que ce système hébergera également les futures générations de processeurs quantiques d’IBM. Toujours dans le cadre de cette feuille de route, ces futurs processeurs sont destinés à améliorer progressivement la qualité des opérations qu’ils peuvent exécuter afin d’étendre de manière significative la complexité et la taille des applications qu’ils sont capables de gérer.

Aujourd’hui, IBM détaille également les plans d’une nouvelle génération de sa pile logicielle, au sein de laquelle Qiskit 1.0 sera un point pivot défini par la stabilité et la vitesse. En outre, dans le but de démocratiser le développement dans le domaine de l’informatique quantique, IBM annonce Qiskit Patterns.

Qiskit Patterns servira de mécanisme pour permettre aux développeurs quantiques de créer plus facilement du code. Il est basé sur une collection d’outils permettant de cartographier de façon simple des problèmes classiques, de les optimiser en circuits quantiques à l’aide de Qiskit, d’exécuter ces circuits à l’aide de Qiskit Runtime, puis de post-traiter les résultats. Avec Qiskit Patterns, combiné à Quantum Serverless, les utilisateurs pourront concevoir, déployer et exécuter des flux de travail intégrant l’informatique classique et quantique dans différents environnements, tels que des scénarios Cloud ou sur site. Tous ces outils fourniront des éléments de base permettant aux utilisateurs de concevoir et d’exécuter plus facilement des algorithmes quantiques.

De plus, IBM est pionnier dans l’utilisation de l’IA générative pour la programmation de code quantique par le biais de watsonx, la plateforme d’IA d’entreprise d’IBM. IBM intégrera l’IA générative disponible via watsonx pour aider à automatiser le développement du code quantique pour Qiskit. Cet objectif sera atteint grâce à l’ajustement du modèle IBM Granite.

« L’IA générative et l’informatique quantique atteignent toutes deux un point d’inflexion, ce qui nous donne l’occasion d’utiliser le cadre du modèle de fondation de confiance de watsonx pour simplifier la façon dont les algorithmes quantiques peuvent être construits pour l’exploration utile », a déclaré Jay Gambetta, Vice President and IBM Fellow chez IBM. « Il s’agit d’une étape importante vers l’élargissement de l’accès à l’informatique quantique et sa mise à la disposition des utilisateurs en tant qu’instrument d’exploration scientifique. »

Grâce au matériel avancé de la flotte mondiale d’IBM, qui compte des systèmes de plus de 100 qubits, ainsi qu’au logiciel facile à utiliser qu’IBM lance dans Qiskit, les utilisateurs et les spécialistes en science informatique peuvent désormais obtenir des résultats de plus en plus fiables à partir des systèmes quantiques lorsqu’ils transposent des problèmes de plus en plus vastes et complexes sur des circuits quantiques.

https://fr.newsroohttps://fr.newsroom.ibm.com/IBM-presente-un-processeur-quantique-de-nouvelle-generation-ainsi-que-lIBM-Quantum-System-Two-et-etend-sa-feuille-de-route-pour-faire-progresser-lere-dun-calcul-quantique-utiletps://fr.newsroom.ibm.com/IBM-presente-un-processeur-quantique-de-nouvelle-generation-ainsi-que-lIBM-Quantum-System-Two-et-etend-sa-feuille-de-route-pour-faire-progresser-lere-dun-calcul-quantique-utile

29/06/2025 Le Materials Discovery Research Institute (MDRI)

Il est connu que l’air le plus sec, tel que celui que l’on trouve dans les parties désertiques du Sahare, comporte assez de vapeur d’eau, pour satisfaire les besoins en eau ds nombreuses plantes.

Le Sahara compte environ 1 200 espèces de plantes vasculaires. Elles ne poussent pas selement dans le lit des oueds

Voir https://www.lamiduvent.fr/flore-et-vegetation-du-sahara/du-sahara/

Aux Etats-Unis, dans l’Illinois, Timur Islamoglu, Directeur de recherche au Materials Discovery Research Institute (MDRI), s’efforce depuis quelques années de mettre au point des substances qui extrairaient de l’air sec du désert assez d’eau o pour en faire une source durable d’eau potable. Ceci devrai permettre de faire face à l’aridité prévue en conséquence du réchauffement climatique. Il vise des régions dont l’humidité relative serait inférieure à moins 30 pour cent , qui seront les premières victimes du réchauffement

Inaguré en 20222, le MDRI, nouvelle division au sein du UL Research Institutes (ULRI) a mis en place un laboratoire doté de techniques avancées en septembre 2024. Outre fournir de l’eau potable et extraire les exces de CO2,e laboratoire sera chargé de produire de l’hydrogène en remplacement du gazoil. La combustion de l’hydrogène ne libère que de l ethylènz , beaucoup moins toxique

https://fr.wikipedia.org/wiki/%C3%89thyl%C3%A8ne

Pour extraire l’eau de l’air dans les régions arides, le labotoire vise à produire des substances poreuses semblables à des éponges adaptées à l’humidité relative.

Le proche avenir dira ce qu’il en sera de ces objectifs

28/06/2025 Vers un calculateur qui produirait de l’information en utilisant la gravité


L’espace-temps est-il en expansion infinie ou peut-il etre complexifié de façon à ce qu’il affecte un signal le traversant. La réponse est négative selon la théorie de la relativité spéciale de Einstein, mais la théorie de la relativité générale révelle quelque chose de différent. Les objets massifs déforment et courbent l’espace comme lorsque une balle lancée sur une toile tendue la déforme. Ceci change un e signal voyageant à proximité.

Eleftherios-Ermis de l’école polytechnique de Bruxelles et Ämin Baumeler, de l’université de Lugano en Italie ont mis au point un test mathématique précisant si l’espace-temps dans n’importe quelle région du monde étudiéeest fixe ou déformable

Ils ont développé un scénario dans lequel 3 ou plus de personne échangent de l’information par message. Ils se sont demandé quant il était possible de savoir si l’une de ces personne, Alice, Bob ou Charlie pouvait changer le voyage de l’information en courbant l’espace temps proche.

Les chercheurs Treskelis et Baumeler ont proposé une équation permettant à Alice, Bob et Chaalie de savoir quand ces situations étaient possibles et quand elles ne l’étaient pas .Après plusieurs envois de message, ils pouvaient compter qui avait eu le message et quand. Ensuite ils introduire ces données dans l’équation.

Mais cette nouvelle théorie pourrait elle permettre d’obtenir des calculateurs utilisant les effets de la gravité pour être plus plus rigoureux. En déplaçant des masses autour d’eux et en déformant l’espace-temps, pourraient ils mettre à l’épreuve les fondements de la relativité générale? La réponse semble négative.

Plusieurs travaux théoriques récents étudient les effets de la gravité sur des systèmes quantiques, en particulier aux abords des trous noirs. L es trous noirs sont des corps célestes tellement denses qu’ils piègent matière et information qui passent à proximité.

Des physiciens pensent avoir réussi à prédire que les effets de gravité au bord d’un trou noir empêchent la réalisation d’une téléportation quantique dans cet espace.

Référence

Gravity produces notoriously weak signals for objects that aren’t extremely massive, which is why you never feel the effect of space-time warping around a pencil on your desk. Still, some devices, such as clocks made from extremely cold atoms, can detect these effects. Future development of such devices – combined with advances in theories connecting gravity and information – could lead to more practical applications of Tselentis and Baumeler’s work.

[Submitted on 23 Dec 2024 (v1), last revised 13 Feb 2025 (this version, v2)]

No quantum advantage for violating fixed-order inequalities?

Veronika Baumann, Ämin Baumeler, Eleftherios-Ermis Tselentis

In standard quantum theory, the causal relations between operations are fixed. One can relax this notion by allowing for dynamical arrangements, where operations may influence the causal relations of future operations, as certified by violation of fixed-order inequalities, e.g., the k-cycle inequalities. Another, non-causal, departure further relaxes these limitations, and is certified by violations of causal inequalities. In this paper, we explore the interplay between dynamic and indefinite causality. We study the k-cycle inequalities and show that the quantum switch violates these inequalities without exploiting its indefinite nature. We further introduce non-adaptive strategies, which effectively remove the dynamical aspect of any process, and show that the k-cycle inequalities become ovel causal inequalities; violating k-cycle inequalities under the restriction of non-adaptive strategies requires non-causal setups. The quantum switch is known to be incapable of violating causal inequalities, and it is believed that a device-independent certification of its causal indefiniteness requires extended setups incorporating spacelike separation. This work reopens the possibility for a device-independent certification of the quantum switch in isolation via fixed-order inequalities instead of causal inequalities. The inequalities we study here, however, turn out to be unsuitable for such a device-independent certification.

Comments:10 pages, 3 figures, 2 pages appendix, improved presentation, references added
Subjects:Quantum Physics (quant-ph)
Cite as:arXiv:2412.17551

(or arXiv:2412.17551v2 [quant-ph] for this version)



27/09/2025 Le lapin en peluche autonome

A l’approche de Pâques 2024, des annonces parues sur l’Internet allemand et provenant de différentes sources peu connues mais apparemment honorables avaient signalé qu’en vue de détourner les enfants de l’abus des écrans et autres smartphones, tout en évitant la charge que représente l’acquisition d’un animal de compagnie, un ingénieur allemand avait mis au point un lapin en peluche autonome.

Celui-ci, selon les vidéos diffusées, sautait comme un chat, bougeait son nez et ses oreilles, réagissait au toucher et même, se déplaceait seul dans la maison, grâce à des capteurs intelligents et des micro-moteurs ultra précis.

Plusieurs études pédagogiques indépendantes avaient validé la qualité et les bienfaits éducatifs de ce jouet. Des psychologues de l’enfance, des experts du développement moteur et des pédagogues ont souligné ses effets positifs sur la motricité, les compétences sociales et la capacité à créer des liens émotionnels.

Ce lapin interactif réaliste nouvelle génération avait d’ailleurs reçu le label de qualité officiel de l Institut allemand de la sécurité des jouets, ainsi que plusieurs prix récompensant sa valeur éducative et sa sécurité.

Si certains éléments restaient confidentiels pour des raisons de brevet, cinq innovations clés rendaient le jouet-lapin vraiment unique :

  1. Servomoteurs micro-précis .
    À l’intérieur du lapin, de minuscules servomoteurs haute précision et ultra-silencieux reproduisent de manière réaliste des mouvements délicats comme le saut, le frémissement du nez et le mouvement des oreilles, avec une discrétion exceptionnelle. Les enfants n’entendent rien, mais voient un lapin presque vivant.
  2. Capteurs tactiles ultrasensibles : Une simple caresse suffit : grâce à des capteurs tactiles nouvelle génération, le lapin réagit immédiatement. Chaque interaction crée un lien affectif et renforce l’attachement de l’enfant.
  3. Fourrure synthétique haut de gamme : Le lapin est fabriqué avec une fourrure synthétique haut de gamme, hypoallergénique, qui ressemble de manière étonnante à la fourrure d’un vrai lapin, tant visuellement qu’au toucher.
  4. Unité de contrôle microélectronique intelligente :
    Un microprocesseur breveté orchestre les mouvements et réactions du lapin. Résultat : un comportement autonome et fluide qui donne l’illusion d’un compagnon bien réel.
  5. Rembourrage insonorisant exclusif :
    Un rembourrage spécial insonorisant absorbe les bruits des moteurs, si bien que le lapin paraît vivant aussi bien dans l’apparence que dans le comportement. Selon son inventeur, le lapin-jouet convient aux enfants de tous âges, des tout-petits aux enfants d’âge scolaire. Sa conception incroyablement réaliste mais parfaitement sûre, garantissaitt une utilisation sans danger ..Il n »y avait aucun risque de blessures ni de pièce dangereuse. Tous les matériaux étaient hypoallergéniques, certifiés et exempts de substances nuisibles – pour une tranquillité d’esprit totale des parents.
  6. Quant à savoir si le lapin était suffisamment robuste pour résister aux jeux parfois énergiques des enfants, la réponse était oui :  sa confection haut de gamme permettait au lapin de supporter sans souci gros câlins, déplacements et manipulations répétées. En cas de gestes trop brusques, le lapin émettait des petits sons réalistes qui rappellent doucement à l’enfant qu’un animal, même en version jouet, mérite d’être traité avec attention.

En conclusion, une centaine de commandes avec versement d’avances avait déjà été enregistrée lorsque pour des raisons mystérieuses le constructeur disparut.

27/06/2025 La recherche scientifique et technique en France

La recherche scientifique et technique en France couvre un certain nombre de domaines importants .

On lira à ce sujet les fiches Campus France https://www.campusfrance.org/fr/grandes-disciplines-recherche-francaise

Agronomie
https://www.campusfrance.org/fr/ressource/agriculture-agronomieologie

Archéologie
https://www.campusfrance.org/fr/ressource/la-recherche-en-archeologie

Biologie
https://www.campusfrance.org/fr/ressource/la-recherche-en-biologie-en-france

Biotechnologies
https://www.campusfrance.org/fr/ressource/la-recherche-en-biotechnologies-en-france

Chimie
https://www.campusfrance.org/fr/ressource/la-recherche-en-chimie

Climatologie
https://www.campusfrance.org/fr/ressource/la-recherche-en-climatologie

Energies renouvelables
https://www.campusfrance.org/fr/ressource/la-recherche-en-energies-renouvelables

Sciences de l’environnement
https://www.campusfrance.org/fr/ressource/la-recherche-en-sciences-de-l-environnement

Sciencesmarines et océanographie
https://www.campusfrance.org/fr/ressource/la-recherche-en-sciences-marines-et-oceanographiques

Mathématiques
https://www.campusfrance.org/fr/ressource/la-recherche-en-mathematiques

Musicologie
https://www.campusfrance.org/fr/ressource/la-recherche-en-musicologie

Nanosciences
https://www.campusfrance.org/fr/ressource/la-recherche-en-nanosciences

Neurosciences
https://www.campusfrance.org/fr/ressource/la-recherche-en-neurosciences-et-sciences-cognitives

Physique
https://www.campusfrance.org/fr/ressource/la-recherche-en-physique

Part de la France dans la recherche européénne

Avec 11,4 % des financements captés, la France demeure le 2ème pays bénéficiaire des crédits alloués par la Commission européenne dans le cadre du programme de soutien à la recherche et à l’innovation Horizon Europe (2021 2027). Elle distance les autres pays européens dans le domaine de l’espace.

Part de la France dans les publications scientifiques mondiales

L’Observatoire des sciences et techniques vient de révéler dans une étude que la France est tombée de la 6e à la 13e place dans les publications scientifiques mondiales depuis 2010.

En 2010, la France occupait la 6e place des pays les plus prolixes en termes de recherche scientifique, derrière le Japon. Douze ans plus tard, elle occope la 13e place, derrière le Brésil. Si ce décrochage a commencé en réalité dès le début des années 2000, il a eu tendance à accélérer ces dernières années.

Cerveau et cancer : un duo infernal

Nouvelle preuve du potentiel invasif du cancer : il se lie profondément au système nerveux, qui favorise alors la croissance des tumeurs dans tout le corps. Mais c’est peut-être aussi son talon d’Achille…

Sophie Fessl

31 mai 2023|  CERVEAU & PSYCHO N° 156|

Dans les années 1990, les cancérologues ont observé un phénomène étrange : les hommes blessés à la

moelle épinière étaient moins souvent atteints de cancer de la prostate
que ceux dont la moelle était intacte. Un fait resté longtemps
inexpliqué, car on pensait que les nerfs n’étaient que des spectateurs
passifs de l’apparition du cancer. Pourtant, on connaissait déjà leurs
liens intimes avec le développement des tissus : les biologistes avaient
ainsi montré que ceux des embryons ne croissent que si leurs
terminaisons nerveuses poussent en parallèle, et on savait depuis deux
siècles que les membres sectionnés des amphibiens ne se régénèrent qu’à
la condition d’être innervés.



Comme souvent, une partie de la réponse est venue de
l’expérimentation animale. En 2013, une équipe dirigée par Claire
Magnon, de la faculté de médecine Albert-Einstein, à New York, a
interrompu les communications entre la prostate et le système nerveux
chez des souris en sectionnant les nerfs ou en les détruisant avec un
poison. Résultat : le cancer a progressé plus lentement. Des résultats
similaires ont été obtenus avec d’autres types de tumeurs, si bien
qu’une théorie s’impose de plus en plus depuis une dizaine d’années : le
système nerveux jouerait un rôle majeur dans les maladies cancéreuses.



Les neurosciences du cancer



Une nouvelle discipline, les neurosciences du cancer, a même vu le
jour. « De plus en plus d’éléments indiquent que le système nerveux
exerce une influence décisive sur l’apparition et la progression des
tumeurs, tant à l’intérieur qu’à l’extérieur du cerveau, ainsi que sur
la résistance au traitement », explique Varun Venkataramani, de
l’hôpital universitaire d’Heidelberg et du Centre allemand de recherche
sur le cancer (DKFZ).



L’explication résiderait dans ce qu’on appelle le
« microenvironnement tumoral », c’est-à-dire tout ce qui entoure
directement la tumeur. Les neurones et les fibres nerveuses sont des
éléments essentiels de cet environnement : ils alimentent la tumeur en
substances messagères et en facteurs de croissance, ils jouent un rôle
dans la multiplication des vaisseaux sanguins, ils aident à neutraliser
le système immunitaire… Les processus en jeu dépendent du type de tissu
malade, mais c’est le même principe qui est à l’œuvre : le cancer pirate
les mécanismes de multiplication et de développement des cellules.







anatomie systeme nerveux



© Yousun Koh, d’après C.
Pan et F. Winkler, Insights and opportunities at the crossroads of
cancer and neuroscience, Nature Cell Biology, 2022, Fig. 1





Prenez par exemple les glioblastomes. Ces tumeurs cérébrales
agressives se développent à partir de précurseurs des cellules gliales,
terme qui désigne divers types de cellules non neuronales dans le
cerveau. Au cours du développement normal, les neurones envoient des
signaux à ces cellules pour qu’elles se multiplient et forment une
couche isolante autour des fibres nerveuses, améliorant la propagation
des signaux nerveux. Le principal messager est un neurotransmetteur
appelé « glutamate », qui déclenche une série de modifications
physiologiques dans les cellules gliales lorsqu’il se fixe à leur
surface. Or, en 2019, Varun Venkataramani et ses collègues ont montré
que les neurones communiquaient de manière similaire avec les cellules
de glioblastome, par le biais de contacts électrochimiques directs, et
favorisaient également leur division. « Nous avons découvert des
connexions spécialisées – autrement dit, des synapses – entre les
cellules tumorales et les neurones, rapporte le neurologue. Nous savons
aussi que le neurotransmetteur glutamate y est sécrété. » Dans des
expériences sur des souris, c’est ainsi l’envoi de signaux nerveux aux
tumeurs cérébrales qui a entraîné leur développement.




Nous avons découvert des connexions spécialisées – autrement dit,
des synapses – entre les cellules tumorales et les cellules nerveuses.


Varun Venkatamarani, neurologue




À l’heure actuelle, les glioblastomes restent incurables. On
l’explique en partie par le fait qu’ils se propagent dans tout le
cerveau, ce qui empêche de les retirer complètement par une opération
chirurgicale, mais les neurones pourraient également être en cause,
comme le révèle une analyse fine du processus d’invasion. Si de
nombreuses cellules tumorales s’associent entre elles et avec certaines
cellules gliales, nommées « astrocytes », pour former un réseau,
d’autres restent solitaires. Ces cellules isolées ressemblent aux
neurones immatures, qui migrent à travers le cerveau pour coloniser
différentes zones, à deux égards : d’abord, elles expriment des ARN
messagers similaires, et, surtout, elles se déplacent de manière
comparable dans le tissu cérébral. Elles se comportent alors en
pionnières, explorant la périphérie de la tumeur. Dès qu’elles ont
trouvé un endroit favorable, elles s’associent à d’autres cellules
tumorales pour former un réseau. Et c’est là que le système nerveux joue
à nouveau un rôle décisif : si les cellules cancéreuses reçoivent
certains signaux des neurones, elles accélèrent l’invasion du tissu
cérébral et forment davantage d’excroissances membranaires qui leur
permettent de se connecter entre elles, comme Varun Venkataramani et son
équipe l’ont découvert en 2022 chez la souris .



Ce lien malsain entre système nerveux et cancer concerne également
les métastases cérébrales. Ainsi, dans le cancer du sein, les cellules
tumorales qui se propagent jusqu’au cerveau se mettent à produire
davantage de récepteurs au glutamate. Mais ce n’est pas tout : elles
forment aussi des « contacts périsynaptiques » qui englobent les
contacts préexistants entre les neurones. C’est ce qu’ont montré en 2019
Qiqun Zeng et d’autres experts, de l’Institut suisse de recherche
expérimentale sur le cancer, à Lausanne, à l’aide de cultures de
cellules humaines et animales. « Contrairement à ce qui se passe avec la
cellule de glioblastome, qui établit un contact avec une cellule
nerveuse, il existe ici déjà une synapse entre deux neurones, explique
Varun Venkataramani. La périsynapse se forme alors et vient « écouter »
cette synapse initiale, interceptant les signaux entre les neurones. »
Avec pour résultat un accroissement du potentiel de multiplication des
métastases mortelles.







systeme nerveux cancer



© Yousun Koh, d’après C.
Pan et F. Winkler, Insights and opportunities at the crossroads of
cancer and neuroscience, Nature Cell Biology, 2022, Fig. 1





Les cellules tumorales présentes dans le cerveau sont donc en mesure
d’établir des contacts directs et indirects avec les neurones, et
d’utiliser le neurotransmetteur glutamate pour elles-mêmes. Est-ce aussi
le cas des tumeurs métastasiques de la tumeur primaire situées ailleurs
dans le corps ? C’est ce que Varun Venkataramani souhaite maintenant
explorer : « Nous nous demandons s’il existe également des connexions
synaptiques en dehors du cerveau. Ce n’est pas encore totalement
clair. » Même s’il ne fait aucun doute qu’outre l’encéphale, le reste du
système nerveux joue un rôle dans le développement des tumeurs, affirme
le biologiste Moran Amit, du centre de cancérologie MD Anderson, à
Houston. Pour preuve : les expériences où l’interruption des
communications nerveuses avec la prostate chez des souris a ralenti le
développement du cancer touchant cet organe.



Mais la complexité du système nerveux rend les fils difficiles à
démêler : notre corps est traversé par d’innombrables nerfs qui
descendent du cerveau ou y remontent, et qui véhiculent divers types
d’informations – sensorielles, motrices, autonomes (c’est-à-dire
relatives aux fonctions vitales comme la respiration, la circulation
sanguine ou la digestion)… « Nous devons clarifier le rôle de ces
différents sous-types de nerfs dans le cancer et découvrir comment les
utiliser pour combattre la maladie », explique Moran Amit. Pour ne rien
simplifier, certaines fibres nerveuses agissent différemment sur les
tumeurs selon la nature de ces dernières. Par exemple, le système
parasympathique (le « frein » du système nerveux autonome, qui apaise
l’organisme) favorise la propagation des cancers de la prostate et de
l’estomac, mais inhibe la formation de métastases dans le cas des
cancers du sein et du pancréas.



Le taux de survie impacté



Actuellement, de nombreuses recherches sont menées sur les cancers de
la prostate, du pancréas et ceux dits « de la tête et du cou » – qui
touchent les lèvres, la langue, le larynx… En 2013, Claire Magnon a
constaté chez des patients atteints d’un cancer de la prostate que plus
la densité de nerfs sympathiques et parasympathiques était élevée au
sein de la tumeur maligne, plus les chances de survie étaient faibles.
« Les tumeurs sont fortement innervées, et plusieurs études menées ces
dernières années montrent que les neurotransmetteurs acétylcholine et
noradrénaline jouent un rôle important », détaille Moran Amit.
L’acétylcholine est libérée au niveau des synapses du système
parasympathique, la noradrénaline sert à la transmission des signaux
dans le système sympathique. Si l’on bloque l’action de ces
neurotransmetteurs, les tumeurs se développent plus lentement, les
métastases sont moins nombreuses et les thérapies plus efficaces. « Mais
nous ne connaissons pas encore tous les détails », nuance le
biologiste.



Le rôle de la noradrénaline a également été mis en évidence dans le
cas des cancers de la peau : les mélanomes très avancés ont ainsi
davantage de récepteurs pour ce neurotransmetteur que les tumeurs à un
stade précoce, et si on bloque ces récepteurs, on freine la propagation
du cancer. Dans une étude menée en 2014 chez des patients humains, Maura
Calvani et ses collègues, de l’université de Florence, ont en outre
montré que des quantités plus importantes de noradrénaline dans les
tumeurs sont associées à un stade plus avancé, à des métastases dans les
ganglions lymphatiques et à un taux de survie plus faible.




Les neurones et les fibres nerveuses alimentent la tumeur en
substances messagères et en facteurs de croissance, favorisent la
multiplication des vaisseaux sanguins et aident à neutraliser le système
immunitaire !




La noradrénaline est par ailleurs le précurseur de l’adrénaline,
également libérée par le système sympathique. Or cette hormone favorise
l’angiogenèse – la formation de nouveaux vaisseaux sanguins –, en
stimulant les cellules qui tapissent ces vaisseaux. Une aubaine pour les
cellules cancéreuses, qui ont besoin d’oxygène et de nutriments. C’est
peut-être pour cela que les bêtabloquants, qui inhibent l’adrénaline,
influencent la survie des patients cancéreux. Des analyses a posteriori
menées chez des hommes souffrant d’un cancer de la prostate et chez des
femmes atteintes d’un cancer du sein ou des ovaires ont ainsi révélé
que ceux qui en avaient pris avaient vécu plus longtemps. Des études
cliniques sont en cours pour déterminer si ces médicaments gagneraient à
être intégrés dans le traitement du cancer.

Le stress, un moteur du cancer ?


L’adrénaline étant une hormone du stress, ce dernier joue-t-il un
rôle dans le cancer ? Des études chez l’animal indiquent qu’il favorise
effectivement la croissance des tumeurs, sans doute par l’action
stimulante de l’adrénaline sur l’angiogenèse, qui augmente
l’approvisionnement des tissus cancéreux en nutriments et en oxygène.
Contrairement à certaines idées qui circulent, il n’existe toutefois
aucune preuve convaincante d’une influence de la dépression, de la
pensée positive ou de la personnalité sur le cancer.



Les liens entre nerfs et tumeurs sont en tout cas à double sens : on
sait désormais que les cellules tumorales de certains cancers, comme
ceux de la tête et du cou, modifient à leur tour le système nerveux. Les
facteurs de croissance que la tumeur sécrète incitent notamment les
cellules nerveuses du système sympathique à émettre de nouveaux
prolongements et à se développer en elle. Il s’ensuit un cercle vicieux
où les nerfs tout juste formés libèrent de la noradrénaline, ce qui
favorise la progression du cancer.



Les interactions des cellules cancéreuses et du système nerveux
entraînent-elles des symptômes neurologiques ? Dans le cas des tumeurs
cérébrales, la réponse est oui, affirme Varun Venkataramani. Jusqu’à
70 % des patients atteints de glioblastome ­ – et 10 à 15 % de ceux
touchés par d’autres types de cancer ayant produit des métastases
cérébrales – souffrent d’épilepsie. On ne connaît pas précisément les
mécanismes à l’œuvre, mais « il y a de plus en plus d’indices d’un
cercle vicieux entre l’épilepsie et la croissance de la tumeur. Cette
dernière favorise l’hyperexcitabilité des cellules nerveuses, qui
stimule à son tour la croissance et l’invasion de la tumeur ». Des
douleurs chroniques peuvent en outre apparaître lors de ce qu’on appelle
l’« invasion périneurale » du système nerveux périphérique : les
cellules malignes se déplacent le long des nerfs et propagent la
maladie.

Brouiller les communications


Aujourd’hui, les thérapies anticancéreuses reposent principalement
sur des poisons cellulaires et des interventions chirurgicales ciblant
les tissus atteints. Les oncologues tentent aussi de jouer sur
l’angiogenèse et sur la réponse immunitaire. Mais la plupart des cancers
ne sont toujours pas guérissables, ou seulement au prix de traitements
lourds. La découverte des liens entre système nerveux et cancer ouvre
alors de nouvelles voies. « En théorie, de nombreuses approches
permettent de développer une thérapie à partir de ces interactions »,
explique Varun Venkataramani.



Dans le cas du glioblastome, par exemple, des projets au stade
d’essais cliniques tentent d’empêcher l’établissement de synapses entre
les cellules tumorales et les cellules nerveuses. Pour ce faire, les
chercheurs se concentrent sur les molécules nécessaires à la formation
de ces synapses, comme la neuroligine3, qui est sécrétée par les
neurones et stimule par ailleurs la multiplication des cellules
cancéreuses. En 2017, Humsa Venkatesh et ses collègues, de la faculté de
médecine de Stanford, en Californie, ont désactivé le gène codant cette
molécule chez des souris et ont ainsi empêché la croissance de
différentes tumeurs cérébrales. D’autres équipes testent le perampanel,
un antiépileptique qui bloque un récepteur au glutamate, pour traiter
les gliomes agressifs.



Il serait en revanche pour le moins compliqué de couper toute
connexion nerveuse avec les organes malades chez des patients humains, à
l’instar de ce qui a été réalisé chez des rongeurs pour les cancers de
la prostate et de l’estomac. Les organes ont un besoin vital d’être
innervés et une telle opération aurait probablement de nombreux effets
secondaires. Une alternative consiste à injecter des neurotoxines de
manière ciblée, sur quelques fibres seulement, ce qui devrait limiter
ces effets indésirables. Les chercheurs tentent actuellement l’opération
avec du Botox, surtout connu pour son emploi en chirurgie esthétique,
mais qui a plus généralement de puissants effets inhibiteurs sur les
communications nerveuses, pour traiter les cancers de l’estomac et de la
prostate. En 2018, le biologiste moléculaire Christian Coarfa et ses
collègues, du Baylor College of Medicine, à Houston, ont ainsi réussi à
freiner considérablement le cancer de la prostate chez des souris et des
patients humains.





Mais il serait sans doute moins agressif pour l’organisme d’empêcher
d’emblée la croissance de nouvelles terminaisons nerveuses. Différents
laboratoires testent chez les patients cancéreux des anticorps qui
neutralisent certains facteurs de croissance, comme le NGF (nerve growth factor,
« facteur de croissance nerveuse », en français) – anticorps
habituellement utilisé pour le traitement de la douleur. Cela
permettrait de faire d’une pierre deux coups : on ne combattrait pas
seulement le cancer, mais aussi les douleurs qu’il provoque.
Malheureusement, on manque encore d’études cliniques fiables pour ces
thérapies.



Plusieurs raisons expliquent probablement les difficultés à mener ces
études, comme la variabilité considérable des effets pharmacologiques
obtenus en fonction du stade de la maladie et des voies biologiques
impliquées. Un même médicament est ainsi efficace chez certains patients
cancéreux, mais pas chez d’autres. Il est alors essentiel de trouver
des biomarqueurs qui renseignent sur les spécificités de chacun dans les
interactions entre tumeurs et système nerveux, afin de développer des
thérapies ciblées. Il reste donc beaucoup à faire, mais l’espoir est
grand que les toutes jeunes « neurosciences du cancer » apportent enfin
la percée médicale tant attendue dans le domaine.







L’essentiel

Les recherches récentes ont mis en évidence de puissants
liens entre le cancer et le système nerveux : ce dernier favorise le
développement des tumeurs, à l’intérieur comme à l’extérieur du cerveau.Les
cellules cancéreuses utilisent à leur profit des substances libérées
par les neurones, et détournent l’activité nerveuse pour stimuler la
formation de vaisseaux sanguins qui viendront les nourrir…Les
chercheurs tentent d’exploiter ces découvertes pour développer de
nouvelles thérapies, fondées sur la perturbation des communications
entre le système nerveux et les tumeurs.


25/06/2025 Des cellules cancéreuses qui apprennent à se développer comme les neurones humains

L’essentiel du développement du cerveau humain intervient après la naissance. La venue à maturité du réseau neuronal nécessaire pour les fonctions complexes de la motricité et de la cognition n’apparait que chez l’enfant et le jeune adulte. Au cœur de la mise en place des circuits neuronaux nécessaires se trouve la génération de nouvelles cellules gliales

Les cellules gliales sont des cellules spécialisées dont la fonction est d’entourer, de soutenir et d’isoler les neurones du système nerveux central (SNC), y compris dans le cerveau et la moelle épinière. Les principaux types de cellules gliales sont les oligodendrocytes, les astrocytes, les cellules microgliales et les épendymocytes.

Essentielle dans la mise en place de nouvelles cellules gliales est la formation des synapses et la myélinisation. Ce terme désigne e processus de la formation de la myéline. La myéline est une membrane spécialisée des cellules gliales myélinisantes du système nerveux (les cellules de Schwann pour le système nerveux périphérique dont les membranes s’enroulent autour des axones. Dans certaines régions du cerveau telles que l’hyppocampe la production de nouveaux neurones n’intervient qu’après la naissance. Elle sert aux fontions liées à la mémoire de plus en plus consciente.

Ces processus étaient connus depuis longtemps. Mais leur redécouverte tient à un évenement récent  Des cancérologues de la Harvard Univerity, rejoint par un nombre croissant de neuroscientifiques, avaient observé qu’une tumeur cancéreuse du pancréas se développait de la même façon que des cellules gliales dans un organisme sain. Elle s’organisaient de la même façon que des neurones le font pour se développer chez un jeune organisme afin de le rendre conscient . Le cancer trouvera un appui et des nutriments dans l’organisme envahi. En échange l’organisme aidera le cancer à se développer afin que les deux forment un couple de plus en plus solide. Une nouvelle discipline est en cours de formation, dite « cancer neuroscience »

Le cancer est redoutable en ce sens qu’il implique et tourne à son profit un grand nombre des mécanismes liés au développement d’un organeme adultes en bonne santé. Il en résulte que pour lutter contre ses effets, les cancérologues sont tentés de paralyser des mécanismes sains.

L’on commence à comprendre que les tumeurs ont besoin de gènes pour survivre, comme elles ont besoin de sang et d’oxygène.

(à suivre)

24/06/2025 Un nouveau bombardement sera-t-il décidé par Donald Trump?

Il existe deux principaux procédés pour enrichir de l’uranium en isotope 235 afin en vue de produire du combustible nucléaire : la diffusion gazeuse et l’ultracentrifugation. Cette dernière technologie met en œuvre un ensemble de centrifugeuses.

Une centrifugeuse est principalement constituée d’un rotor (un cylindre de 1 à 2 m de haut et de 15 à 20 cm de diamètre) qui tourne à très grande vitesse (50 000 à 70 000 tours par minute) et permet la séparation dans un gaz d’hexafluorure d’uranium (UF6) qui y est introduit des différents isotopes grâce à leur différence de masse.

Les molécules plus lourdes (hexafluorure d’uranium 238) sont projetées vers la périphérie sous l’effet de la force centrifuge tandis que les molécules plus légères (hexafluorure d’uranium 235) restent confinées au centre. Le gaz enrichi en isotope 235 plus léger monte alors en haut du cylindre où il est récupéré, la fraction plus lourde enrichie en isotope 238 étant également extraite de la centrifugeuse.

Compte tenu de la très légère différence de masse entre ces molécules (de l’ordre de 1%), il est nécessaire de reproduire cette opération à de très nombreuses reprises. Les centrifugeuses sont donc installées en « cascades » et le gaz passe dans chacune d’entre elles (soit dans des milliers de centrifugeuses) en augmentant au fur et à mesure sa teneur en uranium 235 (jusqu’à un niveau de 3% à 5% pour un usage civil).

L’ultracentrifugation s’impose progressivement depuis que des progrès ont été effectués en matière de résistance des matériaux des centrifugeuses à la fin des années 1980. Aujourd’hui, ce procédé est notamment employé par Orano dans son usine Georges Besse II (site du Tricastin dans la Drôme).

Dans l’accord de Vienne sur le nucléaire iranien conclu en juillet 2015, il était prévu d’abaisser le nombre de centrifugeuses en Iran de près des deux tiers afin de cantonner l’enrichissement à un usage civil.

Il était très probable que l’Iran ayant repris un programme de centrifugeuses cherchait à se doter des quelques kilos d’uranium enrichi à plus de 90 % nécessaires à la production de bombes nucléaires.