Créée il y a seulement sept ans par des anciens de Palantir Technologies, une société proche du renseignement américain, l’entreprise Anduril Industries https://www.anduril.com/ s’est très vite fait connaître dans le monde de la défense et de la sécurité après avoir obtenu des contrats pour fournir des tours de surveillance autonomes [AST – Autonomous Surveillance Towers] au Service des douanes et de la protection des frontières des États-Unis ainsi que des solutions en matière de lutte anti-drones à l’US Special Operations Command [USSOCOM].
Récemment, Anduril a été sollicitée par la Royal Australian Navy pour développer un drone sous-marin autonome de grande taille [XL-AUV]. Puis, en avril dernier, son drone Fury a été retenu par l’US Air Force pour le programme CCA [Collaborative Combat Aircraft], lancé dans le cadre du projet d’avion de combat de 6e génération NGAD [New Generation Air Dominance].
En complément de ces programmes, Anduril a développé le drone aérien autonome Barracuda, c’est à dire un missile de croisière propulsé par un turboréacteur aérobie pouvant être fabriqué à grande échelle, à moindre coût et, surtout, très rapidement. Pour cela, il a du « faire simple », c’est-à-dire réduire de moitié le nombre de sous-composants, utiliser des pièces disponibles dans le commerce et rationaliser autant que possible le processus de production, en réduisant le nombre d’outils spécialisés nécessaires et en ayant recours à une main d’œuvre peu qualifiée.
Anduril précise qu’un seul Barracuda prend 50 % moins de temps à produire, nécessite 95 % moins d’outils et 50 % moins de pièces que les solutions concurrentes actuellement sur le marché. […] Par conséquent, la famille de véhicules autonomes Barracuda est 30 % moins chère en moyenne que les autres solutions, ce qui permet une utilisation à grande échelle.
La gamme « Barracuda » compte trois modèles. Plus petit que les deux autres et ayant une portée maximale d’environ 160 km, le Barracuda-100 peut être lancé par un hélicoptère ou par un lanceur au sol.
Destiné aussi bien aux chasseurs-bombardiers [F-35, F-15, F-16 et F-18] qu’aux navires de surface, le Barracuda-250 peut emporter plusieurs types de charges utiles en fonction des missions. Il peut atteindre une cible située à 370 km de distance.
Enfin, d’une portée supérieure à 900 km, le Barracuda-500 est trop volumineux pour prendre place dans la soute du F-35. En revanche, il peut être emporté par les F-15, F-16 et autres F-18, voire par des avions de transport C-130J Hercules ou C-17 Globemaster III s’ils sont conditionnés sur des palettes, comme le prévoit le concept « Rapid Dragon » de l’US Air Force.
Cela étant, les effets des drones « Barracuda » pourraient être accrus s’ils volaient en essaim, comme le permettrait le logiciel Lattice, mis au point par Anduril.
Reste à voir quel sort réservera le Pentagone à cette nouvelle gamme de munitions « complexes », alors que l’US Air Force est justement en quête d’un missile à bas coût, dans le cadre du programme « Franklin », lancé par son unité dédiée à l’innovation en juin 2024
Dans son modèle classique de développement, un trou noir de taille moyenne provient d’un petit trou noir produit par l’effondrement sur elle-même d’une étoile massive en fin de vie. Il grandit en capturant petit à petit de plus en plus de gaz, de matière et d’étoiles provenant de son environnement proche. Ce phénomène est nommé l’accrétion.
Il existe néanmoins une limite théorique à cette croissance : la limite d’Eddington, ou luminosité d’Eddington,. Celle-ci est une valeur de luminosité qu’aucun objet céleste (par exemple une étoile) ne peut dépasser : au-delà, la pression de radiation prend le pas sur la gravité et des constituants de l’objet sont éjectés. Ainsi l’immense quantité de lumière produite par le disque de matière qui entoure le trou noir (le disque d’accrétion) provoque une pression qui repousse la matière environnante et ralentit la croissance du trou noir.
Une équipe internationale d’astronome a cependant mis au jour un trou noir supermassif aux confins de l’univers primitif, 800 millions d’années après le Big Bang. Cette observation, parue dans la revue Nature, référencée ci-dessous, contredit les modèles théoriques de la formation des trous noirs, qui ne devraient pas être capables d’atteindre de telles masses en si peu de temps. Le phénomèna n’a pas enrore d’explication à ce jour.
Stéphane Charlot, directeur de recherche CNRS à l’Institut d’astrophysique de Paris, a participé à ces observations réalisées grâce au James Webb Space Telescope.
Recent observations have found a large number of supermassive black holes already in place in the first few hundred million years after the Big Bang, many of which seem to be overmassive relative to their host galaxy stellar mass when compared with local relation1,2,3,4,5,6,7,8,9. Several different models have been proposed to explain these findings, ranging from heavy seeds to light seeds experiencing bursts of high accretion rate10,11,12,13,14,15,16. Yet, current datasets are unable to differentiate between these various scenarios. Here we report the detection, from the JADES survey, of broad Hα emission in a galaxy at z = 6.68, which traces a black hole with a mass of about 4 × 108M⊙ and accreting at a rate of only 0.02 times the Eddington limit. The black hole to host galaxy stellar mass ratio is about 0.4—that is, about 1,000 times above the local relation—whereas the system is closer to the local relations in terms of dynamical mass and velocity dispersion of the host galaxy. This object is most likely an indication of a much larger population of dormant black holes around the epoch of reionization. Its properties are consistent with scenarios in which short bursts of super-Eddington accretion have resulted in black hole overgrowth and massive gas expulsion from the accretion disk; in between bursts, black holes spend most of their life in a dormant state.
Dans son modèle classique de développement, un trou noir de taille moyenne provient d’un petit trou noir produit par l’effondrement sur elle-même d’une étoile massive en fin de vie. Il grandit en capturant petit à petit de plus en plus de gaz, de matière et d’étoiles provenant de son environnement proche. Ce phénomène est nommé l’accrétion.
Il existe néanmoins une limite théorique à cette croissance : la limite d’Eddington, ou luminosité d’Eddington,. Celle-ci est une valeur de luminosité qu’aucun objet céleste (par exemple une étoile) ne peut dépasser : au-delà, la pression de radiation prend le pas sur la gravité et des constituants de l’objet sont éjectés. Ainsi l’immense quantité de lumière produite par le disque de matière qui entoure le trou noir (le disque d’accrétion) provoque une pression qui repousse la matière environnante et ralentit la croissance du trou noir.
Une équipe internationale d’astronome a cependant mis au jour un trou noir supermassif aux confins de l’univers primitif, 800 millions d’années après le Big Bang. Cette observation, parue dans la revue Nature, référencée ci-dessous, contredit les modèles théoriques de la formation des trous noirs, qui ne devraient pas être capables d’atteindre de telles masses en si peu de temps. Le phénomèna n’a pas enrore d’explication à ce jour.
Stéphane Charlot, directeur de recherche CNRS à l’Institut d’astrophysique de Paris, a participé à ces observations réalisées grâce au James Webb Space Telescope.
Recent observations have found a large number of supermassive black holes already in place in the first few hundred million years after the Big Bang, many of which seem to be overmassive relative to their host galaxy stellar mass when compared with local relation1,2,3,4,5,6,7,8,9. Several different models have been proposed to explain these findings, ranging from heavy seeds to light seeds experiencing bursts of high accretion rate10,11,12,13,14,15,16. Yet, current datasets are unable to differentiate between these various scenarios. Here we report the detection, from the JADES survey, of broad Hα emission in a galaxy at z = 6.68, which traces a black hole with a mass of about 4 × 108M⊙ and accreting at a rate of only 0.02 times the Eddington limit. The black hole to host galaxy stellar mass ratio is about 0.4—that is, about 1,000 times above the local relation—whereas the system is closer to the local relations in terms of dynamical mass and velocity dispersion of the host galaxy. This object is most likely an indication of a much larger population of dormant black holes around the epoch of reionization. Its properties are consistent with scenarios in which short bursts of super-Eddington accretion have resulted in black hole overgrowth and massive gas expulsion from the accretion disk; in between bursts, black holes spend most of their life in a dormant state.
Le 13 novembre 2024, IBM avait annoncé lors d’une IBM Quantum Developer Conference, que les progrès en hardware et software de l’entreprise lui permettaient d’exécuter des calculs quantiques à des niveaux record de portée, vitesse et fiabilité.
A la suite de cette annonce, les processeurs quantique de IBM dit Heron et Oiskit, les plus performants de ceux dont dispose l’entreprise, sont disponibles désormais dans des centres de calcul quantique ouverts aux universités et entreprises pour leur permette des opérations exigeant une puissance de 5.000 qubits.
Les utilisateurs peuvent désormais expérimenter les possibilités du calcul quantique dans des domaines scientifiques intéressant les matériaux, la chimie, les sciences de la vie, la physique des hautes énergies et autres.
Ceci permettra à IBM et à ses partenaires de généraliser les systèmes quantiques à corrections d’erreur prévus pour 2029. IBM espère atteindre à cette date grâce à ces investissements ce que l’on nomme la suprématie quantique.
On lira à ce sujet un article publié par Nature, dont nous retenons les passages suivants:
Quantum computing promises to offer substantial speed-ups over its classical counterpart for certain problems. However, the greatest impediment to realizing its full potential is noise that is inherent to these systems. The widely accepted solution to this challenge is the implementation of fault-tolerant quantum circuits, which is out of reach for current processors. Here we report experiments on a noisy 127-qubit processor and demonstrate the measurement of accurate expectation values for circuit volumes at a scale beyond brute-force classical computation. We argue that this represents evidence for the utility of quantum computing in a pre-fault-tolerant era. These experimental results are enabled by advances in the coherence and calibration of a superconducting processor at this scale and the ability to characterize1 and controllably manipulate noise across such a large device. We establish the accuracy of the measured expectation values by comparing them with the output of exactly verifiable circuits. In the regime of strong entanglement, the quantum computer provides correct results for which leading classical approximations such as pure-state-based 1D (matrix product states, MPS) and 2D (isometric tensor network states, isoTNS) tensor network methods2,3 break down. These experiments demonstrate a foundational tool for the realization of near-term quantum applications4,5.
Cette stratégie bénéficie de 1,8 milliard d’euros, dont 1 milliard financé par l’État, notamment via le Programme d’investissements d’avenir (PIA) , pour le développement des technologies quantiques sur la période 2021-2025. Elle a pour objectif de créer 16 000 emplois d’ici à 2030 .
Le calcul quantique s’appuie sur des propriétés de la matière qui n’existent qu’à l’échelle de l’infiniment petit.
À pleine maturité, il permettra d’effectuer des calculs jusqu’à 1 milliard de fois plus vite qu’une technologie de calcul classique, ce qui ouvre la voie à la résolution de problèmes actuellement non solubles dans un temps humain.
Dans les deux prochaines décennies, le quantique enclenchera des révolutions technologiques et des avancées dans de nombreux secteurs d’importance vitale, tant dans le domaine civil que militaire, par exemple pour :
l’observation de la Terre et l’anticipation des catastrophes naturelles ;
la modélisation d’un agent infectieux et pour de remèdes médicaux adaptés ;
une meilleure compréhension de la photosynthèse afin de mieux capturer l’énergie solaire et capter le CO2 atmosphérique.
Avec un premier investissement de 70 M€ pour un objectif total de 170 M€, cette plateforme interconnectera systèmes classiques et ordinateurs quantiques. Ces moyens seront à disposition des laboratoires, des entreprises innovantes et des industriels pour qu’ils développent de nouveaux cas d’usages. Soutenue par l’ INRIA , la plateforme sera hébergée au très grand centre de calcul implanté au CEA DAM du Commissariat à l’énergie atomique et aux énergies renouvelables (CEA).
La France avait réalisé en 2023 le premier essai d’un planeur hypersonique, capable d’aller au-delà de Mach 5. Rappelons que le mardi 27 juin 2023, la direction générale de l’Armement (DGA) avait supervisé le tir d’essai du démonstrateur d’un planeur hypersonique, le VMaX, – pour Véhicule Manœuvrant eXpérimental – à Biscarrosse, dans les Landes (sud-ouest).
Avec lui, la France s’engageait avec succès dans le milieu hypersonique, à des vitesses au-delà de Mach 5 (environ 6 100 km/h). Ce premier démonstrateur contenait de nombreuses innovations technologiques embarquées, Son essai en vol, sur une trajectoire à longue portée très exigeante, constituait un défi technique inédit qui préparait l’avenir de l’ hypervélocité.
Dépourvu de toute charge militaire, le missile ASMPA-R été tiré par un avion de combat Rafale des forces aériennes stratégiques (FAS) . Il s’agissait de l’opération Durandal au cours d’un exercice mené « au-dessus du territoire national », « au terme d’un vol représentatif d’un raid nucléaire », selon le communiqué.
Sur le réseau social X, le ministre des Armées avait précisé que cette opération était « prévue de longue date » et a adressé ses « félicitations à l’ensemble des forces, équipes du ministère et partenaires industriels engagés sur l’opération ». D’après le communiqué, le programme de rénovation de ce missile, conduit par la Direction générale de l’armement (DGA), a permis de renforcer ses « performances intrinsèques » et de maintenir « la crédibilité de la composante nucléaire aéroportée de la dissuasion » française, conformément aux objectifs de la dernière loi de programmation militaire (LPM).
Le programme russe de missiles hypersoniques
En fait la France se préparait à répondre au programme russe de missiles hypersoniques. Rappelons que la Russie avait dévoilé pour la première fois en 2022 les performances de ses propres missiles hypersoniques. Ils seraient manœuvrables une bonne partie de leur trajectoire et auraient la capacité de se déplacer et se maintenir des vitesses supérieures à Mach 5, c’est-à-dire autour de 6 000 km à l’heure minimum.
Les premiers rapports attestant de l’utilisation de missiles hypersoniques par la Russie datent du 24e jour de son invasion de l’Ukraine. Le ministère de la Défense avait alors fait état de l’envoi de missiles réputés hypersoniques dans la région d’Ivano-Frankivsk dans l’Ouest de l’Ukraine. Leur emploi en Ukraine était une première mondiale pour un armement hypersonique, selon les experts.
Aujourd’hui, l’arsenal hypersonique de la Russie comprend les missiles Kh_-47M2 Kinzhal (ou Kinjal) et Avangard, ainsi que le Zircon, selon Forbes, le média militaire américain.. Le Kinzhal a été déployé plusieurs fois contre des cibles en Ukraine. Lancé depuis un avion MiG-31K ou Tu-22M3 à Mach 2,7, le Kinzhal utilise une propulsion par fusée pour atteindre une vitesse maximale de Mach 10. L’autre arme hypersonique de la Russie, l’Avangard, est un véhicule planant hypersonique conçu pour transporter des ogives nucléaires, qui n’a pas été utilisé opérationnellement.
La puissance et la rapidité des missiles hypersoniques laissent peu de place au doute quant à leur efficacité, du moins sur le papier. Il semblerait toutefois que peu d’unités aient été lancées par Moscou sur les positions ukrainiennes. Selon Forbes, le déploiement a été limité par des défis de fabrication. Ainsi, les missiles nécessitent des matériaux et une ingénierie avancés pour être capables de résister à de fortes chaleurs et une pression intenses. Leurs composants électroniques sont avancés et difficiles à assembler. Criblée de sanctions occidentales , la Russie n’aurait pas été capable de les produire à grande échelle, donnant la priorité aux chaînes de montage des drones et à la remise en état de ses chars soviétiques.
De surcroît, il a été observé en Ukraine que les missiles hypersoniques russes actuellement construits sont vulnérables aux systèmes de défense aérienne conventionnels. Le 4 mai 2023, soit un peu plus d’un an après l’envoi présumé du premier missile hypersonique par la Russie, l’Ukraine a affirmé avoir intercepté un Kinzhal pour la première fois à l’aide d’un système de défense aérienne américain Patriot. Douze jours plus tard, Kiev rapportait en avoir intercepté six, par le même moyen.
Selon les informations ukrainiennes de The Economist, les missiles Kinzhal abattus en mai 2023 volaient à des vitesses inférieures à celle attendue d’un hypersonique. Par ailleurs, un rapport de l’Institut Kiel en Allemagne indique que le taux d’interception des Patriot contre le Kinzhal est d’environ 25 %.
Peu nombreuses et vulnérables, les armes hypersoniques russes ont donc déçu sur le terrain, et n’ont donc pas apporté les avantages significatifs recherchés par Moscou. Les systèmes continueront toutefois de progresser en technicité, juge Forbes, stimulés par des techniques de pointe telles que l’intelligence artificielle. Et alors, rien ne pourra plus les empêcher de tenir un rôle primordial dans les conflits de demain.
C’est la raison pour laquelle la France, malgré les difficultés, ne doit pas ralentir son programme de missiles hypersoniques.
Le 28 décembre 2024, le drone kamikaze ukrainien MAGURA V5 est devenu le premier drone naval à couler un navire de guerre en combat actif. Cette exploit réalisé contre un navire russe dans la mer Noire, symbolise un tournant décisif dans l’évolution des conflits maritimes.
Le MAGURA V5 n’est pas un drone ordinaire. Avec sa longueur de 5,5 mètres et sa largeur de 1,5 mètre, il conjugue discrétion et agilité. Capable d’atteindre une vitesse maximale de 42 nœuds (78 km/h) et doté d’une autonomie de 800 kilomètres, il permet de frapper des cibles situées loin derrière les lignes ennemies.
Son charge explosive de 200 kg en fait une arme redoutable . Équipé de systèmes de navigation avancés, incluant GNSS, systèmes inertiels et technologies visuelles, il peut être piloté manuellement ou fonctionner de manière autonome. De plus, sa capacité de diffusion vidéo en temps réel permet à ses opérateurs d’adapter leurs stratégies au fur et à mesure des opérations.
Depuis son déploiement, le MAGURA V5 a infligé des pertes considérables à la marine russe. Lors de sa dernière mission, il a détruit ou gravement endommagé 15 navires ennemis, dont le Sergey Kotov, un navire de patrouille stratégique de la flotte de la mer Noire. Ce dernier, évalué à 65 millions de dollars (environ 60 millions d’euros), a subi des dommages irréparables au niveau de sa proue, de sa poupe et de ses flancs. 13 membres d’équipage russes ont été tués, 52 autres ont dû être évacués.
Cette attaque, qui a eu lieu dans le détroit de Kertch, reflète une préparation minutieuse. Selon les sources, l’opération a mobilisé plusieurs drones, coordonnés pour maximiser les dégâts infligés au navire russe.
En février 2024, le MAGURA V5 avait déjà coulé deux navires russes majeurs, le Tarantul-III, une corvette lance-missiles, dans la baie de Donuzlavet le Tsezar Kunikov, un navire de débarquement de classe Ropucha, au large d’Alupka.
Ces frappes ciblées ont non seulement réduit les capacités logistiques de la Russie, mais également forcé sa marine à éloigner ses ressources des zones contestées.
L’utilisation de drones kamikazes, tels que le MAGURA V5, redéfinit les règles de la guerre navale. Ces plateformes autonomes allient efficacité, coût réduit et faibles risques humains, offrant une alternative stratégique aux nations confrontées à des adversaires technologiquement supérieurs.
La montée en puissance des drones kamikazes illustre une nouvelle dynamique dans les conflits modernes. Ces appareils permettent à des nations technologiquement modestes de compenser des désavantages stratégiques par l’innovation. L’Ukraine, en particulier, a démontré que des tactiques asymétriques bien pensées pouvaient neutraliser des forces considérées comme supérieures.
Caractéristiques
Détails
Longueur
5,5 mètres
Largeur
1,5 mètre
Vitesse maximale
42 nœuds (78 km/h)
Autonomie
800 kilomètres
Charge explosive
200 kg
Navigation
GNSS, systèmes inertiels, visuels
Alors que les coûts d’acquisition et d’exploitation de ces technologies restent modestes, leur efficacité pourrait inspirer d’autres nations à les adopter.
C’est le cas de la France. Le groupe français Exail vient de présenter à la Ciotat son nouveau drone naval de surface, Drix Océan, dérivé de son best-seller Drix. Avec cet engin de 16 mètres, capable de naviguer par gros temps et d’atteindre 6.500 km d’autonomie, le Drix Océan vise à la fois le marché civil et le marché militaire.
Le premier consiste à réussir la montée en cadence de la fabrication de fusées pour atteindre le rythme de neuf à dix par an à l’horizon 2027, soit deux fois plus qu’Ariane-5, tout en abaissant les coûts.
Cela passe par un « changement d’état d’esprit au sein d’une industrie habituée à travailler en mode “fabrication de prototypes” plutôt qu’en filière industrielle », expliquait le président exécutif d’ArianeGroup, Martin Sion, dans un entretien au Figaro, le 7 novembre. SpaceX fait une « vraie industrialisation, là où nous sommes dans la haute couture »,confiait au Monde, en juillet, Eva Berneke, la directrice générale d’Eutelsat, en ajoutant : « La vraie question est de savoir si nous serons capables d’industrialiser la chaîne spatiale en Europe pour produire des milliers de satellites tout en restant compétitifs. »
Sur le plan de l’innovation technologique, l’ouverture à la concurrence avec le développement de jeunes entreprises innovantes est une opportunité à ne pas manquer. Elle se fait lentement, alors que les Etats-Unis ont plus de dix ans d’avance. « On revient dans la course, on investit dans de nouveaux programmes, selon Philippe Baptiste, PDG du Centre national d’études spatiales, le 25 octobre, lors d’un entretien à l’Institut français des relations internationales (IFRI). La France finance quatre entreprises en train de construire de nouveaux lanceurs. »
En Allemagne et en Espagne, les projets privés avancent aussi. Pour la première fois, l’Agence spatiale européenne (ESA) a ouvert en 2023 à la compétition le choix du futur petit lanceur. Conforter sa souveraineté
Ce passage de la politique spatiale du monopole à la compétition est un premier pas. Sa réussite suppose un nouveau cadre de coopération abandonnant la clause pénalisante du « retour géographique », qui attribue des activités aux pays en fonction de leur participation financière et non de leur compétence. Cela passe aussi par une entente entre les pays européens, et par la clarification des pouvoirs de décision entre la Commission européenne et l’ESA.
La future constellation de satellites IRIS² devrait favoriser cette transformation. Lancée par la Commission européenne en 2022, elle vise à doter l’Europe de son propre réseau Internet sécurisé pour ses opérations de défense et de télécommunications. L’accord de concession a été signé le 16 décembre avec le consortium SpaceRISE regroupant les opérateurs de satellites français Eutelsat, luxembourgeois SES et espagnol Hispasat, en vue d’une une mise en service vers 2030. Ce contrat est aussi bien venu pour Airbus et Thales Alenia Space, le besoin en gros satellites qu’ils fabriquent s’étant effondré depuis que Starlink s’est imposé.
Au plan militaire, cela permettra aux Européens de ne pas dépendre des constellations de satellites américaines telles que celles d’Elon Musk qu’il utilise selon son bon vouloir, comme l’ont montré ses interventions récentes dans la guerre menée par la Russie en Ukraine. Son entrée à la Maison Blanche aux côtés de Donald Trump, en janvier, ne fait qu’ajouter aux incertitudes. D’où l’impératif pour l’Europe d’assurer sa souveraineté politique et militaire, , comme elle l’a fait avec Galileo face au GPS américain ou en se dotant de son propre programme d’observation de la Terre, Copernicus.
Qui parlera au nom de l’Europe dans le spatial ?
Il reste que contrairement aux Etats-Unis où la Nasa et la Darpa ont toujours été étroitement associées aux réflexions et aux décisions de la Maison Blanche, aucune autorité n’existe en Europe qui soit indiscutablement capable de s’imposer aux Etats membres concernant les décisions qu’ils prennent et prendront dans le domaine spatial, tant au plan civil que militaire.
Face à la Chine, qui est la grande puissance spatiale avec laquelle les Etats européens seront obligés à l’avenir, soit de collaborer, soit de se confronter, la question se pose déjà. On se souvient qu’il y a 6 mois, une sonde chinoise s’était posée sur la face cachée de la Lune pour y ramasser deux kilos de sol lunaire afin de les envoyer sur Terre pour examen.
Qui en Europe aurait pu décider de faire de même, sans passer par la Nasa?
La reconstruction de Mayotte dans un délai de deux ans, comme annoncée par Francois Bayrou, sera compliquée par l’importation et la consommation de « chimique».
« La chimique » est une drogue à base de cannabis de synthèse, importée sur Mayotte via notamment des immigrés clandestins venant des Comores voisines.. Elle est peu chère et agit très rapidement.
Si « la plupart du temps, cette drogue a des effets sédatifs, la consommation de « chimique » peut aussi provoquer chez les usagers des crises avec des symptômes psychiatriques qui s’accompagnent de violence et d’agressivité », a expliqué Agnès Cadet-Tairou, co-auteur de l’étude de l’Observatoire Français des Drogues et des Toxicomanies sur Mayotte. https://www.ofdt.fr/sites/ofdt/files/2024-04/3802-doc_num–explnum_id-27008-.pdf
En raison de l’implantation très diffuse des lieux de vente et de ses conséquences sur les usagers, la « chimique » est devenue un vrai problème de santé publique à Mayotte.
Selon l’étude, la consommation de « chimique » s’est développée à partir de 2010. La première introduction à Mayotte de « chimique » a été le fait d’une personne originaire de métropole et travaillant au Conseil général. Cette personne aurait importé dès 2009 des produits de synthèse pour son usage personnel. « Expérimentant les effets non désirés, en particulier de type délirants, elle apprend progressivement à doser les substances achetées et à en domestiquer l’usage » peut-on lire dans l’étude.
Depuis, l’’étude fait état de plusieurs phases de diffusion de la drogue sur le territoire mahorais avec un élargissement rapide de la consommation fin 2014-2015. A partir de cette date, deux phénomènes sont à observer : d’un côté, une baisse des accidents aigus liés à la consommation de « chimique », de l’autre, une diffusion qui progresse dans la population. L’explication est sans doute à trouver dans l’apparition d’une « chimique du pauvre », autrement dit une drogue pas chère diffusée par l’immigration clandestine qui y trouve une source de revenus importante.
À Mayotte, où environ 100 000 personnes vivent sans-papiers, l’immigration clandestine revient régulièrement au centre des débats. En 2023, le ministre de l’Intérieur de l’époque, Gérald Darmanin, avait lancé l’opération Wuambushu https://fr.wikipedia.org/wiki/Op%C3%A9ration_Wuambushu . Celle-ci visait à détruire l’habitat insalubre et expulser massivement des « étrangers ».
Concernant la destruction le cyclone s’en est chargé. Quant aux étrangers, ils entrent de plus en plus massivement, important avec eux la chimique dont le trafic leur permet de survivre.
L’Institut national de la santé et de la recherche médicale (Inserm) a réalisé une enquête concernant l’évolution de la sexualité des Français. Celle-ci, publiée le 13 novembre 2024 par l’ANRS Maladie infectieuses émergentes, une agence autonome de l’Inserm, est la 4e menée sur le sujet depuis les années 1970. Elle repose sur la collecte des données de 31 518 personnes de 15 à 89 ans. Elle fournit des indicateurs clés permettant d’évaluer la stratégie nationale de santé sexuelle à l’horizon 2030.
On rappellera que de nombreux Etats dans le monde , notamment ceux dominés par la religion musulmane, se refusent à conduire de telles enquêtes en ce qui les concerne.
Le concept de « temps négatif » émerge aujourd’hui comme un sujet de fascination et de débat au sein de la communauté scientifique. Grâce à une expérience révolutionnaire menée par des chercheurs de l’Université de Toronto, cette idée mystérieuse remet en question notre compréhension traditionnelle du temps et de l’énergie dans le domaine de la physique quantique. L’étude, bien que n’ayant pas encore été soumise à une revue par les pairs, suscite déjà intérêt et e controverse. Elle soulève des questions fondamentales sur la nature du temps et les interactions des photons avec la matière.
Le rôle central des photons et de la matière
Les photons, particules de lumière, ont toujours intrigué les scientifiques par leurs interactions complexes avec la matière. Ces interactions, qui incluent l’absorption et la ré-émission par les atomes, sont au cœur des technologies modernes comme les mémoires quantiques et les optiques non linéaires. Lorsqu’un photon traverse un milieu, il est temporairement absorbé par les atomes, atteignant un état d’énergie plus élevé avant de revenir à son état normal.
Traditionnellement, on pensait que les photons suivaient un schéma temporel fixe pour ces processus. Cependant, une équipe de Toronto dirigée par les professeurs Aephraim Steinberg et Daniela Angulo , a découvert que ces durées peuvent être inférieures à zéro, introduisant ainsi le concept de « temps négatif ». Ce terme suggère que les photons n’adhèrent pas nécessairement à une chronologie linéaire, mais opèrent dans un cadre probabiliste, une caractéristique propre à la mécanique quantique.
Cette découverte remet en question les interprétations traditionnelles de la mécanique quantique. En termes classiques, un retard négatif serait impossible, mais la mécanique quantique, avec sa nature probabiliste, permet de tels résultats. Ce phénomène est lié à la dynamique complexe et souvent contre-intuitive des systèmes quantiques où les particules n’obéissent pas toujours à des filières temporelles strictes.
Les implications de cette découverte sont vastes. Elle offre de nouvelles perspectives sur la façon dont la lumière se propage dans les milieux dispersifs.
(Un milieu dispersif est un milieu dans lequel la vitesse de propagation de l’onde dépend de sa longueur d’onde (ou de sa fréquence, cela revient au même)
Ceci pourrait avoir des conséquences importantes pour les technologies photoniques. Les chercheurs soulignent que bien que ces résultats soient encore en phase d’exploration, ils ouvrent la voie à une meilleure compréhension des interactions lumière-matière et des retards de groupe dans les systèmes quantiques.
Les critiques et le débat autour de la notion de temps négatif
Malgré l’enthousiasme suscité par ces découvertes, la notion de « temps négatif » n’est pas sans détracteurs. La physicienne théoricienne allemande Sabine Hossenfelder a critiqué cette interprétation, affirmant que le terme « temps négatif » ne reflète pas réellement ce que les expériences révèlent sur le comportement des photons et les décalages de phase dans un milieu.
Elle soutient que le temps négatif dans cette expérience n’a rien à voir avec le passage du temps, mais est plutôt un moyen de décrire comment les photons traversent un milieu et comment leurs phases changent. Cette critique met en lumière la complexité et la subtilité de la terminologie scientifique, surtout lorsqu’elle est utilisée pour décrire des phénomènes aussi contre-intuitifs.
Néanmoins, les chercheurs de Toronto, notamment Daniela Angulo et Aephraim Steinberg, défendent leur travail en soulignant que leur choix de terminologie, bien que provocateur, stimule un débat plus profond sur la nature des phénomènes quantiques. Ils soutiennent que les retards de groupe négatifs offrent de nouvelles perspectives sur le comportement de la lumière dans les milieux dispersifs, ce qui pourrait avoir des implications importantes pour les technologies quantiques et photoniques.
Expérimentations et observations dans le laboratoire
Pour mener à bien cette étude révolutionnaire, l’équipe a dû optimiser ses configurations expérimentales sur une période de deux ans. Daniela Angulo, chercheuse principale, a joué un rôle crucial dans la mesure des durées d’excitation atomique en utilisant des lasers soigneusement calibrés dans un laboratoire rempli de fils et de dispositifs enveloppés d’aluminium.
La mise en place expérimentale comprenait un faisceau pulsé résonant (signal) et un faisceau continu hors résonance (sonde) contre-propageant à travers un nuage d’atomes froids de 85Rb, de part et d’autre de l’appareil. Cette configuration a permis à l’équipe de tester ses calculs en observant le décalage de phase non linéaire imprimé sur un faisceau de sonde, confirmant les prédictions sur une gamme de paramètres optiques.
Ces observations confirment non seulement les hypothèses théoriques, mais elles démontrent également que les retards de groupe négatifs ne sont pas simplement des curiosités mathématiques, mais des phénomènes observables. De plus, elles montrent que les photons ne transportent aucune information dans ce processus, préservant ainsi l’intégrité de la théorie de la relativité restreinte d’Einstein, ce qui garantit qu’aucune loi physique, telle que la limite de vitesse cosmique, n’est violée.
Alors que le débat sur le temps négatif se poursuit, le travail de l’équipe de Toronto illustre l’esprit d’enquête scientifique. En remettant en question les hypothèses conventionnelle et en repoussant les limites de ce qui est mesurable, ils invitent la communauté scientifique à reconsidérer les concepts sur le temps, la lumière et la mécanique quantique.
Leurs recherches, bien qu’encore à leurs débuts, ouvrent de nouvelles avenues pour étudier les interactions lumière-matière et le rôle des retards de groupe dans les systèmes quantiques. Que le terme « temps négatif » devienne accepté ou non, les idées qu’il représente influenceront probablement la trajectoire de la physique quantique dans les années à venir.
Les chercheurs maintiennent que leur travail aborde des lacunes critiques dans la compréhension de l’interaction de la lumière avec la matière. Ils soutiennent que les retards de groupe négatifs fournissent de nouvelles perspectives sur le comportement de la lumière dans les milieux dispersifs, ce qui pourrait avoir des implications de grande portée pour l’optique quantique et les technologies photoniques.
Ainsi la découverte du phénomène de temps négatif soulève des questions importantes et ouvre de nouvelles voies de recherche. Quels autres mystères la mécanique quantique pourrait-elle encore révéler, et comment ces découvertes pourraient-elles transformer notre compréhension du monde naturel et nos technologies futures ?