Le premier consiste à réussir la montée en cadence de la fabrication de fusées pour atteindre le rythme de neuf à dix par an à l’horizon 2027, soit deux fois plus qu’Ariane-5, tout en abaissant les coûts.
Cela passe par un « changement d’état d’esprit au sein d’une industrie habituée à travailler en mode “fabrication de prototypes” plutôt qu’en filière industrielle », expliquait le président exécutif d’ArianeGroup, Martin Sion, dans un entretien au Figaro, le 7 novembre. SpaceX fait une « vraie industrialisation, là où nous sommes dans la haute couture »,confiait au Monde, en juillet, Eva Berneke, la directrice générale d’Eutelsat, en ajoutant : « La vraie question est de savoir si nous serons capables d’industrialiser la chaîne spatiale en Europe pour produire des milliers de satellites tout en restant compétitifs. »
Sur le plan de l’innovation technologique, l’ouverture à la concurrence avec le développement de jeunes entreprises innovantes est une opportunité à ne pas manquer. Elle se fait lentement, alors que les Etats-Unis ont plus de dix ans d’avance. « On revient dans la course, on investit dans de nouveaux programmes, selon Philippe Baptiste, PDG du Centre national d’études spatiales, le 25 octobre, lors d’un entretien à l’Institut français des relations internationales (IFRI). La France finance quatre entreprises en train de construire de nouveaux lanceurs. »
En Allemagne et en Espagne, les projets privés avancent aussi. Pour la première fois, l’Agence spatiale européenne (ESA) a ouvert en 2023 à la compétition le choix du futur petit lanceur. Conforter sa souveraineté
Ce passage de la politique spatiale du monopole à la compétition est un premier pas. Sa réussite suppose un nouveau cadre de coopération abandonnant la clause pénalisante du « retour géographique », qui attribue des activités aux pays en fonction de leur participation financière et non de leur compétence. Cela passe aussi par une entente entre les pays européens, et par la clarification des pouvoirs de décision entre la Commission européenne et l’ESA.
La future constellation de satellites IRIS² devrait favoriser cette transformation. Lancée par la Commission européenne en 2022, elle vise à doter l’Europe de son propre réseau Internet sécurisé pour ses opérations de défense et de télécommunications. L’accord de concession a été signé le 16 décembre avec le consortium SpaceRISE regroupant les opérateurs de satellites français Eutelsat, luxembourgeois SES et espagnol Hispasat, en vue d’une une mise en service vers 2030. Ce contrat est aussi bien venu pour Airbus et Thales Alenia Space, le besoin en gros satellites qu’ils fabriquent s’étant effondré depuis que Starlink s’est imposé.
Au plan militaire, cela permettra aux Européens de ne pas dépendre des constellations de satellites américaines telles que celles d’Elon Musk qu’il utilise selon son bon vouloir, comme l’ont montré ses interventions récentes dans la guerre menée par la Russie en Ukraine. Son entrée à la Maison Blanche aux côtés de Donald Trump, en janvier, ne fait qu’ajouter aux incertitudes. D’où l’impératif pour l’Europe d’assurer sa souveraineté politique et militaire, , comme elle l’a fait avec Galileo face au GPS américain ou en se dotant de son propre programme d’observation de la Terre, Copernicus.
Qui parlera au nom de l’Europe dans le spatial ?
Il reste que contrairement aux Etats-Unis où la Nasa et la Darpa ont toujours été étroitement associées aux réflexions et aux décisions de la Maison Blanche, aucune autorité n’existe en Europe qui soit indiscutablement capable de s’imposer aux Etats membres concernant les décisions qu’ils prennent et prendront dans le domaine spatial, tant au plan civil que militaire.
Face à la Chine, qui est la grande puissance spatiale avec laquelle les Etats européens seront obligés à l’avenir, soit de collaborer, soit de se confronter, la question se pose déjà. On se souvient qu’il y a 6 mois, une sonde chinoise s’était posée sur la face cachée de la Lune pour y ramasser deux kilos de sol lunaire afin de les envoyer sur Terre pour examen.
Qui en Europe aurait pu décider de faire de même, sans passer par la Nasa?
La reconstruction de Mayotte dans un délai de deux ans, comme annoncée par Francois Bayrou, sera compliquée par l’importation et la consommation de « chimique».
« La chimique » est une drogue à base de cannabis de synthèse, importée sur Mayotte via notamment des immigrés clandestins venant des Comores voisines.. Elle est peu chère et agit très rapidement.
Si « la plupart du temps, cette drogue a des effets sédatifs, la consommation de « chimique » peut aussi provoquer chez les usagers des crises avec des symptômes psychiatriques qui s’accompagnent de violence et d’agressivité », a expliqué Agnès Cadet-Tairou, co-auteur de l’étude de l’Observatoire Français des Drogues et des Toxicomanies sur Mayotte. https://www.ofdt.fr/sites/ofdt/files/2024-04/3802-doc_num–explnum_id-27008-.pdf
En raison de l’implantation très diffuse des lieux de vente et de ses conséquences sur les usagers, la « chimique » est devenue un vrai problème de santé publique à Mayotte.
Selon l’étude, la consommation de « chimique » s’est développée à partir de 2010. La première introduction à Mayotte de « chimique » a été le fait d’une personne originaire de métropole et travaillant au Conseil général. Cette personne aurait importé dès 2009 des produits de synthèse pour son usage personnel. « Expérimentant les effets non désirés, en particulier de type délirants, elle apprend progressivement à doser les substances achetées et à en domestiquer l’usage » peut-on lire dans l’étude.
Depuis, l’’étude fait état de plusieurs phases de diffusion de la drogue sur le territoire mahorais avec un élargissement rapide de la consommation fin 2014-2015. A partir de cette date, deux phénomènes sont à observer : d’un côté, une baisse des accidents aigus liés à la consommation de « chimique », de l’autre, une diffusion qui progresse dans la population. L’explication est sans doute à trouver dans l’apparition d’une « chimique du pauvre », autrement dit une drogue pas chère diffusée par l’immigration clandestine qui y trouve une source de revenus importante.
À Mayotte, où environ 100 000 personnes vivent sans-papiers, l’immigration clandestine revient régulièrement au centre des débats. En 2023, le ministre de l’Intérieur de l’époque, Gérald Darmanin, avait lancé l’opération Wuambushu https://fr.wikipedia.org/wiki/Op%C3%A9ration_Wuambushu . Celle-ci visait à détruire l’habitat insalubre et expulser massivement des « étrangers ».
Concernant la destruction le cyclone s’en est chargé. Quant aux étrangers, ils entrent de plus en plus massivement, important avec eux la chimique dont le trafic leur permet de survivre.
L’Institut national de la santé et de la recherche médicale (Inserm) a réalisé une enquête concernant l’évolution de la sexualité des Français. Celle-ci, publiée le 13 novembre 2024 par l’ANRS Maladie infectieuses émergentes, une agence autonome de l’Inserm, est la 4e menée sur le sujet depuis les années 1970. Elle repose sur la collecte des données de 31 518 personnes de 15 à 89 ans. Elle fournit des indicateurs clés permettant d’évaluer la stratégie nationale de santé sexuelle à l’horizon 2030.
On rappellera que de nombreux Etats dans le monde , notamment ceux dominés par la religion musulmane, se refusent à conduire de telles enquêtes en ce qui les concerne.
Le concept de « temps négatif » émerge aujourd’hui comme un sujet de fascination et de débat au sein de la communauté scientifique. Grâce à une expérience révolutionnaire menée par des chercheurs de l’Université de Toronto, cette idée mystérieuse remet en question notre compréhension traditionnelle du temps et de l’énergie dans le domaine de la physique quantique. L’étude, bien que n’ayant pas encore été soumise à une revue par les pairs, suscite déjà intérêt et e controverse. Elle soulève des questions fondamentales sur la nature du temps et les interactions des photons avec la matière.
Le rôle central des photons et de la matière
Les photons, particules de lumière, ont toujours intrigué les scientifiques par leurs interactions complexes avec la matière. Ces interactions, qui incluent l’absorption et la ré-émission par les atomes, sont au cœur des technologies modernes comme les mémoires quantiques et les optiques non linéaires. Lorsqu’un photon traverse un milieu, il est temporairement absorbé par les atomes, atteignant un état d’énergie plus élevé avant de revenir à son état normal.
Traditionnellement, on pensait que les photons suivaient un schéma temporel fixe pour ces processus. Cependant, une équipe de Toronto dirigée par les professeurs Aephraim Steinberg et Daniela Angulo , a découvert que ces durées peuvent être inférieures à zéro, introduisant ainsi le concept de « temps négatif ». Ce terme suggère que les photons n’adhèrent pas nécessairement à une chronologie linéaire, mais opèrent dans un cadre probabiliste, une caractéristique propre à la mécanique quantique.
Cette découverte remet en question les interprétations traditionnelles de la mécanique quantique. En termes classiques, un retard négatif serait impossible, mais la mécanique quantique, avec sa nature probabiliste, permet de tels résultats. Ce phénomène est lié à la dynamique complexe et souvent contre-intuitive des systèmes quantiques où les particules n’obéissent pas toujours à des filières temporelles strictes.
Les implications de cette découverte sont vastes. Elle offre de nouvelles perspectives sur la façon dont la lumière se propage dans les milieux dispersifs.
(Un milieu dispersif est un milieu dans lequel la vitesse de propagation de l’onde dépend de sa longueur d’onde (ou de sa fréquence, cela revient au même)
Ceci pourrait avoir des conséquences importantes pour les technologies photoniques. Les chercheurs soulignent que bien que ces résultats soient encore en phase d’exploration, ils ouvrent la voie à une meilleure compréhension des interactions lumière-matière et des retards de groupe dans les systèmes quantiques.
Les critiques et le débat autour de la notion de temps négatif
Malgré l’enthousiasme suscité par ces découvertes, la notion de « temps négatif » n’est pas sans détracteurs. La physicienne théoricienne allemande Sabine Hossenfelder a critiqué cette interprétation, affirmant que le terme « temps négatif » ne reflète pas réellement ce que les expériences révèlent sur le comportement des photons et les décalages de phase dans un milieu.
Elle soutient que le temps négatif dans cette expérience n’a rien à voir avec le passage du temps, mais est plutôt un moyen de décrire comment les photons traversent un milieu et comment leurs phases changent. Cette critique met en lumière la complexité et la subtilité de la terminologie scientifique, surtout lorsqu’elle est utilisée pour décrire des phénomènes aussi contre-intuitifs.
Néanmoins, les chercheurs de Toronto, notamment Daniela Angulo et Aephraim Steinberg, défendent leur travail en soulignant que leur choix de terminologie, bien que provocateur, stimule un débat plus profond sur la nature des phénomènes quantiques. Ils soutiennent que les retards de groupe négatifs offrent de nouvelles perspectives sur le comportement de la lumière dans les milieux dispersifs, ce qui pourrait avoir des implications importantes pour les technologies quantiques et photoniques.
Expérimentations et observations dans le laboratoire
Pour mener à bien cette étude révolutionnaire, l’équipe a dû optimiser ses configurations expérimentales sur une période de deux ans. Daniela Angulo, chercheuse principale, a joué un rôle crucial dans la mesure des durées d’excitation atomique en utilisant des lasers soigneusement calibrés dans un laboratoire rempli de fils et de dispositifs enveloppés d’aluminium.
La mise en place expérimentale comprenait un faisceau pulsé résonant (signal) et un faisceau continu hors résonance (sonde) contre-propageant à travers un nuage d’atomes froids de 85Rb, de part et d’autre de l’appareil. Cette configuration a permis à l’équipe de tester ses calculs en observant le décalage de phase non linéaire imprimé sur un faisceau de sonde, confirmant les prédictions sur une gamme de paramètres optiques.
Ces observations confirment non seulement les hypothèses théoriques, mais elles démontrent également que les retards de groupe négatifs ne sont pas simplement des curiosités mathématiques, mais des phénomènes observables. De plus, elles montrent que les photons ne transportent aucune information dans ce processus, préservant ainsi l’intégrité de la théorie de la relativité restreinte d’Einstein, ce qui garantit qu’aucune loi physique, telle que la limite de vitesse cosmique, n’est violée.
Alors que le débat sur le temps négatif se poursuit, le travail de l’équipe de Toronto illustre l’esprit d’enquête scientifique. En remettant en question les hypothèses conventionnelle et en repoussant les limites de ce qui est mesurable, ils invitent la communauté scientifique à reconsidérer les concepts sur le temps, la lumière et la mécanique quantique.
Leurs recherches, bien qu’encore à leurs débuts, ouvrent de nouvelles avenues pour étudier les interactions lumière-matière et le rôle des retards de groupe dans les systèmes quantiques. Que le terme « temps négatif » devienne accepté ou non, les idées qu’il représente influenceront probablement la trajectoire de la physique quantique dans les années à venir.
Les chercheurs maintiennent que leur travail aborde des lacunes critiques dans la compréhension de l’interaction de la lumière avec la matière. Ils soutiennent que les retards de groupe négatifs fournissent de nouvelles perspectives sur le comportement de la lumière dans les milieux dispersifs, ce qui pourrait avoir des implications de grande portée pour l’optique quantique et les technologies photoniques.
Ainsi la découverte du phénomène de temps négatif soulève des questions importantes et ouvre de nouvelles voies de recherche. Quels autres mystères la mécanique quantique pourrait-elle encore révéler, et comment ces découvertes pourraient-elles transformer notre compréhension du monde naturel et nos technologies futures ?
Des scientifiques sud-coréens ont réalisé des micro-robots magnétiques cuboïdes travaillant en essaims comme les fourmis. Ces robots peuvent saisir et transporter des objets faisant plusieurs fois leur taille. Les résultats ont été publiés le 18 décembre 2024 dans le journal Cell PressDevice (voir référence ci-dessous).
Les chercheurs s’inspirent de plus en plus de la manière dont les fourmis travaillent collectivement pour atteindre des objectifs communs, par exemple, pour creuser des souterrains , combler un vide sur un chemin ou se regrouper en radeau pour survivre aux inondations .
Ces microrobots ont remarqué que, comme les fourmis, ils font face à moins d’échecs quand ils travaillent en groupe. Même si certains membres du groupe n’atteignent pas l’objectif, les autres continuent d’exécuter leurs mouvements programmés jusqu’à ce qu’un nombre suffisant d’entre eux y parviennent ».
De tels microrobots seraient très utiles en microchirurgie intracorporelle sur des organes inaccessibles pour la chirurgie classique
Magnetic swarm intelligence of mass-produced, programmable microrobot assemblies for versatile task execution
Configurations of robot assembly are programmed by designing magnetization profiles• Microrobot swarms exhibit distinct features depending on the assembly configurations• Swarm intelligence enables microrobot swarms to execute versatile tasks
________________________________
Battery- and sensor-free actuation of microrobots complicates heterarchical inter-robot communication. Herein, swarm intelligence of magnetically anisotropic microrobots is presented via the programming of magnetic interactions between the microrobots to self-assemble along their longitudinal, intermediate, or horizontal axis. Mass production is implemented through in situ replica molding and magnetization for hundreds of anisotropic microrobots on a single microarray mold. Under a rotating magnetic field, the anisotropic microrobots autonomously engage in local magnetic interactions, forming a swarm with a high aspect ratio, high packing density, or high assembly stiffness. The microrobot swarms are deployed to perform self-climbing, self-throwing over an obstacle, lifting of an obstacle, cargo transportation, wire connection and disconnection, liquid metal shape modification, tube unclogging, and organism guiding. The versatile task execution by mass-produced magnetic microrobots offers insights into high-throughput processing and swarm control of miniaturized robots, expanding the functional capabilities of robot collectives.
Les géographes nomment Doggerland une terre émergée qui au début de l’Holocène il y a 12 000 ans faisait la jonction entre l’actuel Royaume-Uni et le nord de l’Europe. Cette terre est devenue il y a 7 000 ans le Dogger Bank, un grand banc de sable d’une superficie de 17 600 km² encore présent aujourd’hui.
Situé à dix-huit mètres sous la surface de la mer du Nord, le Doggerland est aujourd’hui considéré comme étant un plateau continental submergé. Certaines études passées décrivaient cette terre comme étant à l’époque un lieu de passage, mais pour l’archéologue Vincent Gaffney de l’Université de Bradford (Royaume-Uni), il s’agissait plutôt d’un véritable lieu de vie.
Le Doggerland disposait en effet d’eau, de nourriture et d’autres ressources dont les populations préhistoriques avaient besoin pour survivre. Des os de mammifères (élans, loups, mammouth, etc.) ont été trouvés par des chalutiers au large des côtes britanniques à l’époque victorienne (1837-1901). Par la suite, des archéologues ont retrouvé de nombreux artéfacts préhistoriques sur les plages de la région.
La disparition du Doggerland est probablement due à des mouvements tectoniques locaux ayant entraîne une montée des eaux sur certaines côtes de la Mer du Nord. Mais elle est considérée aujourd’hui comme emblématique de ce qui se produira dans ces régions à la suite du réchauffement climatique
Néanmoins, les Britanniques ont déjà dépêché des navires de guerre sous les ordres du vice admiral Sir David Beatty depuis Scapa Flow dans les Orcades, au nord de l’Écosse, d’où il est plus facile d’empêcher toute incursion allemande en mer du Nord. Grâce à l’interception des communications radio allemandes, les Britanniques sont informés du raid de Hipper.
Le 24 janvier, Beatty et Hipper se rencontrent au large du Dogger Bank, au milieu de la mer du Nord. Hipper, surpris par les Britanniques, ordonne le repli, mais il est vite rattrapé par les navires de guerre de Beatty, plus rapides et plus puissamment armés, qui ouvrent le feu vers 9 heures1. À 9 h 30, le Seydlitz reçoit un obus qui détruit sa tourelle arrière, le bâtiment n’est sauvé que par le noyage du compartiment. Le Blücher est lui aussi fortement endommagé par les obus britanniques. Avec quatre navires encore en course, Beatty pour sa part espère une victoire décisive : le HMS Indomitable est chargé d’achever le Blücher tandis que les trois autres navires doivent poursuivre Hipper.
Mais une erreur de transmission va assurer le salut des survivants allemands : vers onze heures, peu de temps avant de transférer son pavillon sur le Princess Royal, Beatty donne deux ordres successifs par pavillon. Le premier est un changement de cap, « route au nord-est », à la suite de l’observation d’un périscope, qui lui fait craindre un piège sous-marin. Or ce signal n’est pas reçu avant la transmission suivante qui ordonnait d’attaquer l’arrière garde ennemie. Les deux signaux reçus ensemble furent interprétés comme l’ordre d’attaquer l’ennemi dans le nord-est, position où se trouvait le Blücher. Le contre-amiral Archibald Moore envoya donc le Princess Royal, le Tiger et le New Zealand aider l’Indomitable à la destruction du Blücher. Le temps que Beatty embarque sur le Princess Royal et modifie l’ordre, Hipper avait disparu à l’horizon.
De nouveaux opioïdes de synthèse, les nitazènes, circulent actuellement en France sur le marché des drogues illicites. Ils sont particulièrement dangereux, car plus puissants que d’autres opioïdes, avec un risque élevé d’overdose potentiellement mortelle, même à faible dose. Le risque de dépendance associé à ces produits est également plus important.
Compte tenu de ces risques, les autorités ont décidé l’inscription de ces composés sur la liste des stupéfiants : la production, la vente et l’usage sont interdits à partir du 9 juillet 2024.
Ces stupéfiants, difficilement détectables, ont été ajoutés à la liste des produits stupéfiants par l’Agence nationale de sécurité du médicament et des produits de santé (ANSM). Les nitazènes, de la famille des opioïdes de synthèse, sont désormais interdits à « la production, la vente et l’usage ». Cette décision, applicable à partir du 9 juillet, fait suite à la diffusion croissante de cette drogue de synthèse, qui peut être aussi bien utilisée sous forme liquide, en poudre, en comprimé ou encore dans des sprays pour instillation nasale
Les composés chimiques des nitazènes, synthétisés à la fin des années 1950 comme antalgiques, avaient été rapidement retirés de la vente en raison de leur rapport bénéfice/risque trop défavorable. La production, la logistique et le commerce de ces molécules essentiellement fabriquées en Chine, aux effets 500 fois plus forts que ceux de la morphine, sont désormais aux mains de réseaux criminels.
Les nitazènes « peuvent provoquer des overdoses » qui « peuvent survenir brutalement, dans un délai très court après la prise, et entraîner un risque de mort, du fait de leur puissance », met en garde l’ANSM. Les symptômes peuvent notamment prendre la forme de difficultés de respiration, de nausée, de rétrécissement de la pupille et d’une profonde somnolence pouvant entraîner un coma mortel.
Voilà plusieurs mois déjà que les nitazènes alarment les experts. En décembre 2023, un communiqué de l’Association française des centres d’addictovigilance soulignait que ces molécules « réapparaissent sur le marché des substances récréatives en 2019-2020, par exemple aux Etats-Unis, au Canada ou encore en Europe », avant que leur usage devienne alarmant en France au printemps 2023, du fait de leurs risques d’intoxications graves (avec dépression respiratoire et décès) en Occitanie et sur l’île de La Réunion ».
Malgré leurs effets dévastateurs, les nitazènes sont difficiles à repérer. Un dépistage urinaire classique ne suffit pas à les détecter et ils peuvent aussi être masqués par la présence dans le corps d’autres produits, tels que l’héroïne. C’est d’ailleurs souvent à son insu qu’un consommateur peut faire l’expérience de cette drogue recherchée pour ses effets euphorisants, lorsqu’elle est mélangée à d’autres substances.
La volonté de criminaliser l’usage et le trafic des nitazènes au printemps 2024 n’était pas sans raisons, selon l’ANSM. « La consommation de nitazènes pouvant s’inscrire dans un contexte festif, la perspective des vacances d’été mais aussi de l’accueil des Jeux olympiques rend ce sujet particulièrement d’actualité ».
176 morts au Royaume-Uni
L’alerte française fait suite à une communication de l’Office des Nations unies contre la drogue et le crime (ONUDC), le 25 juin, qui s’alarmait de l’expansion des nitazènes et autres fentanyloïdes à l’échelle de la planète. L’ONUDC s’inquiétait du fait que « les consommateurs d’héroïne se tournent vers des opioïdes de synthèse posant de graves risques pour la santé ». Quelques jours plus tôt, le 11 juin, l’Agence de l’Union européenne sur les drogues écrivait dans son rapport annuel qu’« en 2023, les nitazènes ont été associés à une forte augmentation du nombre de décès en Estonie et en Lettonie et à des foyers d’intoxication localisés en France et en Irlande ».
Si la funeste réputation des nitazènes est moins médiatisée que celle du fentanyl, ils constituent déjà des sujets d’inquiétude sanitaires dans plusieurs pays d’Europe, particulièrement au Royaume-Uni, où 176 décès en lien avec l’absorption de cette substance ont été recensés en un peu moins d’une année, selon un décompte de la National Crime Agency révélé fin mai.
Face au danger des nitazènes en France, l’ANSM préconise l’usage de kits de naloxone, un antidote connu notamment pour être aux Etats-Unis le recours de la dernière chance face aux overdoses dues aux fentanyloïdes, qui ont fait plus de 100 000 morts en 2023 à rapprocher des quelques 40.000 tués sur la route dans ce pays..
Criminaliser l’usage
Pour notre part, répétons ce que disent désormais à l’unisson les autorités de santé et de police. Il ne servira à rien de criminaliser la fabrication et la distribution de ces drogues si l’on ne criminalise pas leur consommation- y compris lorsque ce sont des personnalités médiatiques qui se vantent de le faire.-
Des physiciens ont récemment mesuré un temps négatif dans le cadre d’une expérience quantique portant sur la relation photon-atome.
Sur le plan quantique, notre compréhension de la réalité est régulièrement bousculée. Ce monde, rempli de concepts contre-intuitifs, est difficile à appréhender, y compris pour les physiciens. Une récente découverte est venue brouiller les certitudes des chercheurs. Des preuves de l’existence du temps négatif ont été apportées dans une étude quantique sur la relation photon-atome.
À l’origine de cette étude, on trouve la question de l’interaction entre deux particules, les photons et les atomes. « Les photons, c’est-à-dire les particules composant la lumière, sont souvent utilisés comme porteurs d’informations quantiques, mais ils ont le désavantage de ne pas avoir d’interactions entre eux », explique , membre fondateur du Centre pour les Informations Quantiques et le Contrôle Quantique, et professeur à l’université de Toronto. Aephraim Steinberg « Deux photons peuvent croiser leur chemin dans une fibre optique, mais sans que l’un ne réalise la présence de l’autre » « Cette non-interaction entre les photons rend ainsi difficile la création d’un ordinateur ou d’autres systèmes d’informations quantiques ».
Au fur et à mesure des recherches, une solution a néanmoins été trouvée. « Pour créer une interaction, les photons doivent traverser de la matière et entrer en contact avec les atomes, ces particules qui constituent la matière, indique Aephraim Steinberg. La création du laser dans les années 1960 a permis par la suite la conduite d’une étude d’autant plus précise en permettant d’observer l’interaction d’un photon unique entrant en contact avec un nuage d’atomes. Une nouvelle étude menée par Josiah Sinclair,https://scholar.google.ca/citations?user=oTpre8wAAAAJ&hl=en, ancien doctorant à l’université de Toronto, sous la supervision d’Aephraim Steinberg, a cette fois observé que « si le photon entrait dans le nuage d’atomes, et s’il en ressortait, tout en monitorant simultanément ce qui arrivait aux atomes et aux photons qui traversaient le nuage ». L’expérience a été répétée des milliards de fois pour enfin voir émerger deux scénarios : le photon peut traverser le nuage sans rencontrer d’atome sur son chemin, ou bien en rencontrer et être dispersé, ou absorbé, pour être réémis quelques nanosecondes plus tard.
Une fois ces scénarios établis, Sinclair et son équipe ont cherché à savoir quels étaient les effets du passage du photon sur les atomes dans les deux scénarios. « Le résultat nous a surpris Nous pensions que le photon qui ne faisait que traverser le nuage sans être dispersé n’aurait aucun effet sur l’atome. Nous avions tort. »
Les physiciens ont d’abord observé que lorsque le photon envoyé dans le nuage se faisait absorber par l’atome, il provoquait chez ce dernier une forme momentanée d’excitation, un état durant lequel l’atome possède un niveau d’énergie supérieur à son état au repos. En revanche, lorsque le photon n’est pas absorbé, la supposition des chercheurs était que l’atome n’entrait pas dans un état d’excitation au passage du photon. En réalité, « même si l’atome n’est pas dispersé, il peut aussi avoir un effet similaire sur l’atome lorsqu’il est absorbé », souligne Josiah Sinclair. Autrement dit, son passage déclenche également une excitation atomique.
Le temps négatif
Les chercheurs ont ensuite tenté de déterminer la durée d’excitation des atomes ainsi que la durée de la traversée du nuage d’atomes par le photon. Calculer ces durées peut paraître simple, mais leurs mesures sont beaucoup plus complexes qu’il n’y paraît.
Howard M. Wiseman, théoricien, physicien et professeur à l’université de Griffith ( Australie), a publié une théorie qui a permis à Sinclair et à son équipe de développer une description quantique mécanique du système.
Voir référence ci-dessous
Pour l’expliquer, Josiah Sinclair compare cette théorie à l’allégorie de l’horloge du jeu d’échecs. Au début de la partie, « lorsque l’un des deux joueurs entame son tour, il déclenche une horloge qui lorsque le tour est fini, est arrêtée puis redémarrée par le second joueur », avance-t-il. « Cette horloge permet à la fin de la partie de mesurer non seulement la durée totale du jeu, mais aussi la durée de jeu de chacun des deux joueurs. […] De la même manière, dans notre expérience, la mesure de la durée de jeu de chacun des deux joueurs représente les deux scénarios que sont l’absorption du photon par l’atome ou la non-absorption du photon par l’atome. Sur le plan quantique, l’horloge utilisée a en effet besoin de ces deux paramètres pour calculer la durée totale de l’excitation atomique ainsi que la durée de la traversée du nuage par le photon. »
Certains pourraient se demander pourquoi il est besoin de ces deux paramètres pour calculer ces deux durées. La réponse tient au principe de superposition quantique énonçant qu’une particule peut exister en plusieurs états à la fois. Pour le photo considéré ici, ce n’est pas qu’il peut être soit absorbé par l’atome puis réémis, soit ne pas rencontrer d’atome du tout, c’est qu’il peut être les deux à la fois au même moment ! Il est ainsi nécessaire de calculer la durée des deux scénarios pour obtenir une durée totale.
Ce principe a permis de comparer les résultats de la première expérience menée par Sinclair à de nouveaux calculs. « Dans la première expérience, la durée de chaque scénario était plus ou moins équivalente. Un photon absorbé par les atomes prenait le même temps pour traverser le nuage qu’un photon non absorbé .
Puis en modifiant un ensemble de paramètres, « la durée de l’un des scénarios a grandement diminué tandis que l’autre a grandement augmenté », affirme Sinclair. En reprenant l’analogie de l’horloge du jeu d’échecs, si une partie dure une heure, et que la durée de jeu de l’un des joueurs augmente, la durée de jeu de l’autre joueur diminue forcément puisque ce n’est pas la somme des durées qui est modifiée, mais uniquement les paramètres de l’équation.
Cette hypothèse, qui parait logique, a pourtant été mise à rude épreuve. « De nouveaux calculs ont démontré que la durée de l’un des scénarios équivalait à la durée totale de traversée du nuage. Pourtant, dans notre expérience, la durée totale de la traversée n’a pas été modifiée. Par conséquent, cela implique que la durée du second scénario était négative ! »
Le retard de Groupe Group delay
Pour que ce résultat soit considéré comme évident, l’équipe de physiciens devait confirmer cette théorie sur le plan expérimental. Mais comment imaginer un temps négatif sur le plan physique ?
« Il y a eu beaucoup de confusion autour de cette mesure du temps négatif » commente Josiah Sinclair. « Il est important de comprendre que ce que nous avons mesuré n’est en aucun cas la réémission du photon par l’atome avant qu’il ne soit absorbé par ce dernier. Ce que nous avons établi, c’est que nos horloges quantiques ont enregistré un nombre négatif ».
Un phénomène connu depuis déjà une quinzaine d’années démontre que lorsqu’un faisceau de lumière traverse un obstacle, comme un morceau de verre par exemple, la lumière peut être retardée ou au contraire, accélérée. Dans le cas où la lumière est accéléré, ce phénomène donne l’illusion que le faisceau est sorti de l’objet avant même que la lumière n’y soit entrée.
Est-ce que cela signifie que le faisceau a voyagé plus vite que la vitesse de la lumière ? Cela semble pourtant impossible. En physique, la vitesse de la lumière est un sujet étudié depuis l’antiquité. Au 19e siècle, Einstein a d’une certaine manière clos le débat en démontrant à l’aide de sa théorie de la relativité restreinte qu’il est impossible de dépasser la vitesse de la lumière dans un milieu matériel. On considère que sa vitesse atteint environ les 300 000 km/s.
Pour Josiah Sinclair « l’explication de cette mesure de temps négatif n’est pas due au dépassement de la vitesse de la lumière qui est impossible, mais à un autre phénomène appelé délai de groupe, ou group delay en anglais. Ce phénomène implique que la transmission d’une particule ne se fait pas entièrement, mais en partie seulement. » Dans l’expérience de Sinclair, l’absorption du photon par l’atome entraîne l’accélération ou la décélération d’une partie seulement du photon, en laissant derrière, l’autre partie pendant quelques instants, donnant cette illusion de réémission du photon antérieure à son absorption.
Pour expliquer ce phénomène, « demandons-nous d’abord à quel point le photon est retardé ou accéléré par l’atome »,. « Pour cela, nous devons différencier deux mesures, le délai et la durée. Nous savons déjà que le délai peut être négatif. Par exemple, si je voyage vers Paris depuis le Canada et que la durée du vol est estimée à dix heures, mais que j’arrive à Paris en neuf heures, personne ne conclura que j’ai voyagé dans le passé, seulement que j’ai voyagé plus vite. Ainsi, le délai correspond à -1 heure. De la même manière, si le vol est estimé à dix heures, mais que j’arrive à Paris après onze heures de vol, le délai est de +1 heure. La notion de délai peut donc être négative ou positive ».
Dans le monde physique, le délai est directement lié à la durée. « Un vol estimé à dix heures, mais qui durerait une heure de moins verrait son nombre d’heures de vol atteindre les neuf heures. En revanche, dans le monde quantique, les physiciens n’estimaient pas que les notions de délai et de durée étaient liées ». Sinclair explique cela par la rapidité de propagation des informations sur le plan quantique. Le photon peut ne pas prendre de temps à traverser le nuage puisqu’il voyage à la vitesse de la lumière, mais il peut toujours être accéléré ou décéléré par son absorption par l’atome, et ainsi être différé ».
Dans la récente expérience, la durée du voyage du photon est de zéro temps, mais le délai qu’il rencontre peut-être important s’il rencontre un atome, par rapport à un photon qui n’en rencontre pas. « Il s’avère que selon nos observations, la durée de l’excitation atomique est égale au temps de délai du photon pour traverser le nuage d’atomes » commente le chercheur. Ainsi, pour mesurer un temps négatif pour la traversée du nuage par le photon en prenant en compte le principe de superposition quantique, on obtient comme calcul la durée de la traversée du photon qui ne voit pas sa traversée être différée par une absorption par un atome correspondant à une vitesse environnant celle de la lumière, additionnée à la durée de la traversée du photon accéléré par son absorption par un atome et avec un délai négatif. Autrement dit, une mesure nulle plus une mesure négative donne un résultat négatif.
Les chercheurs ont ainsi pu démontrer l’existence du temps négatif à deux reprises : lorsque la durée de l’excitation atomique (délai) est négative, la durée de la traversée du nuage par le photon est aussi négative. Josiah Sinclair et son équipe ont ainsi pu démontrer le lien entre le délai et la durée sur le plan quantique, que le délai soit positif ou négatif.
Ce dernier rappelle néanmoins le principe de retard de groupe, et insiste sur le fait que « rien ne peut voyager plus vite que la lumière ». Pour Daniela Angulo, la doctorante ayant repris les recherches de Josiah Sinclair et ayant confirmé les mesures de Sinclair en modifiant les paramètres expérimentaux, « ce résultat démontre que la théorie du retard de groupe a une plus grande importance que ce que les physiciens pensaient ». La découverte est donc « une importante contribution pour la physique quantique et pourrait être utilisée pour d’autres sujets comme les temps de séjour ou encore les temps de tunnellisation, qui donnent généralement des résultats contraires à l’intuition »
Références
1 How much time does a photon spend as an atomic excitation before being transmitted?
When a pulse of light traverses a material, it incurs a time delay referred to as the group delay. Should the group delay experienced by photons be attributed to the time they spend as atomic excitations? However reasonable this connection may seem, it appears problematic when the frequency of the light is close to the atomic resonance, as the group delay becomes negative in this regime. To address this question, we use the cross-Kerr effect to probe the degree of atomic excitation caused by a resonant transmitted photon, by measuring the phase shift on a separate beam that is weak and off-resonant. Our results, over a range of pulse durations and optical depths, are consistent with the recent theoretical prediction that the mean atomic excitation time caused by a transmitted photon (as measured via the time integral of the observed phase shift) equals the group delay experienced by the light. Specifically, we measure mean atomic excitation times ranging from (−0.82±0.31)τ0 for the most narrowband pulse to (0.54±0.28)τ0 for the most broadband pulse, where τ0 is the non-post-selected excitation time, given by the scattering (absorption) probability multiplied by the atomic lifetime τsp. These results suggest that negative values taken by times such as the group delay have more physical significance than has generally been appreciated.
La grippe aviaire se répand actuellement aux Etats-Unis, faisant craindre qu’elle puisse se transformer en pandémie interhumaine
Le terme de grippe aviaire, aussi connue sous le nom d’influenza aviaire, définit une maladie infectieuse qui touche d’abord et avant tout les oiseaux. Identifiée pour la première fois en Europe, en Italie, il y a plus d’un siècle, la grippe aviaire est une infection provoquée par des virus grippaux de type A. Parmi ces virus, on retrouve plus couramment les sous-types H5, H7 et H9.
Aujourd’hui répandue dans le monde entier, la grippe aviaire est susceptible de toucher toutes les espèces d’oiseaux sauvages et domestiques. Elle constitue une menace dans les élevages de volailles industriels, en raison de sa contagiosité et de sa mortalité élevée (on parle aussi de « peste aviaire »).
La grippe aviaire représente également un danger pour l’homme en raison de la transmission de la grippe aviaire de l’oiseau à l’être humain (transmission de l’oiseau au mammifère).
En 1997, des scientifiques relèvent un premier cas d’infection humaine par la souche ou le virus H5N1 à Hong Kong, coïncidant avec une forte épidémie de grippe aviaire dans la région. À ce jour, la transmission de la grippe aviaire à l’humain implique un contact étroit de l’homme avec des oiseaux contaminés. Il n’existe, pour l’heure, pas de transmission directe de l’humain à l’humain, sauf très rares cas.
Néanmoins, la propagation du virus de la grippe aviaire chez les oiseaux augmente le risque de développement d’un nouveau virus qui pourrait déboucher sur une grippe aviaire transmissible d’homme à homme, et provoquer une pandémie de grippe aviaire chez l’être humain.
Les symptômes de la grippe aviaire chez l’homme apparaissent, en moyenne, entre un et cinq jours après l’exposition à la maladie. Ils se manifestent par : une toux ; un essoufflement ; une montée de fièvre ; l’apparition de douleurs musculaires ; des maux de tête. Dans de plus rares cas, une diarrhée, un mal de gorge, un état de fatigue ou encore une conjonctivite peuvent également être considérés comme des symptômes de la grippe aviaire.
À noter qu’il est possible pour l’homme d’être contaminé par la grippe aviaire sans développer le moindre symptôme.
Dans les cas les plus graves, la grippe aviaire peut entraîner la défaillance de plusieurs organes et conduire au décès du patient.
Référence
New Scientist 14/21 December 2024
Bird flu suddenly got serious in 2024, infecting dozens of people
People in multiple US states tested positive for bird flu this year, raising concerns about the pandemic potential of the virus
A highly infectious type of bird flu began spreading in dairy cows across the US earlier this year, providing the pathogen with one of its best opportunities to date to evolve and more easily infect people.
Infectious disease experts have been concerned about the virus, called H5N1, for decades. Of the more than 900 people worldwide who are known to have caught it since 2003, around half died as a result…
En cosmologie, l’énergie sombre ou énergie noire est une forme d’énergie hypothétique remplissant uniformément tout l’Univers et dotée d’une pression négative, elle se comporte comme une force gravitationnelle répulsive. Ce serait elle qui serait responsable de l’expansion de l’univers.
Ce phénomène voit à grande échelle les objets composant l’Univers (galaxies, amas…) s’éloigner les uns des autres. Cet écartement mutuel, que l’on pourrait prendre pour un mouvement des galaxies dans l’espace, s’interprète en réalité par un gonflement, une dilatation, de l’espace lui-même, les objets célestes étant de ce fait amenés à s’éloigner les uns des autres. On notera qu’à plus petite échelle, l’expansion n’affecte pas la taille des galaxies elles-mêmes, la gravité « intérieure » ayant un effet prédominant.
Pour étudier cette expansion un programme international dit DESI (Dark Energy Spectroscopie Instrumant) a été lancé
DESI est l’un des programmes d’observation du ciel les plus ambitieux qui soit. Il est actuellement en cours de développement mais, une fois opérationnel, il deviendra rapidement le plus grand relevé de données spectroscopiques de galaxies. La cartographie tridimensionnelle que DESI va obtenir présentera un grand intérêt scientifique en elle-même, mais elle deviendra encore plus intéressante lorsqu’elles sera combinées à d’autres données provenant de relevés d’imagerie optique/infrarouge, micro-ondes ou dans le domaine des rayons X.
Le projet DESI cherche à cartographier les structures aux grandes échelles de l’univers sur un très grand volume et sur des époques de l’univers très étendues (ceci étant basé sur la mesure de redshift, ou décalage vers le rouge du spectre de la lumière émise par des objets lointains). Après avoir ciblé plus de 30 millions de galaxies pré-sélectionnées sur près d’un tiers de la voûte céleste, les scientifiques utiliseront les données spectroscopiques de DESI pour construire les cartes tridimensionnelles des structures de l’univers.
Le relevé DESI est basé sur 4 classes principales de galaxies, décrites ci-dessous, des plus proches au plus éloignées de nous.
. DESI va fournir une carte détaillée de l’univers proche en utilisant des galaxies très lumineuses, jusqu’à un redshift de 0,4. Ces objets sont suffisamment lumineux pour être observés lorsque la lune est dans le ciel. Bien que ce soit les objets les plus simples à cibler, ils constituent un grand intérêt car ils permettent de sonder de notre univers récent, où l’accélération de son expansion est la plus forte.
. Puis DESI utilisera les galaxies rouges lumineuses (Luminous Red Galaxies—LRGs). Ce sont les galaxies les plus massives, composées en grande partie d’étoiles en fin de vie. Leur couleur rouge les rendent facile à sélectionner à partir des relevés photométriques de DESI d’images et elles peuvent être observées jusqu’à un redshift de 1.
. L’échantillon le plus important de DESI correspond aux galaxies à raies d’émission (Emission Line Galaxies—ELGs). Ce sont les galaxies plus lointaines et les plus faibles, mais leur production active d’étoiles notamment de jeunes étoiles très chaudes crée une forte émission à des longueurs d’onde bien définies que DESI peut détecter pour des redshifts jusqu’à 1,6.
. Pour aller encore plus loin, DESI va étudier des quasars. Ce sont des galaxies actives avec un trou noir supermassif central. Ce trou noir accrète une très grande quantité de matière qui peut ensuite être éjectée à des vitesses relativistes et qui rayonne. Les quasars brillent bien plus que les étoiles dans les galaxies, permettant à DESI de les détecter jusqu’à un redshift de 3,5 voire plus.
Une autre application importante des quasars est que leur spectre lumineux est altéré lors du trajet de la lumière par les gaz intergalactiques entre le quasar et nous. L’hydrogène neutre contenu dans ces gaz produit une absorption caractéristique à une longueur d’onde précise dans le domaine ultraviolet (121,6 nanomètres). Cette absorption caractéristique est décalée dans le domaine visible par le très grand redshift du gaz en lui-même. Cela produit ce que l’on nomme des forêts Lyman-alpha dans les spectres. Ainsi chaque spectre de quasar renseigne à la fois sur la position de la galaxie active mais aussi sur la quantité de gaz intergalactique le long de la ligne de visée.
Enfin, DESI observera aussi des étoiles dans notre propre galaxie, enrichissant ainsi notre connaissance des abondances des éléments chimiques et de la dynamique gravitationnelle de la Voie Lactée, particulièrement pour l’étude et le rôle de la matière sombre.
Résultats
La première année d’observation du relevé céleste DESI suggère que l’énergie noire, qui accélère l’expansion de l’univers, pourrait avoir varié dans le temps. Un résultat qui défie notre compréhension de l’évolution cosmique et qui suscite tour à tour prudence, enthousiasme et curiosité chez les spécialistes.
Les scientifiques travaillant sur le Dark Energy Spectroscopic Instrument (DESI, instrument spectroscopique pour l’énergie sombre) ont réalisé la plus grande carte en 3D de notre Univers et en ont tiré une mesure de pointe de l’énergie sombre, cause mystérieuse de son expansion accélérée.
DESI a cartographié les galaxies et les quasars avec un niveau de détail sans précédent afin de produire la plus grande carte tridimensionnelle de l’Univers jamais réalisée et mesurer la vitesse à laquelle l’Univers s’est étendu sur les 11 derniers milliards d’années.
C’est la première fois que l’on retrace l’histoire de l’expansion de l’Univers jusqu’à cette période lointaine avec une précision inférieure à 1 %, offrant ainsi un puissant moyen d’étudier la nature de l’énergie sombre.
Avec seulement un an de données, DESI a dépassé toutes les cartes 3D précédentes combinées, issues de 20 ans d’observations, et a confirmé les bases de notre meilleur modèle de l’Univers – avec toutefois des pistes prometteuses à explorer avec plus de données.
Avec le télescope Mayall installé au sommet de l’observatoire Kitt Peak en Arizona, les chercheurs peuvent regarder dans le passé et dérouler l’histoire de l’Univers sur les 11 derniers milliards d’années, alors que l’on estime l’âge de celui-ci à 13,8 milliards d’années.
En effet, en captant la lumière provenant de 5000 galaxies lointaines simultanément, DESI permet de cartographier, avec une cadence inégalée, le cosmos tel qu’il était dans le passé et de retracer son expansion jusqu’à aujourd’hui.
Comprendre comment notre Univers a évolué est lié à l’un des plus grands mystères de la physique : l’énergie sombre, l’ingrédient inconnu qui provoque l’accélération récente de l’expansion de notre Univers.
Pour étudier les effets de l’énergie sombre au cours des 11 derniers milliards d’années, DESI a créé la plus grande carte tridimensionnelle de notre cosmos jamais construite, avec les mesures les plus précises à ce jour. Les chercheurs ont rendu publique l’analyse de leur première année de prise de données dans plusieurs articles publiés aujourd’hui sur arXiv et lors de présentations à la réunion de la Société Américaine de Physique aux États-Unis et aux Rencontres de Moriond en Italie.
« Nous sommes incroyablement fiers des données qui ont produit des résultats de cosmologie de premier plan mondial. Ce sont les premiers résultats issus de la quatrième génération des expériences de mesure de l’énergie sombre », a déclaré Michael Levi, directeur de DESI et scientifique au Laboratoire national Lawrence Berkeley (LBNL) du DoE (Department of Energy), qui gère le projet. « Jusqu’à présent, nous constatons un accord de base avec notre meilleur modèle de l’Univers, mais nous observons également quelques différences potentiellement intéressantes. Celles-ci peuvent ou non disparaître avec plus de données, et nous sommes donc impatients de commencer à analyser bientôt l’ensemble des données de DESI collectées sur trois ans. »
Le modèle principal de l’Univers est connu sous le nom de Lambda-CDM. Il inclut à la fois de la matière interagissant faiblement avec la matière ordinaire, appelée matière noire froide (Cold Dark Matter CDM ) et de l’énergie sombre sous la forme d’une constante fondamentale (Lambda). Tant la matière que l’énergie sombre influencent la façon dont l’Univers s’étend – mais de manière opposée. La matière ordinaire et la matière noire ralentissent l’expansion, tandis que l’énergie sombre l’accélère. Leurs proportions respectives influencent ainsi l’histoire de l’expansion de l’Univers. Ce modèle décrit bien les résultats des expériences précédentes et le comportement de l’Univers au cours du temps.
“Avec les observations très précises de DESI, le modèle Lambda-CDM tient toujours ! Cependant, nous observons des déviations qui pourraient indiquer que l’énergie sombre évolue au cours de l’histoire de l’Univers.” selon Arnaud de Mattia, physicien au Commissariat à l’Energie Atomique et aux Énergies Alternatives (CEA), qui codirige le groupe d’interprétation cosmologique des données de DESI. Avec plus de données, nous améliorerons également nos premiers résultats sur la constante de Hubble (qui mesure la vitesse à laquelle l’Univers s’étend aujourd’hui) et sur la masse de certaines particules appelées neutrinos. “Nous entrons dans un nouvel âge d’or de la cosmologie où nous allons pouvoir préciser la nature de l’énergie sombre et construire une meilleure compréhension de la dynamique de notre Univers.”