Alors que le temps presse pour réduire la dépendance mondiale aux énergies fossiles, l’Arabie saoudite élabore un vaste plan d’investissement visant à accroître la demande pour ses hydrocarbures dans les pays en développement, selon une enquête du Center for Climate Reporting relayée par le Guardian (voir référence ci-dessous)
Le programme de durabilité de la demande pétrolière (ODSP), dirigé par le prince héritier Mohammed ben Salmane, implique de nombreuses organisations telles que le Fonds d’investissement public (PIF) de 700 milliards de dollars, ainsi que Aramco, la plus grande compagnie pétrolière du monde. L’objectif principal en est de « supprimer les obstacles » à l’énergie et aux transports dont souffrent de nombreux pays en développement.
Ainsi l’ODSP souhaite accélérer le développement d’un« transport aérien supersonique » qui, selon le plan, consommerait trois fois plus de carburant que les avions conventionnels.
Outre l’aérien, le projet vise aussi à accroître l’utilisation sur l’ensemble du continent africain d’automobiles et de transports publics dotés de moteurs à explosion alimentés avec des énergies fossiles . Le plan prévoit également de faire usage du fioul lourd et du gaz polluant « pour fournir de l’électricité aux communautés côtières »;
Rappelons que le projet ITER destiné à concrétiser les perspectives de l’énergie nucléaire de fusion est constamment ralenti par le manque de crédits, qu’ils soient publics ou capitalistes privés. Rappelons que le projet ITER destiné à concrétiser les perspectives de l’énergie nucléaire de fusion est constamment ralenti par le manque de crédits, qu’ils soient publics ou privés.
Lors d’une prochaine visite, le Président de la république française ne devrait-il pas solliciter le sémillant MBS pour qu’il verse quelques pétro-dollars dans la caisse d’ITER?
Des chercheurs de l’University College London (UCL) ont proposé une nouvelle théorie unifiant la gravité et la mécanique quantique, tout en préservant la vision classique de l’espace-temps d’Einstein. Cette théorie, si elle s’avère exacte, pourrait modifier notre compréhension de l’Univers.
La physique moderne repose sur deux principes: la théorie quantique, qui régit les particules y compris les plus petites, et la théorie de la relativité générale d’Einstein, expliquant la gravité par la courbure de l’espace-temps. Malheureusement, ces deux théories se contredisent. Pendant longtemps, on a pensé que pour résoudre ce conflit, il fallait modifier la théorie de la gravité d’Einstein pour l’adapter à la théorie quantique.
Le professeur Jonathan Oppenheim de l’UCL propose une approche différente. Sa théorie, présentée dans Physical Review X, suggère que l’espace-temps pourrait rester classique, c’est-à-dire non influencé par la théorie quantique. Cette « théorie post-quantique de la gravité classique » modifie la théorie quantique elle-même et prédit des fluctuations aléatoires et intenses dans l’espace-temps, rendant imprévisible le poids des objets si mesuré avec une extrême précision.
Cf ci-dessous 1
Un autre article, publié dans Nature Communications, explore les implications de cette théorie et propose une expérience pour la tester. Il s’agit de mesurer avec une grande précision le poids d’une masse pour voir si ce dernier fluctue dans le temps. Si les fluctuations observées sont inférieures à celles prédites, la théorie pourrait être remise en question.
Le professeur Oppenheim et ses collègues ont mis au défi les conceptions actuelles sur la gravité et la mécanique quantique. Leur théorie indique que si l’espace-temps est classique, il doit y avoir des fluctuations aléatoires spécifiques dans sa courbure, détectables expérimentalement.
Les implications de cette théorie vont au-delà de la simple compréhension de la gravité. Elle remet en question le besoin du « postulat de mesure » en théorie quantique, affirmant que les superpositions quantiques se localisent naturellement en interagissant avec l’espace-temps classique.
Cette approche innovante pourrait également apporter des éclaircissements sur le problème de l’information des trous noirs en physique quantique et en relativité générale. Cette théorie, si elle est validée par des expériences futures, pourrait donc redéfinir notre vision de l’Univers et de ses lois fondamentales.
The effort to discover a quantum theory of gravity is motivated by the need to reconcile the incompatibility between quantum theory and general relativity. Here, we present an alternative approach by constructing a consistent theory of classical gravity coupled to quantum field theory. The dynamics is linear in the density matrix, completely positive, and trace preserving, and reduces to Einstein’s theory of general relativity in the classical limit. Consequently, the dynamics does not suffer from the pathologies of the semiclassical theory based on expectation values. The assumption that general relativity is classical necessarily modifies the dynamical laws of quantum mechanics; the theory must be fundamentally stochastic in both the metric degrees of freedom and in the quantum matter fields. This breakdown in predictability allows it to evade several no-go theorems purporting to forbid classical quantum interactions. The measurement postulate of quantum mechanics is not needed; the interaction of the quantum degrees of freedom with classical space-time necessarily causes decoherence in the quantum system. We first derive the general form of classical quantum dynamics and consider realizations which have as its limit deterministic classical Hamiltonian evolution. The formalism is then applied to quantum field theory interacting with the classical space-time metric. One can view the classical quantum theory as fundamental or as an effective theory useful for computing the backreaction of quantum fields on geometry. We discuss a number of open questions from the perspective of both viewpoints.
___________________________________________
2 Gravitationally induced decoherence vs space-time diffusion: testing the quantum nature of gravity
We consider two interacting systems when one is treated classically while the other system remains quantum. Consistent dynamics of this coupling has been shown to exist, and explored in the context of treating space-time classically. Here, we prove that any such hybrid dynamics necessarily results in decoherence of the quantum system, and a breakdown in predictability in the classical phase space. We further prove that a trade-off between the rate of this decoherence and the degree of diffusion induced in the classical system is a general feature of all classical quantum dynamics; long coherence times require strong diffusion in phase-space relative to the strength of the coupling. Applying the trade-off relation to gravity, we find a relationship between the strength of gravitationally-induced decoherence versus diffusion of the metric and its conjugate momenta. This provides an experimental signature of theories in which gravity is fundamentally classical. Bounds on decoherence rates arising from current interferometry experiments, combined with precision measurements of mass, place significant restrictions on theories where Einstein’s classical theory of gravity interacts with quantum matter. We find that part of the parameter space of such theories are already squeezed out, and provide figures of merit which can be used in future mass measurements and interference experiments.
Poursuivre le renforcement des contrôles aux frontières extérieures de l’Union européenne (UE)
Œuvrer dans le sens d’une plus grande solidarité
Agir sur les flux au niveau européen et sur la scène internationale
Ces actions s’imposent. Ce n’est pas le lieu ici d’écrire le contraire. Encore faudra-t-il que l’Europe (Union européenne ? Tous Etats européens sans distinction ?) se donnent les moyens budgétaire et matériels pour les mener à bien.
– Ainsi, le renforcement des frontières au niveau européen ne pourra pas se limiter à (nous citons )Finaliser la transformation de Frontex en agence européenne des garde-frontières et des garde-côtes. La nouvelle agence doit se saisir immédiatement de ses compétences dans l’évaluation de la solidité des dispositifs des Etats membres de contrôles aux frontières. Elle doit pouvoir disposer, dès les prochains mois, d’une réserve opérationnelle de 1 500 hommes disponible à tout moment ; au total, les effectifs de l’agence devront progressivement augmenter, conformément à l’engagement du Président de la République, pour atteindre à terme 5 000 hommes.
5.000 hommes pour surveiller des milliers de miles de frontières maritimes et 14.000 km de frontières terrestres dont beaucoup sont alpines n’aura guère d’effets. Les migrants, officiels et clandestins, passeront toujours, surtout avec l’aide de milliers de passeurs criminels. Il faudrait des frontières analogues à celles dont s’était dotée l’ex URSS, avec les effectifs d’un quart de l’Armée Rouge, pour espérer y réussir.
– De même « Agir dans le sens d’une grande solidarité » ne pourra pas se traduire par, entre autres, poursuivre les efforts d’installation en Europe des millions de migrants qui décideraient d’y rester. D’ores et déjà, les maires des villes françaises estiment impossible d’augmenter les effectifs des migrants installés dans les banlieues. Dans les communes rurales, l’accueil d’éventuels migrants se fera à coups de fusil, compte tenu du manque d’emploi dont souffrent les autochtones.
– Enfin « Agir sur les flux au niveau européen et sur la scène internationale » supposera notamment d’agir pour augmenter les perspectives d’emploi dans les pays d’origine. Cela fera rire les futurs candidats à l’immigration. Ils ne visent pas à travailler dans leurs pays d’origine, ce qu’ils pourraient faire pour la plupart, mais travailler, ou plutôt chômer en Europe, en bénéficiant des politiques d’assurances sociales qui leur seront offertes.
Les pouvoirs publics européens devraient en fait prendre en compte deux réalités qu’ils ne veulent pas voir.
Pour l’Etat Islamique et autres Daesh, encourager les migrations en Europe de ressortissants des pays africains et moyen-orientaux constitue déjà et constituera de plus en plus un moyen d’introduire des militants islamistes armés échappant à tous les contrôles.
Plus généralement les prévisions en matière de natalité en Afrique montrent que d’ici la fin du siècle l’Afrique sera, compte tenu de son taux de natalité, inévitablement peuplée de 2 milliards d’habitant au lieu du 1,2 milliard actuel. De même, en matière de réchauffement climatique, l’Afrique sera soumise à des flux de désertification comme à des inondations de grande ampleur qui la rendront en grande partie invivable pour sa population autochtone.
Dans ces conditions, que devraient proposer, dès maintenant ou pour le long terme, les pays européens ? A ce jour, nous n’avons pas de réponse
Des scientifiques développent une expérience pour tester si la gravité est quantique – l’une des questions les plus difficiles concernant notre univers.
En mécanique quantique, qui décrit le comportement des atomes et des molécules, les objets se comportent différemment de tout ce que nous savons : ils peuvent être notamment dans une superposition quantique, se trouvant à deux endroits en même temps.
Aujourd’hui, des scientifiques étudient un moyen de déterminer si la gravité fonctionne de cette manière, en faisant léviter des microdiamants dans le vide.
Si la gravité est quantique, elle « emmêlera » les diamants – un phénomène qui lie fortement deux objets d’une manière impossible dans la vie quotidienne.
Cette recherche contribuera à mieux comprendre les trous noirs, le Big Banget l’univers
Expérience de gravité quantique
Les scientifiques développent une expérience pour tester si la gravité est quantique – l’une des questions les plus profondes concernant notre univers.
La relativité générale et la mécanique quantique sont les deux descriptions les plus fondamentales de la nature dont nous disposons. La relativité générale explique la gravité à grande échelle tandis que la mécanique quantique explique le comportement des atomes et des molécules.
Le défi des théories unificatrices
Le problème non résolu le plus important en physique fondamentale est sans doute la manière correcte de réunir ces deux théories – pour déterminer si la gravité opère à un niveau quantique. Même si les travaux théoriques ont proposé de nombreuses possibilités, des expériences sont nécessaires pour bien comprendre le comportement de la gravité.
Un faisceau laser dans le laboratoire de Gavin Morley sonde les propriétés quantiques d’un diamant. Crédit : Gavin Morley
Expérience révolutionnaire du Consortium mondial
Pendant cent ans, les expériences sur la nature quantique de la gravité semblaient hors de portée, mais désormais des scientifiques basés aux universités de Warwick, UCL, Yale (États-Unis), Northwestern (États-Unis) et Groningen (Hollande) vont travailler ensemble pour enquêter sur cette énigme. . Leur nouvelle idée est de faire léviter deux microdiamants dans le vide et de les placer chacun dans une superposition quantique consistant à se trouver à deux endroits en même temps. Ce comportement contre-intuitif est une caractéristique fondamentale de la mécanique quantique.
Le point de vue du professeur Morley sur l’expérience
Chaque diamant peut être considéré comme une version plus petite du chat de Schrödinger. Chercheur principal Professeur Gavin Morley, Département de physique, Université de Warwick, explique : « Le chat de Schrödinger est une expérience de pensée montrant qu’il serait vraiment étrange que les objets du quotidien (et les animaux de compagnie !) puissent se trouver dans une superposition quantique, c’est-à-dire se trouver à deux endroits à la fois. Nous souhaitons tester les limites de cette idée.
« Les atomes et les molécules ont été mis avec succès dans un tel état de superposition, mais nous voulons le faire avec des objets beaucoup plus gros. Nos diamants sont constitués d’un milliard d’atomes ou plus. Pour tester la nature quantique de la gravité, nous rechercherions les interactions entre deux de ces diamants dues à la gravité.
« Si la gravité est quantique, elle serait alors capable d’enchevêtrer les deux diamants. L’intrication est un effet quantique unique dans lequel deux choses sont liées plus fortement que ce qui est possible dans notre vie quotidienne. Par exemple, si deux pièces peuvent être empêtrées, vous constaterez peut-être que chaque fois que vous les lancez, elles atterrissent toutes les deux dans la même direction, même s’il est impossible de savoir à l’avance si elles seront toutes les deux face ou face.
Défis et implications
Il reste encore de nombreux défis à relever pour concrétiser cette idée, sur lesquels l’équipe étudiera au cours du projet. « Par exemple, nous devons éliminer toutes les interactions entre les nanoparticules autres que la gravité, ce qui est incroyablement difficile puisque la gravité est si faible », explique le Dr David Moore, de Université de Yale.
Le professeur Morley, directeur fondateur de Warwick Quantum, une nouvelle initiative interdisciplinaire de recherche sur la technologie quantique, a ajouté : « Pour moi, le problème le plus important en physique à l’heure actuelle est de développer une expérience capable de tester la nature quantique de la gravité. Ce nouveau projet est une accélération dans notre voyage passionnant vers cet objectif.
Points de vue des scientifiques collaborateurs
Le professeur Sougato Bose, UCL, a commenté : « Il est difficile d’exagérer à quel point il serait important pour les physiciens de disposer d’expériences capables de sonder la manière correcte de combiner la mécanique quantique et la relativité générale. Les personnes travaillant sur les théories de la gravité quantique, comme la théorie des cordes, se concentrent généralement sur ce qui se passe aux hautes énergies, à proximité des trous noirs et au Big Bang.
« En revanche, notre travail se situe dans un régime de faible énergie ici même sur Terre, mais il fournirait également des informations inestimables sur si la gravité est quantique. En outre, l’expérience peut être considérée comme la vérification d’une prédiction générique de toute théorie quantique de la gravité aux basses énergies.
Le professeur Anupam Mazumdar, de l’Université de Groningen, ajoute : « En vue de comprendre la nature quantique de la gravité, nous pourrons peut-être tester d’autres aspects de la physique fondamentale, tels que les déviations exotiques de la gravité newtonienne sur de courtes distances. »
« Il s’agit d’une expérience difficile, et ce projet est un pionnier pour relever certains des principaux défis techniques permettant de faire de ces tests des aspects quantiques de la gravité une réalité », déclare Andrew Geraci, professeur agrégé de physique, Université du nord-ouest.
Le projet s’appelle « MAST-QG : Superpositions macroscopiques pour observer la nature quantique de la gravité ».
Aujourd’hui, la dépendance économique des Etats-Unis vis à vis de Taiwan quant à la production de composants informatiques est quasi absolue. Au centre d’une chaîne d’approvisionnement mondiale, Taïwan fabrique 90 % des chips (puces) dehaut rendement de pointe et 65 % de tous les semi-conducteurs utilisés par les industriels de l’informatique et des télécommunications. (En comparaison, la part de la Chine dans les puces est de 5 % et celle des États-Unis n’est que de 10 %). Ainsi la Taiwan Semiconductor Manufacturing Company (TSMC) premier producteur mondial du composant le plus important partout utilisé, depuis les téléphones portables grand public jusqu’aux missiles militaires et leader de l’innovation, approvisionne Apple et la plupart des autres entreprises technologiques américaines.
On peut s’étonner de constater que les autorités américaines paraissent aujourd’hui seulement s’inquiéter de cette dépendance. Quoiqu’il en soit, elles mettent tout en œuvre désormais pour changer le rapport de force. Après avoir présidé à la pose de la première pierre d’une usine de production de puces TSMC de 12 milliards de dollars à Phoenix en 2020, le gouverneur de l’Arizona a annoncé, deux ans plus tard, que « TSMC a achevé la construction de son installation principale ». En août dernier, juste avant que le président Biden ne signe la loi CHIPS and Science Act, d’un montant de 52 milliards de dollars, la secrétaire d’État au commerce, Gina Raimondo, a insisté sur le fait que « notre dépendance à l’égard de Taïwan en matière de puces est indéfendable et dangereuse ».
À peine trois mois plus tard, TSMC utilisait une grande partie de ces fonds fédéraux en investissant 28 milliards de dollars dans une deuxième usine à Phoenix, laquelle, lorsqu’elle ouvrira en 2026, produira ce que le New York Times a appelé « une technologie de fabrication de puces plus sophistiquée – mais pas la plus sophistiquée ». Lors d’une cérémonie à laquelle participait le président Biden en décembre dernier, le PDG d’Apple, Tim Cook, a déclaré : « Il s’agit d’un moment incroyablement important. »
Dans le même temps des projets d’usines de fabrication de puces tout aussi importants sont actuellement lancés par Samsung (Corée du sud) au Texas, Intel dans l’Ohio et Micron Technology dans l’État de New York. Si l’on additionne tous ces projets, les États-Unis ont déjà parcouru la moitié du chemin qui les sépare du « délai minimum de trois ans et de l’investissement de 350 milliards de dollars… nécessaires pour remplacer les sites de fabrication [de puces] taïwanaises, » selon
Pour sa part, la Commission européenne, en 2022, avait averti qu’à la suite de la pandémie de Covid et de la pénurie de composants en ayant résulté , « des puces de contrefaçon non fiables ont commencé à infiltrer les marchés, compromettant ainsi la sécurité et la fiabilité des appareils électroniques ». Auparavant, en juillet 2021, la Commission avait lancé l’Alliance européenne pour les procédés et les technologies de semi-conducteurs https://digital-strategy.ec.europa.eu/fr/policies/alliance-processors-and-semiconductor-technologies
Tous les Etats utilisent la désinformation pour soutenir leurs politiques de guerre psychologique. Les Etats-Unis ne manquent pas de puissants moyens pour ce faire. Au siècle de l’Internet, des services tels que la CIA et la NSA (National Security Agency) ont recruté des milliers d’agents humains, appuyés par des agents informatiques hors pairs, pour espionner le monde entier. Mais les Etats-Unis ne se bornent pas à espionner, ils « influencent » les décideurs comme les médias et les opinions publiques en vue d’obtenir les décisions les plus favorables à leurs intérêt.
Parmi ces « influenceurs » se trouve l’un des plus pernicieux mais des plus mal connus, le Centre d’engagement global (Global Engagement Center ) dépendant du State Department. Celui-ci se présente ainsi ;
« En sa qualité de centre du gouvernement des États-Unis dédié à la lutte contre la désinformation et la propagande étrangères, le Centre d’engagement global (GEC) au département d’État est mandaté pour exposer et contrer les menaces issues d’agents mal intentionnés qui utilisent ces tactiques ».
Parmi ces « agents mal intentionnés » se trouve bien évidemment la Russie. « Dans ce domaine, la Russie demeure une menace majeure. Le département d’Etat collabore avec des partenaires interinstitutionnels et mondiaux pour relever ce défi, le GEC assurant un rôle essentiel pour coordonner ces efforts et contribuer à diriger une réponse mondiale ».
A cet égard le Rapport spécial du GEC daté d’août 2020 Les piliers de l’écosystème de désinformation et de propagande de la Russie vient d’être porté à la connaissance du public. On peut en lire les soixante pages à l’adresse suivante
Une grande partie du rapport consiste à dénoncer les sites dit « proxy » de la Russie. Ce terme désigne un fondé de pouvoir, agissant par procuration (et sans doute rémunéré en conséquence). Il s’agit de
Strategic Culture Foundation New Eastern Outlook, Global Research, News Front SouthFront Geopolitica.ru Katehon
Mais que faire ? Le rapport précise qu’ il existe une opposition à cet écosystème de désinformation et de propagande que la Russie continue de cultiver. Une communauté de lutte contre la désinformation en plein essor, qui comprend des gouvernements, des organisations de la société civile, les milieux universitaires, la presse, le secteur privé et des citoyens du monde entier qui refusent de tolérer ces tactiques est en train de riposter. Ainsi, le département d’État des États-Unis a élaboré ce rapport à titre de contribution à ces efforts conjoints.
Ajoutons que ces sites éditoriaux ne se bornent pas à tenter d’imposer – à supposer qu’ils le fassent – le point de vue de la Russie. Ils comportent des milliers d’articles sur le monde émanant d’auteurs que la presse mainstream américaine se refuse à publier et qui pourtant apportent un regard essentiel.
En Alaska, des traces de pas au même endroit et à la même époque témoignent de la coexistence de deux types de grands dinosaures herbivores. Cette découverte suggère que cette région était une voie de communication entre deux continents au Crétacé supérieur, peu de temps avant la catastrophe.
Les premières ont été attribuées à des hadrosaures, ces grands dinosaures herbivores à bec de canard et à la puissante mâchoire, connus par des fossiles exhumés en Amérique du Nord, en Asie et en Europe. Leurs traces sont nombreuses en Alaska. Les secondes seraient dues à des thérizinosaures le groupe des tyrannosaures) principalement retrouvés en Mongolie.
Mesurant plusieurs mètres de hauteur, ils se tenaient sur leurs pattes arrière. Leurs pattes avant, puissamment musclées et longues de deux mètres, étaient armées de trois griffes de 70 centimètres de longueur, en forme de faux (ce qui leur a valu leur nom, thérizinosaure signifiant reptile faucheur). Considérés comme herbivores, ils s’en servaient peut-être pour couper les branches et les feuilles des végétaux, ou bien pour fouiller le sol comme l’ont suggéré certains auteurs.
La formation Cantwell date du Crétacé supérieur, vers 70 millions d’années avant le présent. C’est donc à cette époque qu’ont marché là des troupeaux d’hadrosaures et de thérizinosaures. Les auteurs de l’étude ne sont pas certains de l’exacte contemporanéité du passage des deux groupes, dont les effectifs ne sont d’ailleurs pas connus. Mais la seule présence de thérizinosaures en Alaska est en soi intéressante car assez rarement documentée alors que c’est au cœur de l’Asie qu’ont surtout été retrouvés des fossiles de ce clade de théropodes.
La proximité des deux traces sur le même socle rocheux est, elle, en revanche, une première dans cette région, comme les auteurs l’expliquent dans un article de Scientific Reports ( dont nous publions ci-dessous les références et le résumé). En Mongolie, des restes ou des traces de ces deux familles ont été trouvées mais c’est la première fois qu’une telle coexistence est démontrée en Alaska et même dans toute l’Amérique du Nord.
Selon les auteurs, cette présence plaide pour la similarité, à l’époque, des écosystèmes entre ce qui est aujourd’hui l’Alaska et le cœur de l’Asie, occupé actuellement par la Mongolie. La région devait être humide et marécageuse. Ce milieu convenait à chacun de ces deux grands herbivores, ce qui suffit à expliquer leur coexistence, rendant inutiles des hypothèses sur des interactions écologiques complexe. À cette époque, concluent-ils, la région, avec le détroit de Bering, devait donc représenter une importante jonction entre l’Amérique et l’Asie pour les dinosaures.
We report details of a unique association of hadrosaur and therizinosaur tracks found in the Late Cretaceous lower Cantwell Formation, Denali National Park, central Alaska Range, Alaska. This rock unit is now well-documented as a source of thousands of fossil footprints of vertebrates such as fishes, pterosaurs, and avialan and non-avialan dinosaurs. The lower Cantwell Formation in this area consists of numerous fining-upward successions of conglomerates and pebbly sandstones, cross-stratified and massive sandstones, interbedded sandstones and siltstones, organic-rich siltstones and shales, and rare, thin, bentonites, typically bounded by thin coal seams, and it contains a diverse fossil flora. We report the first North American co-occurrence of tracks attributable to hadrosaurs and therizinosaurs in the lower Cantwell Formation. Although previously un-reported in North America, this association of hadrosaur and therizinosaur tracks is more characteristic of the correlative Nemegt Formation in central Asia, perhaps suggesting that parameters defining the continental ecosystem of central Asia were also present in this part of Alaska during the Latest Cretaceous.
En 2006, des fossiles d’un théropode de taille moyenne, d’une longueur de crâne estimée à environ 60-70 cm, ont été trouvés dans la carrière Kikak-Tegoseak, dans le district de la côte nord de l’Alaska. Ils ont d’abord été attribués au genre Gorgosaurus puis Albertosaurus Leur préparation dans le Perot Museum of Nature and Science (muséum d’histoire naturelle de Dallas) a permis d’y reconnaître un nouveau genre. Nanuqsaurus a été décrit et nommé par Anthony R. Fiorillo et Ronald S. Tykoski en 2014. L’espèce type est Nanuqsaurus hoglundi.
La longueur totale du Nanuqsaurus est estimée à environ 6 à 7 mètres, soit environ la moitié de celle d’un Tyrannosaurus rex. Il était ainsi un peu plus grand qu’un humain ordinaire en taille, le dépassant d’environ une tête. Sa taille en fait un véritable nain parmi les autres tyrannosauridés apparentés
Nanuqsaurus porte sur sa tête une crête d’une forme caractéristique qui montre que ce carnivore était étroitement apparenté au Tyrannosaurus rex. Un caractère distinctif (autapomorphie) du genre est la présence de deux toutes petites dents à l’avant du dentaire.
Selon les paléontologues, il y a environ 70 millions d’années le nord de l’Alaska faisait partie d’un ancien sous-continent appelé Laramidia et subissait un climat froid et de longues périodes d’obscurité et de lumière, avec des saisons où la nourriture n’était pas facilement disponible. Il est probable que la disponibilité des proies augmentait brusquement pendant l’été mais diminuait durant l’hiver, ne laissant aux prédateurs que peu de nourriture. Fiorillo, dans son étude publiée le 12 mars 2014 dans la revue PLOS ONE, a déclaré que ce manque de nourriture pourrait expliquer la taille anormalement petite de Nanuqsaurus hoglundi, puisqu’un gros animal ne peut survivre avec des ressources limitées.
La forme de son crâne suggère que son cerveau avait une zone particulièrement développée consacrée à l’odorat, ce qui semble indiquer que l’animal se fiait beaucoup aux odeurs pour chasser ses proies, comme Tyrannosaurus rex. Il est probable, en raison de sa taille et du climat, que Nanuqsaurus hoglundi était couvert d’une épaisse couche de plumes de duvet, comme certains autres tyrannosaures.
Sources wikipedia https://fr.wikipedia.org/wiki/Nanuqsaurus Science et Avenir La Recherche. Ces dinosaures qui venaient du froid Joel Ignasse N° 921 Novembre 2023 p.83
Les naines rouges dites aussi M dwarfs sont des étoiles relativement froides, avec des températures de surface de moins de 3600 ° et un spectre d’absorption dominé par l’oxyde de titanium. Ce sont les étoiles les plus fréquentes dans la Voie lactée.Autour d’elles orbitent des planètes de taille moyenne, du diamètre de la Terre à celui de Jupiter.
Aussi la découverte récente dans le visible et l’infra-rouge proche faite par le Pr Miguel Morales, cosmologue à l’Université de Washington et par son équipe d’une planète géante orbitant autourde la naine rouge GJ 3512 est si inhabitulle qu’elle devrait conduire à une remise en cause du processus de formation des planètes
Surveys have shown that super-Earth and Neptune-mass exoplanets are more frequent than gas giants around low-mass stars, as predicted by the core accretion theory of planet formation. We report the discovery of a giant planet around the very-low-mass star GJ 3512, as determined by optical and near-infrared radial-velocity observations. The planet has a minimum mass of 0.46 Jupiter masses, very high for such a small host star, and an eccentric 204-day orbit. Dynamical models show that the high eccentricity is most likely due to planet-planet interactions. We use simulations to demonstrate that the GJ 3512 planetary system challenges generally accepted formation theories, and that it puts constraints on the planet accretion and migration rates. Disk instabilities may be more efficient in forming planets than previously thought.
On dit souvent que c’est Edwin Hubble qui a découvert l’expansion de l’espace, confirmant une prédiction de la théorie de la relativité générale d’Einstein. Mais, en fait, la réalité est un peu différente. Ce que Hubble a fait, c’est montrer clairement qu’il existait une relation de proportionnalité avec une constante entre le décalage spectral vers le rouge des galaxies et leurs distances à la Voie lactée. Pour lui, ce décalage était un simple effet Doppler.
C’est Georges Lemaître qui non seulement avait découvert la loi avec la constante appelée aujourd’hui de Hubble-Lemaître avant Hubble, mais qui avait compris et montré que cette loi était due à l’étirement de la longueur d’onde d’un photon au cours de son voyage vers nos télescopes. Plus ce voyage avait été long, plus l’expansion de l’espace avait eu le temps de cet étirement. On peut montrer également que cette constante, qui est en quelque sorte une mesure de la vitesse d’expansion du cosmos observable, à un moment de son histoire varie dans le temps.
Depuis plusieurs années il y a une tension grandissante, comme disent les cosmologistes, entre cette valeur prédite à partir des données très soigneusement analysées de Planck et la mesure de la constante de Hubble-Lemaître déduite de l’étude des supernovae au cours des derniers milliards d’années. Pour avancer, il faudrait peut-être mieux comprendre la nature de l’accélération de l’expansion et pour cela peut-être faire intervenir une nouvelle physique. Techniquement, il faudrait appel à la physique qui se trouve derrière la constante cosmologique d’Einstein.
D
Un article récemment publié dans Monthly Notices of the Royal Astronomical Society (MNRAS) et dont une version se trouve en accès libre sur arXiv (en voir ci-dessous les références et le résumé) reprend l’idée que notre univers est moins homogène que nous le pensons. Il postule que notre Galaxie se trouve presque au centre d’une zone de sous-densité de matière dans l’Univers (une sorte de bulle de vide comme celles que l’on connaît entrelacées par des filaments de galaxies et d’amas de galaxies), il est possible d’éliminer la tension de Hubble et de réconcilier toutes les observations.
Pour cela les chercheurs font aussi intervenir la théorie Mond https://fr.wikipedia.org/wiki/Th%C3%A9orie_MOND, l’alternative à la théorie de la matière noire qui postule l’existence de particules toujours inobservées sur Terre ou dans l’espace. Mond modifie les lois de la mécanique céleste de Newton, théorie de la gravitation et la loi de la mécanique des particules comprises.
Dans cet article Pavel Kroupa explique que la bulle de sous-densité que lui et ses collègues postulent apparaît avec ce que l’on appelle le Vide KBC – KBC Void ou Local Hole – nommé d’après les astronomes Ryan Keenan, Amy Barger et Lennox Cowie qui l’ont étudié en 2013, Or il se trouve que la Voie lactée n’est pas très loin de son centre. Le contenu de ce vide relatif est attiré par la matière plus densément répartie entourant cette bulle accélère la formation des structures galactiques. Ceci peut donner l’illusion d’une expansion de l’univers
Rappelons que Indranil Banik, Moritz Haslbauer et Pavel Kroupa avaient proposé il y a déjà des années déjà certaines des idées dont il est question aujourd’hui au sein d’un modèle cosmologique basé sur Mond mais aussi une petite composante de matière noire chaude sous la forme de ce que l’on appelle des neutrinos stériles et qui permettait de résoudre plusieurs problèmes du modèle cosmologique standard comme l’existence du Vide KBC et la tension de Hubble
Référence
A simultaneous solution to the Hubble tension and observed bulk flow within 250 h−1 Mpc
The Λ cold dark matter (ΛCDM) standard cosmological model is in severe tension with several cosmological observations. Foremost is the Hubble tension, which exceeds 5σ confidence. Galaxy number counts show the Keenan-Barger-Cowie (KBC) supervoid, a significant underdensity out to 300~Mpc that cannot be reconciled with ΛCDM cosmology. Haslbauer et al. previously showed that a high local Hubble constant arises naturally due to gravitationally driven outflows from the observed KBC supervoid. The main prediction of this model is that peculiar velocities are typically much larger than expected in the ΛCDM framework. This agrees with the recent discovery by Watkins et al. that galaxies in the CosmicFlows-4 catalogue have significantly faster bulk flows than expected in the ΛCDM model on scales of 100−250h−1~Mpc. The rising bulk flow curve is unexpected in standard cosmology, causing 4.8σ tension at 200h−1~Mpc. In this work, we determine what the semi-analytic void model of Haslbauer et al. predicts for the bulk flows on these scales. We find qualitative agreement with the observations, especially if our vantage point is chosen to match the observed bulk flow on a scale of 50h−1~Mpc. This represents a highly non-trivial success of a previously published model that was not constrained by bulk flow measurements, but which was shown to solve the Hubble tension and explain the KBC void consistently with the peculiar velocity of the Local Group. Our results suggest that several cosmological tensions can be simultaneously resolved if structure grows more efficiently than in the ΛCDM paradigm on scales of tens to hundreds of Mpc.
Comments:
Latex, 9 pages, 4 figures. Published in MNRAS in this form
Subjects:
Cosmology and Nongalactic Astrophysics (astro-ph.CO); Astrophysics of Galaxies (astro-ph.GA); General Relativity and Quantum Cosmology (gr-qc)