31/05/2023 A la découverte de la matière noire

Une nouvelle particule pourrait permettre de redéfinir les constantes fondamentales de l’Univers

Repris de

https://www.techno-science.net/actualite/nouvelle-particule-pourrait-redefinir-constantes-fondamentales-univers-N23273.html

Ainsi, des mesures récentes de haute précision en spectroscopie de l’atome d’hydrogène conduisent à un rayon du proton substantiellement différent de celui obtenu par spectroscopie de l’hydrogène muonique où l’électron est remplacé par un muon.

Dans un travail récent, une équipe internationale impliquant des chercheurs du Laboratoire d’Annecy-le-Vieux de physique théorique (LAPTh, CNRS / Université Savoie Mont-Blanc) et du Laboratoire Kastler Brossel (LKB, CNRS / Collège de France / ENS – PSL / Sorbonne Université) a proposé un réexamen des procédures habituelles par lesquelles les valeurs des constantes fondamentales sont extraites des jeux de données expérimentales.

Le modèle standard (MS) de la physique des particules décrit avec précision les interactions fondamentales et le comportement des particules élémentaires. Malgré la découverte du boson de Higgs, le MS reste incomplet, notamment parce qu’il n’explique pas la matière noire, les oscillations de neutrinos et l’absence d’antimatière dans l’univers.

Mais il y a plus grave . Le MS laisse un certain nombre de constantes fondamentales non déterminées, comme par exemple la constante de structure fine, ou le rapport entre la masse de l’électron et celle du proton, qui sont déduites d’une comparaison entre résultats expérimentaux et prédictions théoriques du MS.

La multiplication de telles expériences, pour peu qu’elles sondent des processus indépendants les uns des autres, permet de tester la solidité du MS et de chercher des indices d’une nouvelle physique qui irait au-delà de ce dernier.

Références

Self-consistent extraction of spectroscopic bounds on light new physics,

C. Delaunay et al., Physical Review Letters, Publié le 24 mars 2023.
Doi:10.1103/PhysRevLett.130.121801

ABSTRACT

Fundamental physical constants are determined from a collection of precision measurements of elementary particles, atoms, and molecules. This is usually done under the assumption of the standard model (SM) of particle physics. Allowing for light new physics (NP) beyond the SM modifies the extraction of fundamental physical constants. Consequently, setting NP bounds using these data, and at the same time assuming the Committee on Data of the International Science Council recommended values for the fundamental physical constants, is not reliable. As we show in this Letter, both SM and NP parameters can be simultaneously determined in a consistent way from a global fit. For light vectors with QED-like couplings, such as the dark photon, we provide a prescription that recovers the degeneracy with the photon in the massless limit and requires calculations only at leading order in the small new physics couplings. At present, the data show tensions partially related to the proton charge radius determination. We show that these can be alleviated by including contributions from a light scalar with flavor nonuniversal

30/05/2023 L’hydrogène vert, ce bel (encore) inconnu

Le terme d’Hindenburg disaster désigne l’incendie qui détruisit complètement le 6 mai 1937 à Manchester Township (Etats-Unis) le ballon dirigeable allemand LZ 129 Hindenburg . Celui-ci était le plus grand et le plus lourd des dirigeables transatlantiques, construit par la Zeppelin Company (Luftschiffbau Zeppelin GmbH) et visant à concurrencer les paquebots sur la traversée de l’Atlantique Nord. Il prit feu en s’amarrant sur son mât d’accostage. L’accident fut responsable de 35 morts (13 passagers et 22 hommes d’équipage) sur les 97 personnes à bord. Il attira l’attention du monde entier sur le caractère explosif de l’hydrogène (dihydrogène) et la nécessité de le remplacer par d’autres gaz, notamment l’hélium, dans les « plus légers que l’air ».

Aujourd’hui l’hydrogène n’a rien perdu de sa dangerosité. Mais ses avantages sont tels que certains lui prédisent de devenir le carburant de demain. Trois grandes méthodes sont prévues pour le produire.

La plus connue est l’électrolyse de l’eau. Elle reste la plus efficace à l’échelle industrielle. La plupart des électrolyseurs sont de type alcalin, utilisant la potasse ou la soude comme électrolyte conducteur. L’électrolyse par membrane échangeuse de proton (PEM) offre une alternative. Elle utilise une membrane polymère qui joue à la fois le rôle de séparateur de gaz et d’électrolyte (voir https://www.hydrogene.discoverthegreentech.com/production-hydrogene/electrolyse/electrolyse-pem/

Selon un rapport de l’ONG International Council on Clean Transportation de 2020, l’électrolyse de l’eau devrait devenir un partenaire idéal des énergies renouvelables, intermittentes par définition. On envisage aussi l’électrolyse de la vapeur d’eau à haute température 700-800°. Un démonstrateur a été récemment installé à Rotterdam par la sociéte Sunfire en collaboration avec le CEA et Engie

Vient ensuite l’extraction de l’hydrogène naturel, qui correspondrait en importance, selon ses promoteurs, à l’extraction du pétrole. La société Natural Hydrogen Energy exploite un premier puits dans le Nebraska. Elle reste discrète à ce sujet, mais selon elle l’enjeu serait aussi important que ceux de l’énergie pétrolière au 20e siècle. En France, plusieurs sites ont été identifiés, notamment dans la région Nouvelle Aquitaine. L’hydrogène naturel s’y trouve souvent associé avec de l’hélium naturel.

Les cellules photoélectrochimiques constitueront une troisième source de production d’hydrogène décarboné. Elles utiliseront de l’énergie solaire recueillie en abondance par des panneaux photovoltaiques afin d’alimenter des photoélectrodes procédant à l’électrolyse de l’eau.

Une quatrième filière qui ne manquera pas de combustible consistera à chauffer des déchets divers ou de la biomasse à 100° dans une atmosphère appauvrie en oxygène. On parle de pyrogazéification. On obtient ainsi du méthane et de l’hydrogène. A Strasbourg le procédé alimente ainsi en hydrogène des bus urbains. Le sous produit est appelé le biochar et permet d’enrichir des sols en carbone.

Dans le même temps un réseau de distribution de l’hydrogène commence à se structurer au plan national entre les zones de consommation et les zones de production. Il pourra utiliser dans un premier temps des canalisations de gaz naturel reconverti.

29/05/2023 L’expansion de l’univers et le Grand Attracteur

Dans les années 1970, tous les astronomes se sont convaincus du fait que l’Univers était en expansion. L’expansion de l’Univers est le nom du phénomène qui voit à grande échelle les objets composant l’Univers, amas de galaxies et galaxies, s’éloigner les uns des autres.

Cet écartement mutuel, que l’on pourrait prendre pour un mouvement des galaxies dans l’espace, s’interprète en réalité par une dilatation de l’espace lui-même, les objets célestes étant de ce fait amenés à s’éloigner les uns des autres. À plus petite échelle, l’expansion n’affecte pas la taille des galaxies elles-mêmes, la gravité  intérieure  ayant un effet prédominant.

L’expansion de l’Univers est la solution théorique trouvée par Alexander Friedmann pour rendre compte du fait que l’Univers ne se soit pas déjà effondré sous l’effet de la gravitation. (wikipedia) Cependant, les astronomes ont commencé à remarquer quelque chose de curieux : il semblait y avoir une vague directionnalité en plus de ce mouvement expansif, comme si toutes les galaxies proches de nous se dirigeaient également vers le même point focal »,

Pour de nombreux astronomes, cette « directionnalité » était liée à des failles dans les observations ou à d’autres facteurs qui contribuaient à une mauvaise interprétation des informations qu’ils recevaient. Mais les télescopes ont continué à améliorer leurs technologies et, vers 1986, la science a pu déterminer que les galaxies les plus proches, y compris la nôtre, se dirigeaient dans une direction commune. un même point focal.

Grâce à ces nouveaux instruments, les astronomes ont pu déterminer, non seulement que nous nous dirigions vers une concentration de matière, mais aussi la vitesse à laquelle nous le faisions. En d’autres termes, ils ont pu établir avec une grande certitude de quoi il s’agissait. Beaucoup hypothèses ont alors été formulées

En ce sens, l’une des principales hypothèses suggère qu’il existe dans l’univers proche une immense structure de matière invisible située dans le superamas de galaxies connu sous le nom de Laniakea. Elle a été nommé le Grand Attracteur. Celui-ci aurait la capacité d’attirer les galaxies dans un rayon d’environ 300 millions d’années-lumière.

Connaître cette structure permettra de comparer comment des processus tels que l’interaction avec la lumière – ou son absence – ou sa densité se produisent dans des structures similaires dans d’autres galaxies de l’univers.

Il y a une autre force très puissante dans l’univers. C’est ce que l’on nomme l’énergie sombre, qui est le contraire complet de la gravité : au lieu d’attirer, elle pousse », explique Sutter.

« C’est pour cette raison que, lorsque nous nous approcherons vraiment du Grand Attracteur dans quelques millions d’années-lumière, cette énergie sombre, dont l’on sait très peu de choses, va avoir un effet sur nous, qui sera très probablement la destruction de tout ce que nous connaissons.

Pour en savoir plus
https://fr.wikipedia.org/wiki/Grand_attracteur

28/05/2023 Les solutons cosmologiques permettront-ils de mieux comprendre le mystère du vide spatial ?

La théorie des cordes décrit d’étranges objets cosmiques, les solutons topologiques, qui ressemblent à de petits trous noirs tels que décrits par la cosmologie. S’ils existaient véritablement, ils pourraient aider à résoudre le paradoxe le plus important soulevé par le concept de trou noir.

Un soluton topologique peut être considéré comme une région de l’espace qui s’enroule sur elle même avant de disparaître. Dans un espace à deux dimensions, elle ressemblerait à un beignet plat percé d’un trou central. Mais elle absorberait la lumière par ce trou central.

Cependant, pour la théorie des cordes, les objets ont un nombre indéfini de dimensions. La « vraie » forme d’un soluton topologique ne peut être décrite dans notre espace à 3 dimensions. Ainsi si la lumière disparaissait dans son trou central, elle ne pourrait le faire complètement. L’observation verrait une lumière de plus affaibli tournant vers son centre. Mais cela ne serait jamais le noir absolu.

Les trois noirs sont difficiles à photographier, tout au moins en ce qui concerne leurs parties centrales, car celles-ci absorbent toute lumière, c’est-à-dire tous les photons. De ce fait elles paraissent noires. Mais elles ne pourraient pas être vides, au sens de « absolument vide », car le concept de vide absolu, peut être comparable à l’espace vide tel qu’il était avant le Big Bang, n’est pas concevable La question était encore restée sans réponse de la part des cosmologistes.

Pour revoir le problème sous un autre angle, on notera que des astronomes de l »Université de Maryland s’intéressent aujourd’hui aux solutons topologiques. Ils ont modélisé la lumière autour d’un soluton topologique et constaté que celle-ci ne se comportait pas comme elle l’aurait fait autour d’un trou noir. Elle rebondissait autour des parois du soluton. Certains photons réussissaient même à s’en échapper, ce qui est impossible dans le cas des trous noirs, en dehors du phénomène différent de l’évaporation du trou noir.

Référence

Imaging topological solitons: The microstructure behind the shadow
https://arxiv.org/abs/2212.06837
Dec 13, 2022

  • Phys.Rev.D 107 (2023) 8, 084042
  • Published: Apr 15, 2023

Pierre HeidmannIbrahima BahEmanuele Berti

We study photon geodesics in topological solitons that have the same asymptotic properties as Schwarzschild black holes. These are coherent states in string theory corresponding to pure deformations of spacetime through the dynamics of compact extra dimensions. We compare these solutions with Schwarzschild black holes by computing null geodesics, deriving Lyapunov exponents, and imaging their geometries as seen by a distant observer. We show that topological solitons are remarkably similar to black holes in apparent size and scattering properties, while being smooth and horizonless. Incoming photons experience very high redshift, inducing phenomenological horizon-like behaviors from the point of view of photon scattering. Thus, they provide a compelling case for real-world gravitational solitons and topological alternatives to black holes from string theory.



26/05/2023 Vers l’ IO (Intelligence organoide)

En juin 2022 un superordinateur a enfin réussi à résoudre un problème équivalant à la puissance d’un cerveau humain. Mais ce dernier ne pèsait que 1,4 kg et n’a consommé que 20 watts d’énergie, alors que le superordinateur occupait 680 m2 et a consommé 21 megawatts d’énergie. Pourquoi ne pas développer une nouvelle forme d’intelligence artificielle biologique pour répondre à ces questions ?

Pour cela des scientifiques de l’Université Johns Hopkins ont commencé à développer en laboratoire de petites structures cellulaires tridimensionnelles constituées de neurones et de cellules de soutien capables de reproduire en partie l’activité cérébrale. Ils les ont nommé des organoides cérébraux. Ils comptent leur envoyer ensuite des signaux électriques par des microélectrodes leur permettant de procéder à des calculs. Les résultats de ceux-ci seront évalués par des programmes d’Intelligence Artifielle et renvoyés aux organoides pour exploitation. De cette façon, les organoides mis en parallèle devraient apprendre à fonctionner aussi efficacement que des cerveaux.

Bertand Pain, de l’Université de Pise, qui supervise ces expériences, est bien conscient qu’il faudra beaucoup de temps pour que les comportements des organoides se rationalisent et s’organisent. Mais n’est-ce pas de cette façon que le cerveau d’un nouveau-né humain, dès les premières heures après la naissance, élimine les neurones en excès et apprend la coopération à ceux qui restent.

Références

Organoid intelligence (OI): the new frontier in biocomputing and intelligence-in-a-dish
Front. Sci.28 Feb 2023 https://www.frontiersin.org/journals/science/articles/10.3389/fsci.2023.1017235

Recent advances in human stem cell-derived brain organoids promise to replicate critical molecular and cellular aspects of learning and memory and possibly aspects of cognition in vitro. Coining the term “organoid intelligence” (OI) to encompass these developments, we present a collaborative program to implement the vision of a multidisciplinary field of OI. This aims to establish OI as a form of genuine biological computing that harnesses brain organoids using scientific and bioengineering advances in an ethically responsible manner. Standardized, 3D, myelinated brain organoids can now be produced with high cell density and enriched levels of glial cells and gene expression critical for learning. Integrated microfluidic perfusion systems can support scalable and durable culturing, and spatiotemporal chemical signaling. Novel 3D microelectrode arrays permit high-resolution spatiotemporal electrophysiological signaling and recording to explore the capacity of brain organoids to recapitulate the molecular mechanisms of learning and memory formation and, ultimately, their computational potential. Technologies that could enable novel biocomputing models via stimulus-response training and organoid-computer interfaces are in development. We envisage complex, networked interfaces whereby brain organoids are connected with real-world sensors and output devices, and ultimately with each other and with sensory organ organoids (e.g. retinal organoids), and are trained using biofeedback, big-data warehousing, and machine learning methods. In parallel, we emphasize an embedded ethics approach to analyze the ethical aspects raised by OI research in an iterative, collaborative manner involving all relevant stakeholders. The many possible applications of this research urge the strategic development of OI as a scientific discipline. We anticipate OI-based biocomputing systems to allow faster decision-making, continuous learning during tasks, and greater energy and data efficiency. Furthermore, the development of “intelligence-in-a-dish” could help elucidate the pathophysiology of devastating developmental and degenerative diseases (such as dementia), potentially aiding the identification of novel therapeutic approaches to address major global unmet needs.
________________________________

Voir aussi
Vers des ordinateurs dopés aux neurones vivants Rémi Quirion, Sciences et Avenir La Recherche Juin 2023

26/05/2023 Neuralink, le cerveau connecté proposé par Elon Musk

Prologue. L’auteur de l’article remercie Titi, qui a débogué son ordinateur en 30 secondes, alors que celui-ci refusait toute intervention depuis le matin

Au printemps 2023, le projet  Neuralink, d’Elon Musk, annoncé en 2019, consiste à implanter à l’intérieur du crâne, au plus près du cerveau de 3 jeunes truies (femelle du porc, choisi pour sa proximité anatomique avec l’homme) un composant électronique (dit puce ou chip) de la taille d’une petite pièce de monnaie. Cette puce pour le moment, mesure 23 mm de diamètre et 8 mm d’épaisseur.

Neuralink conçoit des appareils connectés à implanter dans le cerveau pour communiquer avec les ordinateurs directement par la pensée. Ces appareils doivent d’abord aider à communiquer des personnes paralysées ou souffrant de maladies neurologiques.

L’implant ressemble à une petite pile qui fonctionne avec la technologie Bluetooth pour communiquer avec l’ordinateur. Sa pose doit être facile, a assuré Elon Musk, et surtout « réversible ». Il a expliqué qu’il s’agissait d’une opération très légère, sans passer par l’hôpital et réalisée en moins d’une heure, sans anesthésie générale. L’incision et la pose seront  réalisées par un robot chirurgical de pointe, pensé par Neuralink ,qui ne laisserait qu’une petite cicatrice dans le cuir chevelu et dans la boite crânienne.

La liaison se fera par induction, c’est-à-dire par un transfert d’énergie sans fil, via des ondes électromagnétiques. La puce pourra être rechargée de nuit, grâce à un appareil semblable à un pommeau de douche posé à proximité du crâne. Les recherches vont continuer pour sécuriser le dispositif : la puce connectée doit être protégée contre d’éventuelles perturbations externes et internes et sa communication avec un ordinateur (ou un smartphone) doit être inviolable.

Neuralink a annoncé jeudi 25 mai sur Twitter qu’elle avait reçu l’accord des autorités sanitaires américaines pour tester ses implants cérébraux non plus sur des animaux mais sur des humains. «C’est un premier pas important qui permettra un jour à notre technologie d’aider de nombreuses personnes», a déclaré la société californienne sur son compte Twitter, précisant que «les recrutements pour les essais cliniques ne sont pas encore ouverts.»

Ce projet soulève de nombreuses inquiétudes.

En effet, il pourrait être repris par des Etats ou par des entreprises voulant se donner un avantage compétitif dans la « course à l’homme augmenté » . Cette dernière associera des humains et des robots de plus en plus « intelligents » ou Smartbots.

D’ores et déjà les Smartbots peuvent collaborer avec les humains, travailler à leurs côtés et apprendre de leur comportement. Le nombre et le type de tâches pouvant être automatisées ou complétées par des logiciels, des robots et d’autres machines intelligentes augmentant rapidement, les Smartbots ont la capacité de travailler non seulement manuellement, mais aussi dans des tâches cognitives.

Erik Brynjolfsson et Andrew McAfee, auteurs de «The Second Machine Age», soutiennent que les progrès technologiques ont conduit la culture mondiale à un point d’inflexion comparable à celui provoqué par la révolution industrielle. Selon Gartner, cabinet de recherche en technologies, les logiciels, robots et autres machines intelligentes, occuperont plus d’un emploi sur trois actuellement tenus par des êtres humains d’ici 2025. On connaît par ailleurs l’inquiétude provoquée par ChatGPT https://openai.com/blog/chatgpt

Ceci-dit, tous ces robots et logiciels intelligents ne sont pas à la veille d’être implantés directement dans des cerveaux humains, et moins encore dans la part la plus riche en neurones et en synapses qu’est le cortex supérieur du cerveau.

Elon Musk pourra-t-il espérer avec ses gadgets recâbler les cortex associatifs des cerveaux humains ?

Ils ne sont pas à la veille d’être implantés directement dans des cerveaux humains, et moins encore dans la part la plus riche en neurones et en synapses qu’est le cortex associatif du cerveau.

Si l’on en croit wikipedia en français, le terme de cortex associatif désigne les régions du cerveau impliquées dans des opérations complexes de traitement de l’information. Contrairement à d’autres portions du cortex cérébral comme les aires dites « primaires » (sensorielles ou motrices), le rôle fonctionnel des régions associatives est plus difficile à identifier ; elles sont par exemple impliquées dans les processus cognitifs complexes liés à :

Contrairement à d’autres animaux, la majeure partie du cortex cérébral humain est constitué de cortex associatif, en particulier au niveau des lobes frontaux et pariétaux.

Dans chaque hémisphère cérébral 75 % du tissu cortical constitue le cortex associatif, le reste étant des régions spécialisées, comme les cortex sensoriels et moteurs. Le cortex associatif est aussi appelé « aires associatives », car il est composé de différentes aires, auxquelles on attribue des fonctions différentes. Elles se distinguent des autres aires car elles reçoivent des arrivées de plus d’un système sensoriel, par exemple vision et audition, etc. 

Elles participent donc à la genèse de notre perception du monde, qui intègre sans les décomposer les différentes modalités perceptives. Le cortex associatif permet la formation de nos perceptions qui sont une interprétation de nos sensations, une mise en relation de ces sensations avec notre vécu, nos attentes et nos connaissances.

Le cortex associatif d’un humain contemporain compte environ autant de neurones qu’il y a d’étoiles dans la galaxie. Ce nombre n’est pas significatif, car de nombreuses espèces même plus petites comportent un nombre pratiquement voisin de neurones. Il sera cependant à prendre en compte.

Il est probable que dans quelques dizaines ou centaines d’années, il sera possible de créer ou de régénérer le tissu neural qui compose le cerveau. Ceci aurait des implications importantes pour le traitement de maladies pour lesquelles il n’existe actuellement pas de remède, comme la démence. Mais l’opération risque de ne pas avoir d’effet sur l’intelligence humaine au plan global.

25/05/2023 Augmenter la dette publique française . Les bonnes opportunités ne manqueront pas

Le 2 juin, l’agence de notation Standard and Poor’s doit actualiser son jugement sur la dette de la France. Deviendra-t-il plus difficile pour le pays de se financer si cette dette était jugée un peu moins soutenable ? La dégradation de la note par une autre agence, Fitch, le 28 avril, abaissée à « AA- » avait déjà suscité des messages d’alerte.

Or la dette publique française permet d’emprunter pour financer des dépenses jugées impossibles à éviter. Cela avait été le cas lors des deux dernières guerres mondiales. Elle permet aussi de financer des investissements de long terme dans des secteurs qui se révéleraient productifs.

Cela avait été le cas avec le programme des nationalisations des années 1950. Cela fut aussi le cas avec la mise en place du programme de centrales électro-nucléaires grâce auquel aujourd’hui la France dépend très peu du pétrole et du gaz, contrairement à l’Allemagne.

Aujourd’hui le niveau de la dette résulte de trois phénomènes. Le premier était inévitable. Il s’agissait de faire face aux conséquences de la pandémie due au Covid 19 et aux mesures de confinement généralisé qui avaient été décidées. Mais ce n’était pas le cas de la réforme des retraites ni de la réforme de l’assurance-chômage.

Prises entre autres au prétexte d’égaliser les charges entre catégories de retraités ou entre catégories de personnes sans emploi, ces dernières ont été ressenties comme la volonté de l’actuelle majorité de revenir sur des avantages sociaux acquis depuis un demi-siècle.

Elles ont été aussi ressenties comme la volonté d’affaiblir les organismes publics au profit du secteur privé des assurances et des banques. Ceux-ci, selon des rumeurs difficiles à vérifier, auraient pris en charge clandestinement une partie des dépenses électorales du candidat Macron aux dernières élections présidentielles.

Aujourd’hui, en France, le gouvernent, plutôt qu’affirmer vouloir réduire la dette, devrait présenter un programme d’investissements pluri-annuels qui exigerait lae participation de tous les acteurs publics et privés. Ce devrait être le cas concernant le secteur hospitalier qui courre aujourd’hui à la rupture. Mais ce devrait être le cas aussi des industrieuss ou des secteurs économiques investissant pour la lutte contre le réchauffement climatique et les pertes d’eau. Au delà il faudrait encourager un secteur national capable de concurrencer les GAFA américaines en matière de réseaux téléinformatiques et de contenus numériques, plutôt qu’accepter la domination américaine et bientôt chinoise dans ces secteurs

Faut-il enfin rappeler que les programmes spatials suborbitaux et aussi d’exploration planétaire nécessiteront une présence française accrue, sous la forme notamment d’endettements publics et privés à long terme.

24/05/2023. L’australotitan

Le Gondwana est un supercontinent formé tout à la fin du Néoprotérozoïque (– 600 millions d’années) et qui a commencé à se fracturer au Jurassique (– 160 millions d’années). On distingue le Gondwana du Paléozoïque (appelé aussi Protogondwana) et celui du Mésozoïque. Entre ces deux période, le Gondwana a fait partie du supercontinent Pangée.

La Pangée un supercontinent formé au Carbonifère de la collision de la Laurussia et du Protogondwana et ayant regroupé presque toutes les terres émergées. Il subit une fragmentation en deux temps : au début du Mésozoïque (Trias), l’ouverture de la Téthys, selon un axe Est-Ouest, sépare la Laurasia au nord et le Gondwana au sud ; au Cénozoïque, l’ouverture de l’océan Indien s’accompagne de la migration de la plaque indienne vers le Nord, tandis que l’ouverture de l’Atlantique sud s’accompagne d’une remontée de la plaque arabo-africaine et de la fermeture de la Néo-Téthys, conduisant à la formation de la ceinture alpine.

On doit le concept et le nom de Pangée au météorologue et astronome allemand de l’université de MarbourgAlfred Wegener. Le concept de Pangée apparaît, pour la première fois, dans une publication de 19121,2. Dans son ouvrage intitulé La Genèse des continents et des océans, publié en 1915, il décrit la Pangée comme rassemblant la quasi-totalité des terres émergées, qui a existé de la fin du Carbonifère au début du Permien, il y a 290 millions d’années. Le mot Pangée (Pangäa) apparaît dans l’édition 1920 de sa Genèse.

La théorie de Wegener fut rejetée par les géologues de l’époque. C’est seulement 40 ans plus tard que des géophysiciens démontrèrent que la dérive des continents était due à la tectonique des plaques et que la théorie de Wegener fut vérifiée et admise.

Le Gondwana est un supercontinent plus petit formé tout à la fin du Néoprotérozoïque (– 600 millions d’années) et qui a commencé à se fracturer au Jurassique (– 160 millions d’années). On distingue le Gondwana du Paléozoïque (appelé aussi Protogondwana) et celui du Mésozoïque. Entre les deux, le Gondwana a fait partie du supercontinent Pangée mentionné ci-dessus

L’Australie d’aujourd’hui correspond à l’extrémité sud-ouest de la Pangée. Sa formation est due à la collision des supercontinents Protogondwana et de Laurussia qui eut lieu au début du Carbonifère (orogenèse hercynienne), fermant l’océan Centralien et élevant d’imposantes chaînes de montagnes, dites hercyniennes, allant des Appalaches au massif silésien. À côté, à l’est, dans le creux du croissant formé par la Pangée, se trouve l’océan Téthys.

La formation du supercontinent Pangée a eu des conséquences importantes sur les espèces y vivant, la longueur des côtes, et donc la superficie des eaux côtières qui abritent la majorité des espèces marines, ayant été considérablement réduites. Il s’est ensuivi une importante extinction marine. Enfin, sur terre, l’éloignement des terres de la Pangée centrale (Amérique du NordAmérique du Sud et Afrique) par rapport à la mer a conduit à une forte baisse des précipitations dans ces régions et, donc, à l’expansion de gigantesques déserts.

L’Australie comportait, avant son épisode de désertication, une importante végétation qui avait permis la présence de dinosaures de grande taille, dont les restes fossiles n’apparaissent aujourd’hui que progressivement. La faune australe du Crétacé était en effet dominée par les dinosaures alors que, à cette période, l’Australie et l’Antarctique ne formaient qu’un seul continent relativement isolé du reste du monde.

De nombreux fossiles ont été découverts sur les sites de Dinosaur Cove et de Flat Rocks dans le sud de l’Australie. Dans une étude référencée ci-dessous, des scientifiques décrivent une nouvelle espèce de sauropode gigantesque. Nommé Australotitan cooperensis, ce dinosaure de 30 mètres de long serait le plus grand jamais identifié en Australie.

Son poids aurait de 50 à 70 tonnes, ce qui le classerait parmi les plus lourds des sauropodes. Il serait le seul représentant de cette espèce de dinosaures ayant vécu dans cette région de l’Australie, autour des villes de Queensland et de Winton.

L’Australotitan, comme il a été nommé, vivait dans le Crétacé tardif, entre 96 et 92 millions d’années 

Référence
 PALEONTOLOGY AND EVOLUTIONARY SCIENCE https://peerj.com/articles/11317/
A new giant sauropod, Australotitan cooperensis gen. et sp. nov., from the mid-Cretaceous of Australia
Published June 7, 2021

24/05/2022 France: un réchauffement de 4%

Il est surprenant de constater en France l’indifférence avec laquelle a été accueillie l’information selon laquelle le gouvernement, qui lance mardi 23 mai une consultation publique sur le réchauffement climatique, envisage désormais un scénario à + 4°C d’ici à 2100. 

La France doit « sortir du déni » et se préparer à s’adapter à un réchauffement qui puisse aller jusqu’à 4 °C sur son territoire, a indiqué vendredi 19 mai le ministre de la transition écologique, Christophe Béchu. Jusqu’à présent, les deux premières versions de ce plan, datant de 2011 et 2018, ne prenaient en compte que l’hypothèse des objectifs de l’accord de Paris, visant à limiter le réchauffement de la planète en dessous de 2 °C, et de préférence à 1,5 °C par rapport à la période préindustrielle. Cela représentait une hausse maximale de 3 °C pour la France.

Le gouvernement souhaite prévoir, en plus, un « scénario plus pessimiste » correspondant « à la tendance probable en l’absence de mesures additionnelles ». Dans ce cas, le réchauffement mondial serait de 3 °C, et donc de 4 °C en France métropolitaine. « Tant mieux si on n’arrive pas à 4 °C mais ne pas s’y préparer, c’est exposer nos concitoyens, nos agriculteurs, nos activités économiques à des risques sans leur donner les moyens d’y faire face », avait déclaré dès février, Christophe Béchu sur Europe 1.

Alors que l’année 2022 a été l’année la plus chaude enregistrée en France depuis 1900, les conclusions de rapports et d’avis d’experts climatiques tablant vers un réchauffement plus rapide que prévu se multiplient depuis plusieurs mois.

Selon le dernier rapport du Giec, publié en mars 2023, et passé quasiment inaperçu, les canicules en France pourraient durer jusqu’à deux mois. Certaines zones particulièrement exposées, telles que l’arc méditerranéen, le couloir rhodanien et la vallée de la Garonne, pourraient connaître jusqu’à 90 nuits tropicales par an.

On voit mal concrètement comment se prépareront les Français sans que les pouvoirs publics n’adoptent des mesures quasi dictatoriales. Sinon particuliers et entreprises rejetteront sur les autres le poids des mesures à prendre.

23/05/2022 Une renationalisation complète d’EDF

L’Etat contrôlera « 100% » d’EDF le 8 juin à l’issue de la renationalisation de l’énergéticien, qui a pu aboutir en dépit des contestations des petits actionnaires, a annoncé mardi 23 mai le ministre de l’Economie, Bruno Le Maire, sur RTL« Cela va nous permettre de réaliser dans les meilleures conditions possibles le programme de construction de six nouveaux EPR (réacteurs nucléaires de dernière génération) » et « renforce l’indépendance énergétique du pays »,

L’Etat possédait jusqu’à l’an dernier 84% d’EDF et le gouvernement avait annoncé en juillet 2022 son intention de reprendre le contrôle total du groupe. Le processus a pris des mois de retard sur le calendrier initial du fait du recours des petits porteurs d’EDF qui espéraient obtenir un meilleur prix pour leurs actions .

L’Etat détient à ce jour « au moins 98,04% » des droits de vote, selon un communiqué de l’Autorité des marchés financiers (AMF) publié mardi. « Cela nous permet aussi de fixer des exigences claires à EDF », comme notamment l’augmentation de la production d’électricité nucléaire, a expliqué Bruno Le Maire, au moment où le gaz russe fait défaut. Tout cela doit aussi aboutir au « prix le plus bas possible » pour les clients et « garantir l’unité d’EDF », a-t-il poursuivi.

Faut-il rappeler que la France est devenue une puissance industrielle de taille mondiale du fait du programme de nationalisations entrepris après la Libération par des gouvernements s’inscrivant dans la démarche du Front populaire de 1936, démarche repris par le gaullisme après la Libération.

Le général de Gaulle avait dénoncé dès la débâcle de 1940 la responsabilité des « intérêts particuliers » associés à l’argent, à la puissance financière, économique ou sociale, opposés, à l’intérêt national, lequel ne saurait se confondre, à ses yeux, avec la somme des intérêts particuliers Au contact notamment de la Résistance intérieure, de Gaulle en vient à proposer les « réformes de structures », effectivement mises en place en 1944-1946 lorsqu’il présidait le gouvernement provisoire.

Il s’agissait des premières nationalisations (les Charbonnages du Nord – Pas-de-Calais, Air France, Renault, les banques de dépôt et la Banque de France) et du Plan, réformes interprétées par le patronat comme autant d’atteintes à ses intérêts ou à ses positions. De même, à l’échelle des entreprises (de plus de cent, puis de cinquante salariés), les comités d’entreprise devront mieux équilibrer en matière sociale le pouvoir des actionnaires privés.

Devant l’ampleur des changements techniques et économiques qui s’annoncent dans le cadre de la lutte contre les effets des changements climatiques, de véritables mobilisations ou remobilisations des ressources nationales s’imposent déjà. Elles seront d’autant plus nécessaires que la concurrence impitoyable de la Chine s’imposera.

C’est ce qu’a bien compris le gouvernement français à propos d’EDF. Une renationalisation d’EDF rendra possible l’extension du parc électronucléaire faisant appel à la fission.

Par la suite, celle renationalisation sera encore plus nécessaire quand il s’agira dans les prochaines décennies de passer à la fusion, technologies dans lesquelles la France si elle sait y faire devrait jouer un rôle mondial majeur grâce à son expérience de Cadarache.