09/08/2023. Sur les simulations d’univers

 Simuler l’univers ou son fonctionnement dans un but de recherche scientifique paraît relever d’une tâche impossible, puisque l’on ne sait rien de précis dans ces domaines. Le risque est grand d’encourager des erreurs.

Cependant renoncer à des simulations ne conduirait à rien, sinon encourager les approches mythiques. De plus en plus de chercheurs se lancent dans cette aventure. C’est le cas de Germain Rousseaux de l’Institut Pprime à Poitiers, France, ou de Bill Unruh de l’Université de Vancouver, Canada.

Rousseaux étudie entre autres les trous noirs. Il essaie de comprendre comment tout ce qui s’aventure au delà de « l’horizon des événements » d’un trou noir, disparaîtrait et ne pourrait en ressortir.

Il y a plus d’un million de trous noirs dans la galaxie, néanmoins ils demeurent incompris. Dans les années 1970, Stephen Hawking s’était intéressé aux trous noirs dans la perspective de la mécanique quantique. Celle-ci considère le vide des trous noirs comme n’étant pas vide mais empli de particules et d’antiparticules que ce vide comprime. Les particules échappent au trou noir et se manifestent à l’extérieur comme un rayonnement, dit depuis radiation de Hawking. Mais cette radiation n’avaient pas encore été directement observée.

Ceci vient d’être fait par l’intermédiaire d’une simulation de l’horizon d’un trou noir réalisée par un groupe de chercheurs référencé ci-dessous. En utilisant une chaine d’atomes pour simuler l’horizon des événements d’un trou noir, ils ont pu montrer que la radiation de Hawking existe et se comporte telle que prévue par ce dernier. Celui-ci, mort paralysé peu de temps avant, s’en serait sans aucun doute réjoui

Référence

https://journals.aps.org/prresearch/abstract/10.1103/PhysRevResearch.4.043084

Thermalization by a synthetic horizon

Lotte Mertens, Ali G. Moghaddam, Dmitry Chernyavsky, Corentin Morice, Jeroen van den Brink, and Jasper van Wezel
Phys. Rev. Research 4, 043084 – Published 8 November 2022
Abstract

Synthetic horizons in models for quantum matter provide an alternative route to explore fundamental questions of modern gravitational theory. Here we apply these concepts to the problem of emergence of thermal quantum states in the presence of a horizon, by studying ground-state thermalization due to instantaneous horizon creation in a gravitational setting and its condensed matter analog. By a sudden quench to position-dependent hopping amplitudes in a one-dimensional lattice model, we establish the emergence of a thermal state accompanying the formation of a synthetic horizon. The resulting temperature for long chains is shown to be identical to the corresponding Unruh temperature, provided that the postquench Hamiltonian matches the entanglement Hamiltonian of the prequench system. Based on detailed analysis of the outgoing radiation we formulate the conditions required for the synthetic horizon to behave as a purely thermal source, paving a way to explore this interplay of quantum-mechanical and gravitational aspects experimentally.

08/08/2022 L’Otan et la Russie (selon Dmitry Orlov)

Dmitry Orlov (en russe : Дмитрий Орлов), né en 1962, est un ingénieur et écrivain russo-américain. Ses écrits ont pour sujet le déclin et l’effondrement économique, écologique et politique potentiel aux États-Unis.
Merci à DeDefensa qui a fourni cette référence

L’OTAN n’est pas une organisation défensive (n’oubliez pas que l’URSS a disparu depuis plus de 30 ans), ni une organisation offensive (certes, elle a bombardé la Serbie et quelques autres pays relativement sans défense, mais elle ne peut en aucun cas envisager d’affronter la Russie ou tout autre pays bien armé).

L’OTAN est plutôt un club d’acheteurs captifs d’armes fabriquées aux États-Unis. C’est la raison d’être des normes de l’OTAN, auxquelles l’Ukraine doit se conformer avant d’être jugée digne d’être invitée à rejoindre l’OTAN.

Pour se conformer à ces normes, vos armes doivent être principalement fabriquées aux États-Unis. C’est également la raison de toutes les guerres américains précédentes, de la Serbie à l’Irak en passant par l’Afghanistan, la Libye et la Syrie : il s’agissait de projets de démonstration pour les armes américaines, avec l’objectif supplémentaire d’épuiser les stocks d’armes et les munitions afin que le Pentagone et le reste de l’OTAN soient obligés de se rapprovisionner.

Les justifications géopolitiques de ces conflits militaires ne sont que des rationalisations. Par exemple, entre 1964 et 1973, les États-Unis ont largué plus de 2,5 millions de tonnes de bombes sur le Laos au cours de 580 000 sorties de bombardement, soit un avion chargé de bombes toutes les huit minutes, 24 heures sur 24, pendant neuf ans. Quelle était la logique géopolitique ? Personne ne se souvient même s’il y en a eu une. Mais la durée de ces bombes étaient sur le point d’expirer et elles devaient être utilisées et commandées à nouveau pour que l’argent continue de couler.

L’OTAN a été créée le 4 avril 1949 avec la signature du traité de l’Atlantique Nord, plus connu sous le nom de traité de Washington, dans le but supposé de contrecarrer l’Union soviétique en Europe. L’URSS a réagi en créant l’Organisation du traité de Varsovie (également connue sous le nom de Pacte de Varsovie), une alliance politique et militaire établie le 14 mai 1955 entre l’Union soviétique et plusieurs pays d’Europe de l’Est dans le but de les défendre contre l’OTAN.

Le Pacte de Varsovie a été dissous le 1er juillet 1991 et, peu après, le 26 décembre 1991, l’URSS elle-même l’a été, mais l’OTAN a continué à exister. À ce stade, le Pacte de Varsovie existait depuis un peu moins longtemps que l’OTAN, et l’URSS depuis un peu plus longtemps encore. Il est clair que la menace communiste comme justification de l’existence de l’OTAN n’était qu’une ruse, un écran de fumée… un leurre.

Quel était donc le véritable objectif de l’OTAN ? Il existe de nombreuses façons de répondre à cette question, mais la soudaine déchéance de l’Ukraine offre ce qui est peut-être l’explication la plus explicite.

 Était-ce parce que la guerre s’éternisait dans ce pays ? Non, une combustion lente serait exactement ce que le Pentagone a ordonné, afin d’avoir une chance de suivre le rythme effréné des livraisons d’armes et de munitions de la Russie.

 L’Ukraine était-elle en train de perdre la guerre ? Non, l’Ukraine ne perdait pas, elle ne gagnait pas. En particulier, ses attaques contre les lignes de défense russes, que les troupes russes appelaient «attaques de viande» en raison des pertes énormes et inutiles qu’elles entraînaient du côté ukrainien, semblaient plutôt futiles.

 L’Ukraine était-elle sur le point d’être vaincue ? Là encore, non, les Russes étaient heureux d’avancer de quelques kilomètres ici et là, leur principal objectif étant d’établir une zone tampon suffisamment large pour que l’artillerie ukrainienne cesse de bombarder ce que sont aujourd’hui des quartiers civils russes.

 Est-ce parce que l’OTAN n’avait plus d’armes et de munitions à donner aux Ukrainiens ?

La réponse est complexe. Les armes fabriquées aux États-Unis ont tendance à être excessivement compliquées (pour que leurs fabricants puissent faire payer plus cher les fonctions supplémentaires inutiles) et plutôt fragiles (elles n’ont jamais été testées contre un adversaire de taille comparable à la Russie ou la Chine, ni même contre l’Iran), développées lentement (pour épuiser les fonds de R&D), construites lentement ( pourquoi se presser ?) et nécessitant beaucoup d’entretien (pour que les entreprises de défense américaines puissent s’enrichir encore plus en fournissant des pièces de rechange et des services). Ces armes étaient censées être testées de temps à autre face à des adversaires arriérés armés de vieilles kalachnikovs et de RPG.

C’est l’utilité principale de l’Otan

 

07/08/2023 Bonne efficacité d’une version quantique de la méthode dite de Monte-Carlo

Les domaines sont encore rares où des calculs quantiques se révèlent plus efficaces que les mêmes effectués sur de super-ordinateur classiques. La raison en est que les calculateurs quantiques génèrent beaucoup plus d’erreurs que leurs concurrents classiques. Les bits quantiques ou qu-bits qu’ils utilisent sont si sensibles que même la lumière peut provoquer des erreurs de calcul. Plus les ordinateurs quantiques se développent, plus ce problème s’aggrave.

La chose a des conséquences majeures, car les algorithmes quantiques permettant d’exécuter des applications utiles exigent que les taux d’erreur de leurs qubits soient inférieurs à ceux que l’on constate aujourd’hui. Pour combler cet écart, la correction d’erreur quantique est un élément essentiel.

La correction d’erreur quantique protège les informations en les codant sur plusieurs qubits physiques pour former un « qubit logique ». Elle est considérée comme le seul moyen de produire un ordinateur quantique à grande échelle avec des taux d’erreur suffisamment faibles pour des calculs utiles. Au lieu de calculer sur les qubits individuels, l’on calcule sur des qubits logiques. En codant un nombre plus important des qubits physiques d’un processeur quantique en un seul qubit logique, on peut espérer réduire les taux d’erreur. Cette réduction du taux d’erreurs permet d’utiliser des algorithmes quantiques utiles.

Il existe donc aujourd’hui une course pour la production d’algorithmes quantiques utilisables. Ainsi les scientifiques de Google ont publié le 22 février, dans la revue Nature, des recherches attestant le passage d’une étape clé dans leur chemin vers la fabrication d’un calculateur quantique utilisable polyvalent : la mise au point d’un code de correction d’erreur efficace. 

Voir Google’s quantum computer hits key milestone by reducing errors Researchers demonstrate for the first time that using more qubits can lower error rate of quantum calculations. https://www.nature.com/articles/d41586-023-00536-w

Plus récemment, des scientifiques ont publié un article dans Nature, dont on trouve ci-dessous les références et l’abstract. Ils montrent qu’un ordinateur quantique est aussi efficace qu’un ordinateur ordinaire pour utiliser la Méthode Monte-Carlo.

Une méthode de Monte-Carlo, ou méthode Monte-Carlo, est une méthode algorithmique visant à calculer une valeur numérique approchée en employant des procédés aléatoires, c’est-à-dire des techniques probabilistes.

Les méthodes de Monte-Carlo sont particulièrement utilisées pour calculer des intégrales en dimensions plus grandes que 1 (en particulier, pour calculer des surfaces et des volumes). Elles sont également couramment utilisées en physique des particules, où des simulations probabilistes permettent d’estimer la forme d’un signal ou la sensibilité d’un détecteur. La comparaison des données mesurées à ces simulations peut permettre de mettre en évidence des caractéristiques inattendues, par exemple de nouvelles particules.

Les méthodes de Monte-Carlo permettent aussi d’introduire une approche statistique du risque dans une décision financière. Elle consiste à isoler des variables-clés d’un projet, telles que le chiffre d’affaires ou la marge, et à leur affecter une distribution de probabilités. Pour chacun de ces facteurs, un grand nombre de tirages aléatoires est effectué dans les distributions de probabilité déterminées précédemment, afin de trouver la probabilité d’occurrence de chacun des résultats. À titre d’exemple, le choix de mode de gestion d’une collectivité territoriale dans le cadre d’un partenariat public-privé (PPP) s’analyse par la méthode de Monte-Carlo, afin de prendre en compte la répartition des risques entre acteurs publics et privés. On parle alors de « risques valorisés » ou « valeurs à risque ».

Pour en savoir plus, voir

 12 July 2023
Quantum-enhanced Markov chain Monte Carlo

Nature 
volume619
pages 282–287 (2023)

Abstract

Quantum computers promise to solve certain computational problems much faster than classical computers. However, current quantum processors are limited by their modest size and appreciable error rates. Recent efforts to demonstrate quantum speedups have therefore focused on problems that are both classically hard and naturally suited to current quantum hardware, such as sampling from complicated—although not explicitly useful—probability distributions1,2,3. Here we introduce and experimentally demonstrate a quantum algorithm that is similarly well suited to current hardware, but which samples from complicated distributions arising in several applications. The algorithm performs Markov chain Monte Carlo (MCMC), a prominent iterative technique4, to sample from the Boltzmann distribution of classical Ising models. Unlike most near-term quantum algorithms, ours provably converges to the correct distribution, despite being hard to simulate classically. But like most MCMC algorithms, its convergence rate is difficult to establish theoretically, so we instead analysed it through both experiments and simulations. In experiments, our quantum algorithm converged in fewer iterations than common classical MCMC alternatives, suggesting unusual robustness to noise. In simulations, we observed a polynomial speedup between cubic and quartic over such alternatives. This empirical speedup, should it persist to larger scales, could ease computational bottlenecks posed by this sampling problem in machine learning5, statistical physics6 and optimization7. This algorithm therefore opens a new path for quantum computers to solve useful—not merely difficult—sampling problems.

06/08/2023 Comment évaluer l’état de conscience

Ce blessé, ce malade est-il conscient ? Les médecins et soignants se posent régulièrement la question quand ils sont appelés à traiter des personnes en état végétatif. Il est important de savoir si une personne présentant une apparence de perte de conscience conserve un minimum de jugement. La façon dont le personnel de santé se comportera avec elle sera très différente dans un cas ou dans l’autre. La question se pose également face à des délirants non pathologiques, nombreux dans les EPHAD (établissements de retraite) .

Pour répondre à cette question, fondamentale afin de mieux comprendre le fonctionnement du cerveau, le neuroscientifique Giulio Tononi avait en 2004 à l’Université de Madison (Etats-Unis) proposé une Théorie de l’Information Intégrée ou ITT. Celle-ci semble reposer sur une évidence : une entité produit plus d’information (autrement dit en ce cas un plus haut niveau de conscience) quand ses composantes sont intégrées plutôt que lorsqu’elles travaillent indépendamment les unes des autres. Autrement dit, le tout est plus grand que ses parties. Ce principe concernant les cerveaux peut s’appliquer très généralement, que ce soit dans les ordinateurs ou dans les médias d’information.

L’ITT pense pouvoir en conséquence calculer une valeur mathématique définissant le niveau de conscience, dit phi. Mais le faire suppose un grand nombre de calculs et de points d’interaction (nodes).

Aujourd’hui phi serait calculable pour un système ne présentant pas plus que dix nodes. Si les 86 milliards de neurones du cerveau humains étaient considérés chacun comme un node, le calcul serait impossible.

Pour faire face à cette difficulté, des chercheurs de l’Université du Western Ontario (Canada) ont calculé des versions simplifiés de phi s’appliquant à de petites aires du cerveau bien définies considérées comme des nodes. Ceci a été fait chez 17 personnes ayant accepté à l’initiative de Giulio Tononi des scans du cerveau par fMRI et présentant des états de conscience différents, de l’éveil jusqu’au sommeil artificiel.

https://en.wikipedia.org/wiki/Functional_magnetic_resonance_imaging

Comme il fallait s’y attendre, les aires de l’attention fronto pariétales et dorsales montrèrent une activité décroissante depuis l’éveil jusqu’à une anesthésie profonde. Les autres aires ont manifesté des activités variables que l’on pourrait interpréter comme des états de conscience intermittents et plus ou moins prononcés. Ceci confirme la constatation que des flashs de conscience peuvent toujours se produire chez un malade ou un vieillard ayant, selon l’expression, perdu la boule.

Référence

nature  

  1. communications biology  
  2. articles  

An implementation of integrated information theory in resting-state fMRI

An implementation of integrated information theory in resting-state fMRI

Communications Biology 

volume6, Article number: 692 (2023) 

Abstract

Integrated Information Theory was developed to explain and quantify consciousness, arguing that conscious systems consist of elements that are integrated through their causal properties. This study presents an implementation of Integrated Information Theory 3.0, the latest version of this framework, to functional MRI data. Data were acquired from 17 healthy subjects who underwent sedation with propofol, a short-acting anaesthetic. Using the PyPhi software package, we systematically analyze how Φmax, a measure of integrated information, is modulated by the sedative in different resting-state networks. We compare Φmax to other proposed measures of conscious level, including the previous version of integrated information, Granger causality, and correlation-based functional connectivity. Our results indicate that Φmax presents a variety of sedative-induced behaviours for different networks. Notably, changes to Φmax closely reflect changes to subjects’ conscious level in the frontoparietal and dorsal attention networks, which are responsible for higher-order cognitive functions. In conclusion, our findings present important insight into different measures of conscious level that will be useful in future implementations to functional MRI and other forms of neuroimaging.

05/08/2023 Les drones ukrainiens feront-ils céder la Russie ?

La Russie, considérée jusqu’ici comme la 2e puissance militaire du monde, va-t-elle s’incliner devant l’Ukraine ?

Elle dispose certes de l’arme atomique. Par ailleurs, elle s’est donné des forces armées puissantes, dans le domaine terrestre, naval et aérien. Cependant le monde stupéfait a découvert ces derniers jours que de petits drones ukrainiens avaient par deux fois frappé dans le quartier d’affaires de Moscou..

Par ailleurs et surtout deux des navires de guerre de sa flotte de mer Noire ont subi des attaques de drones navals de surface ukrainien. Le premier était le vaisseau amiral Moskva qui a été frappé le 14 avril puis a coulé, le second a été, le 3 août, le navire de débarquement Olenegrorski Gorniak à Novorossïisk, un port du sud-ouest de la Russie. Celui-ci a été gravement endommagé mais n’a pas coulé,

Ajoutons que le 4 août, vers 5 heures du matin, beaucoup d’habitants de la région de Novorossiïsk, dans la Fédération de Russie, ont été réveillés par des bruits assourdissants en plusieurs endroits”, rapporte GlavredLa base navale de Novorossiïsk est une des composantes de la flotte russe de mer Noire”, rappelle le portail d’information ukrainien. Et l’attaque du matin du 4 août s’inscrit dans une série d’actions ukrainiennes qui ont visé ces derniers jours différents sites stratégiques russes dans la région.

Le 1er août, une forte explosion a retenti à Sébastopol et a été entendue jusqu’à Bakhtchissaraï, à 30 kilomètres de là. On a appris par la suite que les forces armées ukrainiennes avaient détruit un des arsenaux de la flotte russe de mer Noire. […] Le 2 août, en Crimée occupée, une forte explosion a été signalée. À la suite de quoi l’occupant russe a interdit les déplacements sur le pont de Kertch.”

Et, indique le site d’information Obozrevatel, dans la nuit du 3 au 4 août, la ville de Féodossia [également en Crimée] aurait été visée par treize drones ukrainiens

https://news.obozrevatel.com/ukr/russia/rosiyani-vlashtuvali-isteriku-cherez-vibuhi-u-feodosii-ta-novorosijsku-i-rozmriyalasya-pro-udari-po-londonu.htm

On peut légitimement se demander pourquoi Moscou, qui dispose de bons services de renseignements, ne s’était pas depuis longtemps rendu compte des investissements faits récemment dans certaines usines ukrainienne pour construire des dizaines de drones. Et pourquoi ils n’avaient pas fortement renforcé leurs défenses maritimes et aériennes?

04/09/2023 Le temps s’écoulait plus lentement dans le passé lointain

Cette idée peut surprendre, mais elle est la conséquence de l’expansion de l’univers depuis le Big Bang. Celle-ci signifie que la lumière provenant des anciens évènements cosmiques doit parcourir des distances de plus en plus longues pour atteindre la Terre, et par conséquent qu’elle prend plus de temps .

Par conséquent les anciens évènements cosmiques paraissent prendre plus de temps pour s’écouler que s’ils survenaient aujourd’hui. Mais pour un témoin vivant à ces époques, le temps aurait paru s’écouler normalement.

Depuis 1990 les astrophysiciens avaient constaté cette modification du temps en observant l’explosion de supernovas éloignées, les plus anciennes datant de la moitié de l’âge de l’univers. Elles paraissaient évoluer à 60% de la vitesse actuelle.

Aujourd’hui les cosmologistes Geraint Lewis et Brendon Brewer annoncent dans Nature (références ci-dessous) avoir observé 190 quasars situés au centre d’un certain nombre de galaxies anciennes. Ils ont constaté que les quasars les plus anciens semblaient vivre cinq fois plus lentement que les quasars actuels.

Source

Detection of the cosmological time dilation of high-redshift quasars

Nature Astronomy (2023)

Abstract

A fundamental prediction of relativistic cosmologies is that, owing to the expansion of space, observations of the distant cosmos should be time dilated and appear to run slower than events in the local universe. While observations of cosmological supernovae unambiguously show the expected redshift-dependent time dilation, this has not been the case for other distant sources. Here we present the identification of cosmic time dilation in a sample of 190 quasars monitored for over two decades in multiple wavebands by assessing various hypotheses through Bayesian analysis. This detection counters previous claims that observed quasar variability lacked the expected redshift-dependent time dilation. Hence, as well as dismissing the claim that the apparent lack of the redshift dependence of quasar variability represents a substantial challenge to the standard cosmological model, this analysis further indicates that the properties of quasars are consistent with them being truly cosmologically distant sources.

03/08/2023 Pour un HAVOC européen

La Nasa ne se désintéresse pas de la planète Vénus, voisine de la Terre. Les conditions dites infernales qui règnent à sa surface lui rendront longtemps difficile sinon impossible toute mission habitée : températures de 460 degrés centigrades, atmosphère hautement toxique et corrosive, pressions écrasantes. Par contre elle étudie depuis quelques années un projet conceptuel dit HAVOC High Altitude Venus Operational Concept – (HAVOC) compatible avec ces conditions.

Mais comment cette mission serait elle possible ?. La température moyenne est supérieure au point de fusion de nombreux métaux tels le bismuth et le plomb. Ils s’y présentent sous forme de neige qui recouvre certains sommets. De vastes plaines de roches basaltique portant des traces d’activité volcanique et plusieurs régions montagneuses de la taille d’un continent se partagent la surface . Certaines plaines jeunes paraissent résulter d’une accumulation de chaleur sous la surface, ayant entrainé la fonte de celle-ci, qui se serait resolidifiée ensuite.

Aussi bien le projet Havoc consiste non à explorer la surface, mais à utiliser l’atmosphère très dense de Vénus pour y faire flotter des dirigeables qui pourraient y demeurer pendant de longue période. Aux altitudes de 40 à 60 km, les conditions de température et de pression sont les mêmes que sur la Terre. Les radiations ionisantes provenant de l’espace sont arrêtées par la densité de l’atmosphère. Par contre les radiations solaires sont assez fortes et continues pour pouvoir servir de source d’énergie.

Les dirigeables seraient emplis d’un gaz respirable analogue à celui se trouvant dans l’atmosphère terrestre. Il y en aurait suffisamment pour fournir en surplus l’oxygène nécessaire à l’équipage. L’étude rapprochée de Vénus pourrait peut-être permettre de préciser comment un tel sort pourrait être épargné à la Terre.

Venus: The Basics https://www.nasa.gov/venus

Venus is a dim world of intense heat and volcanic activity. Similar in structure and size to Earth, Venus’ thick, toxic atmosphere traps heat in a runaway ‘greenhouse effect.’ The scorched world has temperatures hot enough to melt lead. Glimpses below the clouds reveal volcanoes and deformed mountains. Venus spins slowly in the opposite direction of most planets.

Distance from the Sun: About 67 million miles, about 3/4 as far as the Earth is from the Sun.
Year: About 225 Earth days.
Day: About 243 Earth days.
Average diameter: About 7,500 miles, almost as large as Earth.
Surface temperature: 864 degrees Fahrenheit.
Atmosphere: Carbon dioxide, nitrogen.

02/08/2023 France. La perte du statut d’Etat-Nation

Selon wikipedia, un État-nation est un type particulier d’État dans lequel les individus sont censés appartenir dans leur majorité à une même nation. Il repose donc sur la coïncidence entre une notion d’ordre identitaire, l’appartenance à un groupe, la nation, et une notion d’ordre juridique, l’existence d’une forme de souveraineté et d’institutions politiques et administratives qui exercent cette souverainté, l’État. Sans cette coïncidence, on parlera plutôt d’un État multinational ou d’un empire, deux modes d’organisation politique favorables à la coexistence de minorités ethniques1.

En France, l’État s’est construit progressivement. A partir du Moyen Âge les rois de France ont étendu leur autorité sur un ensemble de plus en plus grand. Le développement du nationalisme s’est fait progressivement. Il a clairement émergé au 16  siècle (sans pour autant porter ce nom) dans la bourgeoisie, intellectuelle, commerçante et pré-industrielle, pour s’étendre progressivement à l’ensemble de la population (ou presque). La langue française est devenue la seule langue officielle. Le nationalisme a été renforcé par le système politique démocratique, la création d’une école gratuite, laïque et obligatoire par Jules Ferry à la fin du 19 siècle, l’instauration du service militaire obligatoire et entretenu par la création de divers symboles républicains, régulièrement mis en avant, comme le drapeau français, la Marianne et la Marseillaise.

Depuis la 2e guerre mondiale, en France, l’Etat-nation français s’est dégradé progressivement. Plusieurs raisons expliquent cette situation.

  • La défaite de 1940 suivi de la disparition momentanée de la République française au profit de l’Etat français de Vichy contrôlé par l’Allemagne nazi,
  • l’influence écrasante prise par la Fédération des Etats-Unis et plus généralement la soumission de la nation française aux règles d’un capitalisme international définies à Wall Street et Washington,
  • les guerres d’Indochine et d’Algérie où l’armée nationale française reconstituée a perdu beaucoup ses forces,
  • le marché commun que le traité de Rome avait mis en place en 1958 et qui consistait à libéraliser les échanges entre les États membres dans le double but, officiellement, d’accroître la prospérité économique et de contribuer à «une union sans cesse plus étroite entre les peuples de l’Europe». Ce furent essentiellement les Etats-Unis qui ont obligé les Etats européens à s’unir dans un marché unique favorable à leur domination économique et politique.
  • L’Union européenne, union politico-économique sui generis de vingt-sept États européens qui délèguent ou transmettent par traité l’exercice de certaines compétences à des organes communautaires. Le principe d’une telle union pouvait se justifier. Mais là encore, ce fut l’Empire américain qui imposa de fait aux Etats-membres d’accepter sa domination politique et militaire dans un tel cadre.
  • l’Otan pour Organisation du traité de l’Atlantique nord. Il s’agit en principe d’une organisation politico-militaire mise en place par les Etats-Unis dans les pays signataires du traité de l’Atlantique Nord afin de pouvoir remplir leurs obligations de sécurité et de défense collectives. Il s’agit en fait, comme le montre la présente guerre russo-ukrainienne, de l’organisation d’une force militaire occidentale, dominée là encore par les Etats-Unis mais où les Etats-membres de l’Otan apporteraient les ressources de leurs budgets militaires. Son principal objectif aujourd’hui est de construire une force armée capable d’affronter, sous commandement américain, la Russie et ultérieurement la Chine.
  • L’entrée d’une migration clandestine de travailleurs et de leurs familles provenant principalement d’Afrique du nord et d’Afrique noire censés apporter une force de travail indispensable dans l’économie française, alors que celle-ci souffre d’un sous-emploi grandissant. Aujourd’hui l’entrée des migrants parait incontrôlable.

Quelles conditions justifieraient un retour de la France à l’Etat-nation ?

Ceci ne serait possible qu’en situation de catastrophe obligeant l ‘Etat à reprendre en mains les forces armées nationales afin assurer une meilleure distributions des rares ressources disponibles et la défense contre les prédateurs étrangers, y compris les alliés d’outre-atlantique. Parmi ces catastrophes se trouveraient des changements climatiques importants et longs, la désertification de continents entiers ou le déclenchement de pandémies de grande ampleur entrainant des migrations par centaines de millions.

01/08/2023 Accélérer le passage à la fusion nucléaire

La France importe plusieurs milliers de tonnes d’uranium chaque année pour faire fonctionner son parc de centrales nucléaires de 1ère génération dite à fission L’uranium est un minerai. Les mines françaises ont fermé depuis longtemps faute de réserves. Dans les années 1970, deux compagnies nationales se donc installé au Niger, une ancienne colonie française. Elles exploitent deux mines dans la région du désert d’Arlit, proche de l’Algérie : l’une, à ciel ouvert et l’autre, souterraine. En 2008, 43 % de l’uranium produit par l’exploitant Orano, qui a succédé à Areva, provenaient du Niger. 

Depuis quelques années, Orano extrait un peu moins au Niger. On est passé de 43 % en 2008 à 30 % d’uranium extrait au Niger en 2021, soit 2 000 tonnes par an. L’une des deux mines a fermé en 2021 car les réserves se sont épuisées , l’autre restera exploitée jusqu’en 2040. Une troisième mine nigérienne aurait dû ouvrir mais son exploitation a été repoussée car le cours de l’uranium sur les marchés a chuté depuis la catastrophe de Fukushima. La mettre en route en respectant les impératifs écologiques n’est pour l’instant pas assez rentable pour l’entreprise. Depuis quelques années, Orano extrait donc de l’uranium surtout au Kazakhstan qui est le principal fournisseur mondial, et au Canada depuis 1999.

Or, qu’en sera-t-il de l’uranium nigérien, alors que le Quai-d’Orsay a annoncé le 1er août que la France avait commencé l’évacuation de ses ressortissants. Cette décision se justifie du fait des « violences qui ont eu lieu contre notre ambassade avant-hier et la fermeture de l’espace aérien qui laisse nos compatriotes sans possibilité de quitter le pays par leurs propres moyens ». Quelque 600 Français se trouvent actuellement sur place au Niger, dont un certain nombre travaille chez Orano. Que vont-ils devenir et que va devenir la production d’uranium ? Faudra-t-il faire appel à des forces spéciales de l’armée française pour les protéger ?

A terme, cette dépendance de la France à l’égard de l’uranium justifierait que le pays fournisse davantage de ressources au projet Iter consacré au remplacement de la fission nucléaire par la fusion. Voir notre article du 11/03/2023 La France doit maintenir son avance mondiale en matière de fusion nucléaire

31/07/2023 Parthénogenèse …chez la mouche

Pour la première fois, des femelles modifiées génétiquement – en l’occurrence, des mouches – ont pu se reproduire sans l’intervention d’un mâle. Il s’agit de « parthénogenèse« , ou encore « naissance vierge » : l’ovule devient embryon sans faire appel à un spermatozoïde, qui est la cellule reproductrice du mâle ! Certains oiseaux ou poissons y parviennent naturellement. Des reptiles comme le dragon de Komodo aussi.

C’est arrivé dans certains zoos lorsque une femelle reste trop longtemps seule, sans mâle. Jamais chez le mammifère, qui lui, se reproduit uniquement sexuellement (notamment chez l’homme )

Or des chercheurs de l’Université de Cambridge ont réussi à provoquer une parthénogenèse chez la mouche des fruits (drosophila melanogaster) qui, pourtant dans la nature, s’accouple pour se reproduire. Il s’agit d’une première, réalisée par manipulation génétique. Une découverte publiée dans la revue scientifique Current Biology (voir ci-dessous) grâce à six ans de travail et 220 000 mouches. 

Cependant, tant qu’il y a un mâle, la femelle modifiée garde le réflexe de se reproduire de façon classique. Mais au bout de 40 jours sans aucun mâle (à peu près la moitié de sa durée de vie), elle peut se reproduire seule . Une sorte de stratégie de survie que mettent au point 1 ou 2% des animaux étudiés. Cette découverte est considéré comme une percée scientifique sans précédent.

Référence

A genetic basis for facultative parthenogenesis in Drosophila

Published:July 28, 2023
DOI:https://doi.org/10.1016/j.cub.2023.07.006

Summary

Facultative parthenogenesis enables sexually reproducing organisms to switch between sexual and asexual parthenogenetic reproduction. To gain insights into this phenomenon, we sequenced the genomes of sexually reproducing and parthenogenetic strains of Drosophila mercatorum and identified differences in the gene expression in their eggs. We then tested whether manipulating the expression of candidate gene homologs identified in Drosophila mercatorum could lead to facultative parthenogenesis in the non-parthenogenetic species Drosophila melanogaster. This identified a polygenic system whereby increased expression of the mitotic protein kinase polo and decreased expression of a desaturase, Desat2, caused facultative parthenogenesis in the non-parthenogenetic species that was enhanced by increased expression of Myc. The genetically induced parthenogenetic Drosophila melanogaster eggs exhibit de novo centrosome formation, fusion of the meiotic products, and the onset of development to generate predominantly triploid offspring. Thus, we demonstrate a genetic basis for sporadic facultative parthenogenesis in an animal.