Espace. Une mystérieuse source envoie d’étranges signaux vers la Terre depuis 35 ans

De longs signaux radio émanant de l’espace sont captés depuis 35 ans par les scientifiques qui n’en trouvent pas l’origine comme l’indique un article publié dans la revue Nature, mercredi 19 juillet 2023 (cf références et abstract ci-dessous). Parmi les hypothèses, les scientifiques pensent à un pulsar, même si ces étoiles ont l’habitude d’envoyer des pulsations de quelques millisecondes à plusieurs secondes mais jamais plusieurs minutes comme c’est le cas pour l’objet inconnu. 

Les premières ondes datent au moins de l’année 1988. Mais, depuis toutes ces années, les chercheurs n’ont pas pu décoder ces signaux. Leurs caractéristiques ne correspondent à aucun modèle connu, rapporte The Independent .Cette source envoie des explosions d’énergie d’une vingtaine de minutes avec une luminosité qui varie considérablement, selon les scientifiques. Elle a été identifiée il y a peu, mais en consultant des archives, les chercheurs ont pu repérer des traces de signaux comparables allant jusqu’à 21 minutes perçus depuis au moins 1988.

Les scientifiques ont d’abord pensé qu’il pouvait s’agir de signaux émanant de pulsars, des étoiles en fin d’évolution qui tournent rapidement en émettant des explosions radio de courte impulsion de quelques millisecondes à plusieurs secondes, mais jamais plusieurs minutes. Il pourrait aussi s’agir de sursauts radio, c’est-à-dire des anomalies dans les relevés de fréquences radio de l’espace, mais là encore les émissions ne durent pas plusieurs minutes.

Si l’objet baptisé GPMJ1839-10 est un pulsar, il ne se comporte pas comme ceux qui sont connus. Il fonctionne d’une manière que les scientifiques pensaient impossible. Les experts font également d’autres hypothèses. Il pourrait s’agir d’une étoile du type « naine blanche » hautement magnétisée ou d’un magnétar, un autre type d’étoile à neutrons avec des champs magnétiques incroyablement puissants. Cependant, ces objets célestes n’envoient habituellement pas de telles pulsations. Le mystère reste donc entier.

Observons que compte tenu de la vitesse de la lumière dans le vide, cette source est dans notre galaxie et relativement proche de la Terre

Référence

A long-period radio transient active for three decades

Nature  volume619, pages 487–490 (2023)

Abstract

Several long-period radio transients have recently been discovered, with strongly polarized coherent radio pulses appearing on timescales between tens to thousands of seconds1,2. In some cases, the radio pulses have been interpreted as coming from rotating neutron stars with extremely strong magnetic fields, known as magnetars; the origin of other, occasionally periodic and less-well-sampled radio transients is still debated3. Coherent periodic radio emission is usually explained by rotating dipolar magnetic fields and pair-production mechanisms, but such models do not easily predict radio emission from such slowly rotating neutron stars and maintain it for extended times. On the other hand, highly magnetic isolated white dwarfs would be expected to have long spin periodicities, but periodic coherent radio emission has not yet been directly detected from these sources. Here we report observations of a long-period (21 min) radio transient, which we have labelled GPM J1839–10. The pulses vary in brightness by two orders of magnitude, last between 30 and 300 s and have quasiperiodic substructure. The observations prompted a search of radio archives and we found that the source has been repeating since at least 1988. The archival data enabled constraint of the period derivative to <3.6 × 10−13 s s−1, which is at the very limit of any classical theoretical model that predicts dipolar radio emission from an isolated neutron star.

21/07/2023 Pourquoi Moscou abandonnerait-il son contrôle de l’est du Donbass ?

L’est du Donbass, où la plupart des combats avec la Russie ont eu lieu depuis 8 ans, a toujours été présenté comme le cœur industriel de l’Ukraine. Avec ses réserves considérables en charbon, il a contribué au développement des aciéries, des fonderies et des générateurs électriques de la région depuis plus d’un siècle.

Mais il n’est pas que cela. Un récent rapport du cabinet d’étude SecDev basé à Ottawa, intitulé Russia’s Resource Grab in Ukraine, référencié ci-dessous, montre que l’Ukraine pourrait devenir un  super-pouvoir dans le domaine critique des ressources minérales et agricoles. Globalement il y occupe le 4e rang mondial.

Au delà de cela, l’Ukraine disposerait des plus vastes réserves de terres rares en Europe (cerium, yttrium, lanthanum, neodymium). Celles-ci sont indispensable à l’industrie de la microélectronique et de la téléphonie mobile. Elles ont compté pour plus de 30% des exportations du pays en mars 2022, avec un total de 54 milliards de dollars.

Par ailleurs, l’essentiel des réserves de gaz naturel, de charbon et de pétrole dont dispose l’Ukraine se trouve dans la région Dnieper-Donetsk. Le gaz se trouve dans des réserves estimées de 2 à 5 trillions de M3 principalement dans des régions aujourd’hui contestées de la Mer Noire. Grâce à ses conquêtes en Ukraine, Moscou contrôle les 2/3 de son plateau maritime en atlantique nord, où se trouve l’ essentiel de ses réserves en hydrocarbures.

https://foreignpolicy.com/2022/04/28/ukraine-war-russia-resources-energy-oil-gas-commodities-agriculture/.



20/07/2023 La théorie de l’information intégrée (TII)

La théorie de l’information intégrée (TII), ou en anglais Integrated information theory (IIT), est une théorie proposée par Giulio Tononi en 2004. Elle vise à expliquer pourquoi les cerveaux humains, qu’elle considère comme des systèmes physiques, sont conscients et à quel degré. Elle se demande ce qu’il faudrait pour que d’autres systèmes physiques, en premier lieu les cerveaux animaux, deviennent conscients comme le sont les humains. L’univers dans son ensemble est-il conscient et comment cette conscience se manifeste-t-elle ?

La dernière version de la théorie dite ITT 3.0. date de 2014. Elle est encore en développement et amélioration.

David Chalmers avait expliqué que tenter de comprendre la conscience à partir de lois physiques débouchait sur une impossibilité, ce qu’il a nommé le « hard problem« . ITT part du principe contraire. Nous devons admettre que nous sommes conscients et rechercher les propriétés qu’un système physique tels que nous doit acquérir pour accéder à cet état de conscience, étant admis que celui-ci ne peut que provenir de l’état du système physique sous-jacent.

Les capacités d’un système physique pour accéder à la conscience sont inconnues. Elles forment un éventail comme le montrent les études sur des patients atteints d’incapacité du corps calleux (split brain patients) ou sur des patients conscients bien que disposant d’un cerveau où manquent d’importantes portions du corps cérébral.

L’ITT pour sa part distingue les propriétés d’une expérience consciente, qu’elle nomme « axiomes » et les propriétés d’un système physique conscient, nommés postulats.

Pour des approches différentes, voir Wikipedia Conscience

Les axiomes.

Ils représentent les aspects essentiels de chaque expérience consciente. On peut les caractériser comme suit :

  • La conscience existe intrinsèquement. Chaque expérience consciente est réelle ; elle ne dépend pas d’observateurs extérieurs.
  • La conscience est structurée. Chaque expérience est composée de multiples distinctions phénomènologiques. La phénoménologie est une école de philosophie qui s’attache à démontrer que le phénomène n’existe que s’il y a une conscience pour le percevoir. Toute conscience serait donc conscience de quelque chose, c’est l’idée d’intentionnalité de la conscience. La méthode phénoménologique veut démontrer qu’il existe une relation essentielle entre la conscience et le monde. La phénoménologie reprend les interrogations philosophiques sur le concept d’essence, et son approche pour les aborder est d’étudier l’expérience vécue, c’est-à-dire le phénomène en tant que tel. Il est parfois considéré qu’ainsi, la phénoménologie cherche à faire le lien entre l’idéalisme (passer par l’idée pour accéder au réel) et l’empirisme (passer par le réel pour accéder à l’idée)
  • La conscience est spécifique. Chaque expérience est comme elle est, composée d’un ensemble spécifique de distinctions phénoménales. Elle se différencie de toutes autres possibles.

Les postulats

Les propriétés requises d’un état physique conscient sont dites par l’ITT des postulats du fait que l’existence de cet état physique est elle-même postulée. Rappelons que l’ITT maintient que la seule chose dont chacun peut être certain qu’elle existe est sa propre conscience. Ici, dans ce qui suit, un système physique est entendu comme un ensemble d’éléments, chacun disposant de deux ou trois états internes. Les données en entrée influencent cet état, celles en sortie sont influencées par lui. Les neurones en sont des exemples naturels.

Dans ces conditions, les postulats sont

. Que les système disposent d’une existence intrinsèque. Afin d’exister intrinsèquement, ils doivent avoir des causes et des effets, indépendants des observateurs extérieurs. Un pouvoir de cause et d’effet peut-être défini en considérant un espace de cause et d’effet ( cause-effect space ) doté d’un axe pour chaque état possible du système dans le passé (causes) et dans le futur (effets). Dans cet espace, une intervention qui établit le système dans un état initial (cause), sans modification des conditions d’arrière plan (background conditions) conduit le système dans son état présent (effet).

  • Que les systèmes soient structurés. Les sous-éléments constituant le système s’articulent selon des considérations différentes qui peuvent avoir des relations de cause à effet à l’intérieur du système lui-même ( cause-effect structure )
  • Que les systèmes précisent les conditions pour lesquelles ils sont ce qu’ils sont. Ceci permettra d’établir des répertoires spécifiques de cause à effet, (specific cause-effect repertoires )permettant de comprendre pourquoi les systèmes sont ce qu’ils sont

Pour la suite voir ( Non traduit faute de temps)

https://en.wikipedia.org/wiki/Integrated_information_theory

09/07/2023 Une mystérieuse « zone d’évitement » au centre de notre galaxie 

Andreas Burkert et des collègues de l’Observatoire universitaire de Munich ont observé une étrange « zone of avoidance » terme que l’on peut traduire par zone d’évitement, près du centre de notre galaxie, la Voie Lactée. Ce centre est occupé par un trou noir supermassif nommé Sagittarius A* . Les étoiles à quelque distance qu’elles soient de ce centre, devraient avoir une distribution au hasard.

Cependant un groupe d’environ 200 étoiles non loin du centre galactique ne se comporte pas de cette façon. Elles ont été nommé S-stars. Andreas Burkert a constaté que les orbites d’une cinquantaine d’ étoiles de ce groupe qu’il a pu observer avec précision n’étaient pas comme elles auraient du l’être circulaires autour du centre galactique. Elles paraissaient fuir ce centre en adoptant des orbites elliptiques. Il a parlé de zone d’évitement

Une raison non expliquée à ce jour leur impose un tel comportement exceptionnel. Il restera dans les prochains mois à en découvrir la raison. Tout se passe comme si la présence d’un trou noir supermassif tel que Sagittarius A* obligeait les objets autour de lui à adopter des comportements n’ayant rien d’aléatoire.

Référence

[Submitted on 3 Jun 2023]

The Orbital Structure and Selection Effects of the Galactic Center S-Star Cluster

Andreas BurkertStefan GillessenDouglas N.C. LinXiaochen ZhengPhilipp SchoellerFrank EisenhauerReinhard Genzel

The orbital distribution of the S-star cluster surrounding the supermassive black hole in the center of the Milky Way is analyzed. A tight, roughly exponential dependence of the pericenter distance rp on orbital eccentricity e⋆ is found, log(rp)∼(1-e⋆), which cannot be explained simply by a random distribution of semi-major axes and eccentricities. No stars are found in the region with high e⋆ and large log rp or in the region with low e⋆ and small log rp. G-clouds follow the same correlation. The likelihood P(log rp,(1-e⋆)) to determine the orbital parameters of S-stars is determined. P is very small for stars with large e⋆ and large log rp. S-stars might exist in this region. To determine their orbital parameters, one however needs observations over a longer time period. On the other hand, if stars would exist in the region of low log rp and small e⋆, their orbital parameters should by now have been determined. That this region is unpopulated therefore indicates that no S-stars exist with these orbital characteristics, providing constraints for their formation. We call this region, defined by log (rp/AU) < 1.57+2.6(1-e⋆), the zone of avoidance. Finally, it is shown that the observed frequency of eccentricities and pericenter distances is consistent with a random sampling of log rp and e⋆. However, only if one takes into account that no stars exist in the zone of avoidance and that orbital parameters cannot yet be determined for stars with large rp and large e⋆.

Comments:15 pages, 4 figures, submitted to ApJ, comments very welcome
Subjects:Astrophysics of Galaxies (astro-ph.GA)
Cite as:arXiv:2306.02076 [astro-ph.GA]
 (or arXiv:2306.02076v1 [astro-ph.GA] for this version)
 https://doi.org/10.48550/arXiv.2306.02076

18/07/2022 Des batteries pour des millions de véhicules électriques

Northvolt est une entreprise suédoise proche de Skelleftea, une vaste zone industrielle du nord de la Suède. Elle a entrepris de construire une « gigafactory » qui, en 2026, emploiera 4.000 personne. L’objectif sera de produire des batteries au lithium pour 1 million de véhicules électriques par an. Il faudra aussi recycler le maximum de batteries usagées, plutôt que les jeter dans des décharges.

Northvolt.com

La production de voitures électriques produit plus de gaz à effet de serre que celle de voitures classiques, du fait que la fabrication de leurs batteries fait encore largement appel aux énergies fossiles. C’est la raison pour laquelle Northvolt s’est installé au nord de la Suède ou l’hydroélectricité est abondante et bon marché. Les émissions de CO2 y sont inférieures de quelques 30% à celles des entreprises chinoises fonctionnant au charbon. Il en est même du prix des autres composants des batteries.

Ceci dit Northvolt est loin du compte. Aux estimations actuelles, ce devrait être 50 millions de véhicules électriques par an qui seraient nécessaires dans le monde, sans compter les autocars de transport urbain et suburbain. Quant au lithium des batteries, il deviendra plus rare que l’or.

Pour en savoir plus

« La guerre des batteries a commencé », une conversation avec Paolo Cerruti, co-fondateur de Northvolt »

https://legrandcontinent.eu/fr/2022/10/19/la-guerre-des-batteries-a-commence-une-conversation-avec-paolo-cerruti-co-fondateur-de-northvolt/


« Après les Etats-Unis et la Chine : L’Europe rejoint la course dans la fabrication de batteries électriques »
https://elwatan-dz.com/apres-les-etats-unis-et-la-chine-leurope-rejoint-la-course-dans-la-fabrication-de-batteries-electriques

17/07/2023 A la découverte de la partie obscure de l’univers

Bruno Lévy, directeur de recherche à l’Inria, participe à un projet international de recherche en cosmologie, aux côtés de chercheurs de l’Institut d’astrophysique de Paris et d’universités étrangères. L’objectif ? Développer des algorithmes permettant de retracer l’histoire de l’Univers, ainsi que des modèles qui pourront tenir compte de plusieurs inconnues, comme la matière noire et l’énergie sombre.

Il présente ainsi ce projet :

L’’Univers recèle une face sombre, que de nombreux scientifiques cherchent à percer. C’est l’objectif d’un ambitieux programme de recherche international et pluridisciplinaire, qui s’appuie sur des expertises en informatique, en mathématiques et en cosmologie. Le projet est mené, depuis 2015, outre moi-même, par  Roya Mohayaee, chargée de recherche CNRS à l’Institut d’astrophysique de Paris (Sorbonne Université – CNRS), et par Sebastian von Hausegger, chercheur à l’université d’Oxford. Ils viennent d’être rejoints par Ravi Sheth et Farnik Nikakhtar, deux experts américains en astronomie et en physique, respectivement enseignant-chercheur à l’université de Pennsylvanie et postdoctorant à l’université de Yale.

 Les mathématiques sont notre langage commun, explique Bruno Lévy. Un langage puissant pour décrire ce qui se passe dans l’Univers, notamment les principes physiques découverts grâce à la cosmologie .  La recherche en informatique vise, quant à elle, à faciliter la traduction pour l’ordinateur des équations et formules physiques qui doivent être calculées. C’est la baguette magique qui donne vie aux formules mathématiques et permet de simuler numériquement les lois de la physique, précise le directeur de recherche.

Reconstituer la trajectoire des galaxies

Cette innovation, comparée à une machine à remonter le temps, repose sur une méthode mathématique qui utilise la théorie du transport optimal pour reconstituer la trajectoire des étoiles et des galaxies, à partir d’une carte en 3D du Cosmos. « Notre but était de voir à quoi ressemblait l’Univers il y a des milliards d’années et nous y sommes parvenus, il est vrai sur des cas simplifiés et avec des ensembles de données limités

Les recherches ainsi effectuées ont mené à une première découverte majeure mi-2022, rapportée alors dans un article de la revue Physical Review Letters, avant d’avoir le privilège d’être mise en lumière par le magazine Physics.

L’équipe s’est ensuite attelée à renforcer sa méthode, notamment en montant en puissance sur les calculs et en testant sa résistance face à des paramètres incomplets ou non mesurables. « Il faut être capable de prendre en compte le fait qu’une certaine proportion des galaxies ne sont pas observées », 

La question de la matière noire est plus compliquée encore. Ce nom de « matière noire » désigne un ensemble d’effets, constatés depuis le début du XXe siècle. Mais nul n’est jusqu’ici parvenu à détecter directement cette matière, à en connaître la composition, ou encore à la caractériser comme une modification des lois de la gravité. Il en est de même pour l’énergie sombre, dont on ne connaît ni la source ni la nature, mais dont l’existence a été repérée à la fin des années quatre-vingt-dix par les chercheurs américano-australiens Perlmutter et Riess : elle est à l’origine d’une accélération de l’expansion de l’Univers au cours des derniers milliards d’années.

Dans un nouvel article publié fin 2022 par Physical Review Letters, les chercheurs de l’équipe internationale ont démontré la pertinence de l’outil mathématique qu’ils ont conçu pour des données réelles, comportant leur part d’incertitude et de données manquantes. Ils ont pu montrer la capacité de leur méthode à reconstruire une information pertinente à partir de données incomplètes. À terme, leur outil permettra de tester différentes théories de la matière noire et de l’énergie sombre qui prennent la forme d’ensembles d’équations mathématiques. Cette méthode visera à confronter ces équations à la réalité, en mesurant à quel point elles restent cohérentes lorsqu’on y injecte les données d’observation. 

Course aux « super-algorithmes »

Il reste maintenant à adapter cette méthode mathématique à une quantité toujours plus grande de données observationnelles, remontées par de puissants télescopes. « Nous avons réussi à effectuer des calculs sur 300 millions de points et espérons dépasser prochainement le milliard de points », indique Bruno Lévy. « À terme, nous aimerions appliquer notre algorithme sur de vraies données observationnelles, issues en particulier des relevés effectués dans le cadre du projet DESI » (Dark Energy Spectroscopic Instrument (DESI), ajoute Farnik Nikakhtar, postdoctorant à l’université de Yale. Ce projet international devrait déboucher sur l’observation de « 40 millions de galaxies et de quasars » d’ici à la fin de la décennie,

À l’avenir, le traitement de tels gisements de données nécessitera d’utiliser un calculateur plus grand, ou de mettre en réseau un nombre très élevé d’ordinateurs dédiés aux calculs. « Pour mener ces très grosses simulations, nous aurons le choix entre utiliser la force brutale, à savoir faire tourner l’algorithme sur un supercalculateur , ou être plus subtil, en remplaçant le supercalculateur par un « super-algorithme » » L’idée consiste à repenser la méthode sous un angle nouveau, permettant en quelque sorte de trouver un « raccourci mathématique » et ainsi de parvenir plus vite au résultat. 

À terme, ceci devrait aider les chercheurs en cosmologie à effectuer beaucoup plus facilement des calculs, depuis leurs propres ordinateurs personnels. Sans avoir à utiliser systématiquement de rares et coûteux supercalculateurs.

La partie la plus intéressante de ces résultats tient à la façon dont nous arrivons désormais à déterminer précisément la forme des zones de l’espace d’où se sont constitués, à l’origine, les halos de matière noire et les amas de galaxies. Cette possibilité est enthousiasmante dans la mesure où elle peut hypothétiquement améliorer notre compréhension des liens entre la matière noire et la matière visible, lesquels sont depuis longtemps une énigme en astrophysique. 

Référence

https://www.inria.fr/fr/univers-cosmologie-matiere-noire-mathematique-algorithmes

16/07/2023 Qu’est-ce que la vie ?

Les scientifiques ont déjà du mal à répondre à cette question quand il s’agit de la vie sur Terre. Ainsi on se demande encore si les virus sont vivants. Mais lorsqu’il s’agira, dans les prochaines décennies, de rechercher des formes de vie sur d’autres mondes, la question se posera immédiatement, dès lors que l’on n’y observera pas soit des organismes incontestablement vivants au sens donné à ce terme, soit des modifications du milieu ne pouvant résulter que de l’intervention d’êtres vivants sur le modèle de ceux que l’on trouve sur Terre.

Or la vie, sur d’autres mondes, pourrait ne pas faire appel aux mêmes constructions chimiques que sur la Terre ; ou bien elle pourrait le faire d’une façon telle que celles-ci seraient méconnaissables. Rien ne garantit qu’une exobiologie utilise les mêmes composés chimiques que la Terre ou construise des ensembles complexes tels que les protéines et l’ADN.

Dès maintenant la question se pose. La mission Juice de l’ESA appareillera bientot de Kuru pour chercher des traces de vie sur les Lunes de Jupiter,dont Europa. Celle-ci est dotée d’un vaste océan sous une épaisse banquise glacée. Peu après, le vaisseau Clipper de la Nasa la rejoindra. En 2027, la Nasa enverra sur une lune de Saturne , Titan un drone nommé Dragonfly. Titan comporte des lacs d’hydrocarbures qui pourraient se montrer favorables à certaines formes de vie…

—————–

Or, la physicienne et astrobiologiste Sara Imari Walker, de l’université d’Etat de l’Arizona, et son collègue Leroy Cronin de l’Université de Glasgow sont désormais connus parce qu’ils proposent une approche originale à cette vieille question, reconnaître la vie et la distinguer du non-vivant La question intéresse de plus en plus, en dehors des biologistes et microbiologistes, les projets d’exploration des planètes du système solaire et des planètes extrasolaires proches. Lesquelles d’entre elles abritent-elles de la vie, et sous quelle forme ? Cette vie pourrait elle être rapportée sur la Terre, sans danger pour elle comme pour les Terriens ?

Par ailleurs, de plus en plus de programmes viseront dans le cours du présent siècle à réaliser des êtres vivants de synthèse, soit à partir de composants biologiques, soit totalement artificiels. A quels moments pourra-on estimer que ces programmes ont satisfait leurs objectifs et qu’ils créé du vivant, vivant qu’il faudra protéger mais aussi dont il faudra se protéger ?

Lee Cronin et Sara Walker ont proposé en 2021 une méthode simple pour reconnaître les molécules produites par des organismes vivants extraterrestres de celles préexistantes sur la Terre. Les premières présenteront une complexité chimique analogue à celle qui caractérisent les molécules produites sur Terre par des organismes vivants.

Ils ont nommé cette méthode assembly theory. Elle vise à comprendre pourquoi des entités aussi peu probables que par exemple ces deux personnes différentes que sont Lee Cronin et Sara Walker peuvent exister. La méthode ne repose pas sur des lois physiques intemporelles, mais dans un processus qui attribue aux objets décrits une histoire et la mémoire de ce qui les avait précédé. Comme prévisible l’assembly theory a suscité du scepticisme. Beaucoup de scientifiques se demandent encore comment elle pourrait distinguer le vivant du non vivant

Référence

Newscientist 24 June 2023 p.33 « we are reframing life by thinking it as a lineage « 

14/07/2022 France. Pour un retour au service militaire obligatoire

On définit traditionnellement en France, depuis la loi du 21 mars 1905, le service militaire ou conscription comme l’ensemble des obligations militaires légales imposées aux citoyens pour contribuer à la défense éventuelle de leur pays par les armes . Plus précisément il s’agit du temps passé dans l’armée (sous les drapeaux) par les jeunes Français pour leur faire acquérir une instruction militaire et pour donner aux pouvoirs publics une force armée capable d’assurer, en temps de paix, les missions de sécurité incombant au pays.

Ce service peut être de 1 an à 2 ans selon les besoins de défense. Il s’impose aussi bien aux filles qu’aux garçons. Il peut être prolongé dans un cadre contractuel. En temps de guerre, il est régi par les textes concernant la mobilisation .

La réforme majeure engagée en 1996 en matière de défense (réduction drastique des effectifs et passage progressif à une armée professionnelle, prévus par la loi de programmation militaire pour 1997-2002) a entraîné une modification radicale du service national réformé par la loi du 28 octobre 1997. Ella a été menée sous la présidence de Jacques Chirac (voir Le Parisien )

Selon cette loi, la conscription est suspendue à compter de 2002. Les jeunes hommes et femmes (ces dernières depuis le 1er janvier 1999) doivent accomplir un « parcours citoyen » comprenant le recensement dès leur seizième anniversaire, une information sur la défense délivrée par l’Éducation nationale et la journée défense et citoyenneté (JDC) [anciennement appelée journée d’appel de préparation à la défense (JAPD)]. Le service national obligatoire est remplacé par un service volontaire, ouvert aux jeunes de 18 à 26 ans, pour une durée de 1 à 5 ans. En cas de besoin, la conscription pourrait être rétablie.

Cette suppression du service militaire en 1996 a été généralement bien vue par l’opinion. Elle considérait que les risques de guerre étaient faibles, notamment du fait de la participation de la France à l’Union européenne. De plus, si guerre il devait y avoir, ce serait avec des puissances dotées de l’arme nucléaire. Il s’agirait de guerres d’anéantissement réciproque pour lesquelles le service militaire universel serait inutile.

Aujourd’hui, de plus en plus de responsables civils et militaires français considèrent que le service miliaire obligatoire devrait être rétabli.

Ceci comporterait plusieurs avantages :

  • rupture temporaire du jeune avec son milieu parental et social. Ce milieu comprend de plus en plus d’ » influenceurs » pour qui le concept de France a perdu tout sens. Tout ce qui symbolise la France , comme le pavillon tricolore, les chants folkloriques patriotiques, les monuments aux morts et bien entendu le service militaire, doivent disparaître. Or ceci est insupportable pour les autres Français.
  • apprentissage concret des métiers et matériels utilisés par l’armée. Ceux-ci se retrouvent dans la société civile. Apprendre à conduire un poids lourd en terrain boueux est utile même dans le civil. A plus forte raison l’est l’apprentissage des technologies de l’information, y compris les plus sophistiquées.
  • Egalité accrue entre les filles et les garçons

Pour en savoir plus

Service militaire. Voir Larousse https://www.larousse.fr/encyclopedie/divers/service_militaire/91547#11030113

L’Homo Sapiens présent en Asie dès 86.000 ans bp

Homo sapiens, plus communément appelé « homme moderne »« homme »« humain », ou « être humain », est une espèce de primates originaire d’Afrique qui s’est aujourd’hui répandue et naturalisée sur l’ensemble de la planète hormis l’Antarctique. Il appartient à la famille des hominidés et est le seul représentant actuel du genre Homo, les autres espèces étant éteintes. Les plus anciens fossiles connus de cette espèce, découverts au Maroc, sur le site de Djebel Irhoud, sont datés d’environ 300 000 ans. (Wikipedia)

Les études génétiques basées sur la comparaison de l’ADN nucléaire de différentes populations humaines actuelles indiquent que l’espèce Homo sapiens s’est constituée en Afrique au terme d’une évolution allant d’environ 300 000 à 60 000 ans bp. Par la suite l’Homme moderne aurait quitté l’Afrique principalement entre 70 000 et 50 000 ans pour se répandre sur tous les continents en supplantant les espèces humaines antérieures, comme l’Homme de Néandertal en Europe ou l’Homme de Denisova en Asie avec lesquelles ils ont néanmoins pu s’hybrider, ce qui a favorisé leur adaptation aux nouveaux environnements rencontrés. Cette influence néandertalienne s’est ensuite rétrodiffusée en Afrique.

Les dates d’arrivée des premiers Homo sapiens en Asie du sud-est continentale étaient jusqu’ici controversées. Des fragments de fossiles découverts dans la cave de Tam Pà Ling dans le Nord-Est du Laos avaient laisser penser qu’elles dataient de 46.000 à 70.000 bp.

Aujourd’hui des chercheurs de l’Université de Copenhague ont ajouté deux fragments de fossile à cette collection, dont un morceau de boite crânienne et un élément de tibia. En datant par isotopie radioactive les sédiments entourant ces fossiles, ils estiment qu’ils sont âgés de 66.000 à 80.000 bp.

Ces éléments suggèrent que les ancêtres des Australiens modernes auraient pu coexister, éventuellement pacifiquement, avec ceux des Aborigènes d’Australie

Référence

Early presence of Homo sapiens in Southeast Asia by 86–68 kyr at Tam Pà Ling, Northern Laos

Nature Communications volume 14, Article number: 3193 (2023)

  • Abstract

The timing of the first arrival of Homo sapiens in East Asia from Africa and the degree to which they interbred with or replaced local archaic populations is controversial. Previous discoveries from Tam Pà Ling cave (Laos) identified H. sapiens in Southeast Asia by at least 46 kyr. We report on a recently discovered frontal bone (TPL 6) and tibial fragment (TPL 7) found in the deepest layers of TPL. Bayesian modeling of luminescence dating of sediments and U-series and combined U-series-ESR dating of mammalian teeth reveals a depositional sequence spanning ~86 kyr. TPL 6 confirms the presence of H. sapiens by 70 ± 3 kyr, and TPL 7 extends this range to 77 ± 9 kyr, supporting an early dispersal of H. sapiens into Southeast Asia. Geometric morphometric analyses of TPL 6 suggest descent from a gracile immigrant population rather than evolution from or admixture with local archaic populations.

12/07/2023 Taux d’erreur. Le calculateur quantique d’IBM reprend l’avantage sur celui de Google

Eagle, l’ordinateur quantique d’IBM, confronté à un supercalculateur conventionnel, vient d’affirmer sa supériorité. Il a montré qu’il pouvait corriger ses erreurs, autrement dit devenir tolérant aux « bruits », ou plus précis dans ses calculs, suffisamment vite pour devenir compétitif avec ce super-calculateur

Des ingénieurs d’IBM viennent de confronter Eagle, qui comprend 127 bits quantiques ou qubit, à un supercalculateur du Lawrence Berkeley National Laboratory. L’objet du calcul était de prévoir le comportement d’un ensemble de particules tels que des atomes dotés d’un spin défini à l’avance et interagissant dans le cadre d’un réseau.

La difficulté du problème s’accroît avec le nombre des atomes . A partir d’un certain nombre d’atomes, les calculs deviennent si complexes que les calculateurs classiques doivent renoncer à résoudre le problème.

Au contraire, Eagle a pu continuer à travailler, donnant à penser qu’il avait passé le test avec succès.

Un article de Nature dont nous publions ci-dessous les références et l’abstract précise les conditions de cette expérience. Nous ne savons pas à ce jour si les ingénieurs de Google accepteront de tester sur ces bases leur propre calculateur

(voir notre article précédent:
https://europesolidaire.eu/2023/07/10/10-07-2023-vers-un-calculateur-quantique-pouvant-calculer-avec-un-taux-derreur-acceptable/

En fait, la course vient seulement de commencer. Il serait intéressant de savoir où en sont la Russie et la Chine

Référence

Nature https://www.nature.com/articles/s41586-023-06096-3

Published: 14 June 2023

Evidence for the utility of quantum computing before fault tolerance

  • Abstract

Quantum computing promises to offer substantial speed-ups over its classical counterpart for certain problems. However, the greatest impediment to realizing its full potential is noise that is inherent to these systems. The widely accepted solution to this challenge is the implementation of fault-tolerant quantum circuits, which is out of reach for current processors. Here we report experiments on a noisy 127-qubit processor and demonstrate the measurement of accurate expectation values for circuit volumes at a scale beyond brute-force classical computation. We argue that this represents evidence for the utility of quantum computing in a pre-fault-tolerant era. These experimental results are enabled by advances in the coherence and calibration of a superconducting processor at this scale and the ability to characterize1 and controllably manipulate noise across such a large device. We establish the accuracy of the measured expectation values by comparing them with the output of exactly verifiable circuits. In the regime of strong entanglement, the quantum computer provides correct results for which leading classical approximations such as pure-state-based 1D (matrix product states, MPS) and 2D (isometric tensor network states, isoTNS) tensor network methods break down. These experiments demonstrate a foundational tool for the realization of near-term quantum applications