02/06/2022 Le paquet européen «économie circulaire»

Les ministère français de la transition écologique et de la transition énergétique précisent que l’économie circulaire consiste à produire des biens et des services de manière durable en limitant la consommation et le gaspillage des ressources et la production des déchets. Il s’agit de passer d’une société du tout jetable à un modèle économique plus circulaire.

Ce document précise les principes fondamentaux de l’économie circulaire, préserver les ressources de notre environnement, préserver notre santé, permettre le développement économique et industriel des territoires, réduire les déchets et le gaspillage.

L’économie circulaire est un modèle économique qui vise à répondre à ces enjeux. Elle vise à passer d’une société du tout jetable, basé sur une économie linéaire (extraire, fabriquer, consommer, jeter) vers un modèle économique plus circulaire.

Les nouveaux modèles de production et de consommation liés à l’économie circulaire peuvent être générateurs d’activités et de création d’emplois durables et non délocalisables.

L’économie circulaire fait partie du champ de l’économie verte. Les enjeux de l’économie circulaire sont à la fois environnementaux, économiques et sociaux.

———–

En France, la transition vers une économie circulaire est reconnue officiellement comme l’un des objectifs de la transition énergétique et écologique et comme l’un des engagements du développement durable. Elle nécessite de progresser dans plusieurs domaines.

L’approvisionnement durable : prendre en compte les impacts environnementaux et sociaux des ressources utilisées, en particulier ceux associés à leur extraction et à leur exploitation.

L’écoconception : prendre en compte des impacts environnementaux sur l’ensemble du cycle de vie d’un produit et les intégrer dès sa conception.

L’écologie industrielle et territoriale : mettre en synergie et mutualiser entre plusieurs acteurs économiques les flux de matières, d’énergie, d’eau, les infrastructures, les biens ou encore les services afin d’optimiser l’utilisation des ressources sur un territoire.

L’économie de la fonctionnalité : privilégier l’usage à la possession, vendre un service plutôt qu’un bien.

La consommation responsable : prendre en compte les impacts environnementaux et sociaux à toutes les étapes du cycle de vie du produit dans les choix d’achat, que l’acheteur soit public ou privé.

L’allongement de la durée d’usage des produits par le recours à la réparation, à la vente ou à l’achat d’occasion, par le don, dans le cadre du réemploi et de la réutilisation.

L’amélioration de la prévention, de la gestion et du recyclage des déchets, y compris en réinjectant et réutilisant les matières issues des déchets dans le cycle économique.
————————————————————–

Au niveau européen, quatre directives constituent le Paquet économie circulaire. Celles-ci parues en 2018 constituent le socle d’un passage à l’économie circulaire pour les prochaines années. Il s’agit de nouveaux objectifs mais aussi de nouvelles contraintes pour plus de réemploi et de recyclage ainsi que réduire les mises en décharge. Sa transcription en droit français impose de revisiter la feuille de route économie circulaire, toujours en attente de textes législatifs et réglementaires… Mais certaines dispositions sont déjà applicables !

Le paquet économie circulaire a été publié au Journal officiel de l’Union européenne (JOUE) du 14 juin 2018. Il s’agit de quatre directives concernant les déchets : la directive relative aux véhicules hors d’usage, aux piles et aux DEE n° 2018/849 modifiant la directive 2000/53/CE, la directive concernant la mise en décharge des déchets n° 2018/850 modifiant la directive 1999/31/CE, la directive relative aux déchets n° 2018/851 modifiant la directive 2008/98/CE, la directive relative aux déchets d’emballages n° 2018/852 modifiant la directive 94/62/CE.

31/05/2022 Une informatique quantique tolérante aux fautes

Contrairement aux calculateurs classiques pour lesquels un bit ne peut avoir que deux états, 0 et 1, les bits quantiques peuvent afficher un nombre infini d’états. Leur utilisation pratique dans le cadre de ce que l’on nomme le calcul quantique oblige à résoudre cette difficulté. Elle rend en effet très complexe la correction des erreurs de calcul.

Une équipe de chercheurs autrichiens vient pourtant de publier des recherches dans lesquelles ils affirment avoir trouvé le moyen de surmonter cet obstacle. On trouvera ci-dessous l’abstract et les références de leur article

Ils expliquent que les ordinateurs quantiques sont intrinsèquement beaucoup plus sensibles aux perturbations et nécessiteront donc probablement toujours des mécanismes de correction d’erreurs, car sinon les erreurs se propageront de manière incontrôlée dans le système et des informations seront perdues 

Dans un calculateur classique, pour résoudre ce problème, on utilise la redondance des données. Ce terme signifie que l’on se donne plusieurs copies du calcul concerné. Si une erreur a été commise, les résultats des calculs divergent. Ceci n’est pas possible dans un ordinateur quantique. Selon le principe du « no cloning » de l’informatique quantique, on ne peut copier l’information quantique.

Pour remédier à cela, les chercheurs cités ici proposent de distribuer les informations quantiques dans un état dit intriqué de plusieurs systèmes physiques, par exemple plusieurs atomes individuels. L’intrication quantique est un « enchevétrement » entre deux qubits quantiques qui permet d’en faire un seul système. Si on les éloigne, il est possible de connaître l’état d’un qubit en mesurant celui de l’autre. Ceci peut se faire indépendamment du temps et de la distance.

Ils utilisent pour ceci ce qu’ils nomment une « porte logique quantique universelle » .Ce dispositif est trop complexe pour être résumé ici. Disons que cette « porte » a été réalisée grâce à 16 atomes confinés dans 2 bits quantiques logiques. Ce système présente une tolérance aux pannes suffisante pour le plus grand nombre des calculs

Voir aussi
https://siecledigital.fr/2022/05/31/teleportation-quantique-information/

_______________________________________________

Référence

Demonstration of fault-tolerant universal quantum gate operations, 

Nature 
volume  605,  pages 675–680 (2022)

Abstract

Quantum computers can be protected from noise by encoding the logical quantum information redundantly into multiple qubits using error-correcting codes. When manipulating the logical quantum states, it is imperative that errors caused by imperfect operations do not spread uncontrollably through the quantum register. This requires that all operations on the quantum register obey a fault-tolerant circuit design, which, in general, increases the complexity of the implementation. Here we demonstrate a fault-tolerant universal set of gates on two logical qubits in a trapped-ion quantum computer. In particular, we make use of the recently introduced paradigm of flag fault tolerance, where the absence or presence of dangerous errors is heralded by the use of auxiliary flag qubits. We perform a logical two-qubit controlled-NOT gate between two instances of the seven-qubit colour code, and fault-tolerantly prepare a logical magic state. We then realize a fault-tolerant logical T gate by injecting the magic state by teleportation from one logical qubit onto the other. We observe the hallmark feature of fault tolerance—a superior performance compared with a non-fault-tolerant implementation. In combination with recently demonstrated repeated quantum error-correction cycles, these results provide a route towards error-corrected universal quantum computation.

31/05/2022 Iter. A la recherche du deutérium

Plus efficace, moins dangereuse et moins polluante que la fission nucléaire que nous connaissons aujourd’hui, la fusion éveille beaucoup d’espoirs concernant la production électrique de demain. Le principe en est simple : deux isotopes de l’hydrogène différents, le deutérium et le tritium, sont envoyés dans un réacteur spécialisé appelé tokamak où ils fusionnent, créant un plasma aussi chaud que la surface du soleil ; Pour le moment cependant, personne ne maîtrise suffisamment cette technique pour produire de l’électricité en quantité suffisante pour être utilisée.

Pour le moment c’est la France qui pilote cette recherche internationale, dans le cadre du Programe Iter, à Cadarache

Rappel

Les isotopes sont des atomes qui possèdent le même nombre d’électrons – et donc de protons, pour rester neutre -, mais un nombre différent de neutrons. On connaît actuellement environ 325 isotopes naturels et 1200 isotopes créés artificiellement. Les isotopes d’un même élément ont des propriétés chimiques identiques mais des propriétés physiques différentes (stables ou radioactifs notamment).

Par exemple, l’hydrogène a trois isotopes : l’hydrogène classique noté H (1 proton, pas de neutron), le deutérium noté H2 (1 proton, 1 neutron) et le tritium noté H3 (1 proton,2 neutrons

Le plasma est un état de la matière (au même titre que liquide, solide ou gaz). C’est de la matière partiellement ou totalement ionisée. Les plasmas sont un milieu constitué d’un mélange de particules neutres, d’ions positifs (atomes ou molécules ayant perdu un ou plusieurs électrons) et d’électrons négatifs. Le terme « ionisation » se rapporte à l’action d’ajouter ou d’enlever des charges électriques à un atome ou à une molécule. La structure électronique de l’atome ou de la molécule est alors modifiée et, perdant ou gagnant un ou plusieurs électrons, l’entité prend le nom d’ion.

Grâce aux très importants moyens et efforts investis dans le secteur, il est toutefois possible que la fusion devienne à moyen terme une solution viable. Auquel cas elle fera face à un problème majeur: elle manquera de tritium.

Le deutérium est à la fois abondant et simple à obtenir puisque chaque mètre cube d’eau de mer contient 33 grammes de deutérium que l’on extrait de manière routinière à des fins scientifiques et industrielles.Ce n’est en revanche pas le cas du tritium. Il n’est présent dans la nature qu’à l’état de traces, et les réserves mondiales de l’isotope se limitent à 20 kilos.

Le stock de tritium disponible aujourd’hui est un sous-produit des réacteurs à fission, qui en rejettent environ 100 grammes par an. Mais il ne reste que trente de ces réacteurs en activité, et ils sont en fin de vie. De surcroît, l’objectif de la fusion est de remplacer le nucléaire existant, pas de dépendre de lui.

Le tritium n’a qu’une durée de vie d’un peu plus de douze ans. Lorsqu’Iter démarrera, normalement en 2035, la moitié du stock existant aura déjà disparu. Or, un réacteur devrait avoir besoin d’environ 200 kilos de tritium par an.

Cependant théoriquement, les réacteurs à fusion pourraient être autosuffisants en tritium. Si les neutrons rejetés par le réacteur entraient en contact avec du lithium-6, ils devraient produire du tritium, qui pourrait être extrait et réinjecté dans le réacteur. Un tokamak aurait ainsi simplement besoin d’une petite quantité de l’isotope pour démarrer, puis produire son propre carburant.

Tapisser le tokamak d’une couche de lithium pourrait donc suffire à le rendre autosuffisant en tritium, tout en produisant un petit surplus pour démarrer de nouvelles centrales. Mais ceci restera à démonter, notamment dans le cadre d’Iter.

Voir

https://www.wired.com/story/nuclear-fusion-is-already-facing-a-fuel-crisis/

30/05/2022 Le berceau des galaxies

Après le Big Bang, il a environ 13,8 milliards d’années, l’univers primitif en résultant était empli d’énormes nuages de gaz neutres (ne réagissant pas en présence d’autres gaz) connus sous le nom de Damped Lyman-α systems,ou DLA. Ces gaz se sont condensés lentement pour former les premières étoiles et galaxies.

Leurs résidus sont encore observables aujourd’hui, mais avec difficulté. Ils sont trop diffus et n’émettent pas de lumière par eux-mêmes. Aujourd’hui, pour estimer leur taille et leur masse, les astrophysiciens utilisent des quasars ou trous noirs supermassifs émettant de la lumière comme référence lumineuse.

Aujourd’hui, deux directeurs de recherche au W.M. Keck Observatory à Kamuela, Hawaii annoncent avoir résolu le problème en utilisant des galaxies dont la forme leur permet de jouer le rôle de lentilles gravitationnelles (Gravitationally lensed galaxies https://en.wikipedia.org/wiki/Gravitational_lens), pour observer des DLA âgés de 11 milliards d’années. Ces galaxies disposent d’une structure massive frontale qui courbe la lumière se dirigeant vers la Terre comme le ferait un télescope cosmique.

Cette méthode permet aux astrophysiciens de voir des éléments de l’espace profond qui sont invisibles autrement. Dans ce cas précis ils ont pu déterminer la taille des deux DLA, soit dans ce cas les 2/3 de la Voie Lactée. Ils ont constaté qu’ils contenaient des galaxies-hôtes.

Référence

Resolving the HI in Damped Lyman-α systems that power star-formation

DOI:  10.1038/s41586-022-04616-1

Auteurs: Rongmon Bordoloi, Ahmed Shaban, North Carolina State University et autres

Published: May 18, 2022 in Nature 

Abstract:
Reservoirs of dense atomic gas (primarily hydrogen), contain ~90% of the neutral gas at a redshift of 3, and contribute to 2-3% of the total baryons in the Universe.  These “Damped Lyman-α systems” (so called because they absorb Lyman-α photons from within and from background sources) have been studied for decades, but only through absorption lines present in the spectra of background quasars and gamma-ray bursts. Such pencil beams do not constrain the physical extent of the systems. Here, we report integral-field spectroscopy of a bright, gravitationally lensed galaxy at a redshift of 2.7 with two foreground Damped Lyman-α systems. These systems are ≳ 238 kpc2 in extent, with column densities of neutral hydrogen varying by more than an order of magnitude on ≲3 kpc-scales. The Otan column densities are ~ 1020.46 – 1020.84 cm-2 and the total DLA masses are ≳ 5.5×108 – 1.4×109 M⊙, showing that DLAs contain the necessary fuel for the next generation of star formation, consistent with relatively massive, low-luminosity primeval galaxies at redshifts > 2.

28/05/2022. La France entre l’américanisation et le djihadisme

Appelons sommairement France une nation qui s’est progressivement distinguée au fil des siècles des dizaines d’autres nations que l’on rencontre à la surface de la Terre. Si l’on pouvait la définir en quelques mots, que dirait-on ? Au plan des croyances, sur un fond hérité du christianisme encore très vivant, elle se caractérise par une laïcité aujourd’hui très affirmée. Laïcité signifie stricte séparation des églises et de l’Etat ou des institutions publiques, chacun étant libre de croire ce qu’il veut au plan philosophique.

Au plan racial, sur un fond encore largement représenté par la race blanche, dite aussi indo-europénne, la France comporte d’importantes minorités issues de l’immigration et coexistant pacifiquement avec celle-ci, issues d’Afrique (Afrique du nord et Afrique continentale) ou d’Asie-Pacifique.

En ce qui concerne le mode de vie socio-économique, il s’agit d’une société industrielle avec d’importantes composantes agricoles et artisanales. Les services publics y sont partout bien représentés et actifs. La recherche scientifique est bien présente, y compris dans le domaine spatial. Néanmoins les équilibres économiques y sont fragiles, des cycles de sous-production et d’inflation se succédant ou se superposant.

En termes de défense, malgré d’importantes lacunes et d’un budget un peu insuffisant, la France dispose de l’arme nucléaire et de forces armées bien formées, habituées à de nombreux théâtres d’opération. Il n’existe aucun conflit de fond entre l’armée et la nation.

Depuis quelques années cependant, des « bandes de jeunes » selon l’expression usitée, tentent de faire la loi dans certaines banlieues en terrorisant et pillant les habitants. Il n’est politiquement pas possible d’employer systématiquement l’armée pour maintenir l’ordre. Quant à la police, elle est débordée, n’étant pas autorisée à utiliser son armement de service.

Sur le plan géographique, la France possède d’un des domaines maritimes les plus importants du monde.

Son revenu national brut par habitant est d’environ 50.000 dollars.
https://donnees.banquemondiale.org/indicator/NY.GNP.PCAP.CD

Compte tenu de ces données, la France est généralement considérée comme la 7e puissance mondiale

Les Etats-Unis

Par comparaison, les Etats-Unis présentent des supériorités mais aussi d’indiscutables faiblesses. Les supériorités ne sont pas dans l’ensemble transposables . Elles tiennent à la taille du pays qui est celle d’un demi continent, à la richesse d’un complexe militaro-industriel qui n’a cessé d’investir pour mener des guerres sans fins, y compris dorénavant celle de l’espace. Le budget américain dit de défense équivaut à plusieurs fois ceux cumulés des autres pays.

Les supériorités tiennent aussi à la puissance des industries de l’audio-visuel, aujourd’hui représentées, après le cinéma, par la télévision. Elles ont su donner une image si favorable de la société et de l’homme américain qu’elle est devenue une référence mondiale. On a longtemps parlé de l’Empire américain.

Mais celui-ci ne s’étend plus dorénavant aux quelques deux milliards de Russes, de Chinois et d’Indiens décidés aujourd’hui à mettre en place leur propres empires.

Par ailleurs l’américanisme présente des faiblesses en terme de civilisation. Leur culture n’ a rien d’universel. La libre pensée y est impossible, face à la puissance des religions dominantes. 50% des croyants se déclarant protestants, 20% catholiques. Pour le reste, les citoyens n’y sont dans l’ensemble considérés que comme des machines à consommer. Ils doivent se borner à reproduire sans le critiquer l’ordre social. Or celui est dominé par des élites pour qui seule compte leur propre puissance personnelle.

L’américanisation pour la France signifierait perdre toute autonomie et se satisfaire de n’être qu’un simple rouage de la machine à gagner ou à perdre américaine.

Le Djihadisme

Aujourd’hui le djihadisme s’efforce de se répandre, tant en France qu’en Amérique. Il s’agit d’une idéologie politique et religieuse islamiste qui recommande l’utilisation de la violence, dite guerre sainte, afin d’instaurer un État islamique.

Le djihadisme a beaucoup de difficultés pour le moment à s’implanter aux Etats-Unis compte tenu de la concurrence des organisations criminelles plus anciennes telles que diverses maffias voulant garder leurs clientèles.

Mais en Europe et plus particulièrement en France le djihadisme espère recruter des terroristes, notamment au sein des banlieues urbaines où trop de jeunes citoyens d’origine arabo-musulmane font l’objet d’un rejet fréquent quand ils cherchent un emploi et cherchent à s’intégrer.

A fortiori, dès qu’un attentat ou un crime est commis, les premiers suspectés sont recherchés parmi les jeunes des banlieues

29/05/2022. Armements. Massifier ou sophistiquer ?

Selon les dernières déclarations du président ukrainien Volodymyr Zelensky, 2.000 missiles russes se seraient abattus sur l’Ukraine depuis bientôt trois mois. Même s’il paraît impossible de vérifier ce chiffre, il paraît être un nouvel exemple révélateur de l’intensité du conflit ouvert par la Russie. Il soutient la doctrine dite de la «massification» des armées.

Dans le cadre de cette doctrine, c’est le nombre de combattants, de munitions et de systèmes d’armes engagés (véhicules, bateaux, avions…) plutôt que leur sophistication qui fera céder l’adversaire. Ainsi, environ 600 chars russes ont été détruits depuis le début du conflit. Ils semblent avoir tous été remplacés. Leur nombre a même augmenté. La vitesse de leur mise en service a surpris. Ce chiffre représenterait plus de la totalité des chars allemands Leopard 2 et français Leclerc. Mais ces chars semblent bien plus rustiques que leurs homologues allemands et français.

 Par ailleurs à Kharkiv près de la frontière russe, où les combats ont été intense au début du conflit, il aurait été tiré en une minute autant de munitions que l’Armée française n’en utilise pour l’entraînement en un an.

Ces chiffres ne doivent cacher une autre réalité. Depuis 2 ans, comme Vladimir Poutine l’avait annoncé et comme nous l’avions relaté, la Russie s’est dotée d’un nombre important de missiles hypersoniques Zircon et Kinjal. Le 22 mai, un missile Zircon a été tiré depuis la frégate Amiral Gorchkov, en mer de Barents, vers une cible dans les eaux de la mer Blanche, dans l’Arctique, a indiqué le ministère russe de la Défense dans un communiqué. La cible située à un millier de kilomètres a été atteinte sans difficulté. Le tir a été effectué dans le cadre des essais de nouvelles armes russes selon le communiqué. Un tir analogue a été présenté sur les télévisions du monde entier.

Le Zircon peut être doté d’une tête nucléaire. Sa portée maximale serait de 1000 km. Il peut également lancé d’un sous-marin, lui même indétectable avant d’avoir procédé au tir. Ceci signifie que la ville de New York pourrait éventuellement être frappée d’une bombe russe sophistiquée, du type nucléaire tactique à faible aire de dispersion.

27/05/2022. La Nupes sortira-t-elle des sentiers battus ?

La Nupes (Nouvelle Union populaire écologique et sociale) a créé la surprise en rapprochant les différents partis de gauche français le Pôle écologiste (comprenant notamment Europe Écologie Les Verts), le Parti communiste français et le Parti socialiste en vue de présenter des candidatures communes aux élections législatives de 2022.

L’enjeu est de taille. Si la Nupes disposait d’un nombre suffisant de sièges, à commencer par l’accès à la présidence de la commission des finances, elle pourrait imposer des changements géopolitiques importants obligeant Emmanuel Macron à en tenir compte et modifier en profondeur la politique de la France, tant au plan national qu’en ce qui concerne l’Union européenne et la politique internationale. Le Rassemblement National avec Marine Le Pen serait obligés de s’aligner.

Mais il ne faut pas se faire d’illusions. Si la Nupes se bornait à rassembler les vieux briscards de l’opposition de gauche autour d’objectifs pratiquement inchangés depuis trente ans, elle n’éveillerait aucun intérêt. De plus, comme elle persisterait à ignorer les nouveaux enjeux de la politique internationale, face notamment aux affrontements prévisibles entre les Etats-Unis et l’ensemble russo-chinois ou en réponse aux offensives du terrorisme islamique, elle ne passionnera pas grand monde. C’est faire injure à l’électeur français de penser qu’il n’est intéressé que par le prix de l’essence, aussi important que soit celui ci pour qui notamment vit en banlieue.

Ainsi, l’on comprendrait mal que la Nupes ne s’intéresse pas aux grands enjeux du passage généralisé à la société numérique et au rôle que devrait y jouer la France face aux Géants de l’Internet américain. En matière de robotisation, la Nupes pourrait avoir un rôle important en proposant des modèles de robots intelligents destinés non à remplacer le travailleur actuel mais à lui permettre de continuer à jouer un rôle essentiel. Plus généralement dans tous les grands domaines de la recherche scientifique et technique, nul ne comprendrait que la Nupes n’engage pas des débats en sein puis dans les instances intéressées pour y faire valoir d’autres objectifs que la préservation de l’acquis ou au mieux la recherche du profit immédiat. Inutile de donner des exemples ici. Les citoyens et électeurs qui font l’effort de s’informer comprendront ce dont il s’agir.

Terminons par un détail qui a son importance. La Nupes ferait bien de changer de nom et d’initiales si elle voulait devenir une référence un tant soit peu sexy dans le monde francophone.

26/05/2022. Appartenons-nous à l ‘espèce Homo sapiens ?

Homo sapiens, plus souvent appelé « homme moderne »« homme »« humain », ou « être humain », est une espèce de primates originaire d’Afrique qui s’est aujourd’hui répandue et généralisée  sur l’ensemble de la planète hormis l’Antarctique. Il appartient à la famille des hominidés et est le seul représentant actuel du genre Homo, les autres espèces étant éteintes. Les plus anciens fossiles connus de cette espèce, découverts sur le site marocain de Djebel Irhoud, sont datés d’environ 300 000 ans1.

Parmi les hominidés actuels, il se distingue du point de vue physiologique par un mode locomoteur au sol exclusivement bipède, son cerveau plus volumineux et sa pilosité moins développée. Il faut ajouter à ces critères l’existence d’une ménopause chez la femme, rare chez les autres hominidés.

Du point de vue de l’éthologie, et par rapport au reste du règne animal, l’Homo sapiens se distingue par la complexité de ses relations sociales, l’utilisation d’un langage articulé élaboré transmis par l’apprentissage, la fabrication d’outils, le port de vêtements, la maîtrise du feu, la domestication de nombreuses espèces végétales et animales, ainsi que l’aptitude de son système cognitif à l’abstraction, à l’introspection et à la spiritualité.

Dans le dernier quart du 20e siècle, l’espèce Homo sapiens a parfois été subdivisée en deux sous-espèces, l’Homme moderne dit Homo sapiens sapiens et l’Homme de Néanderthal dit Homo sapiens neanderthalensis. Le consensus actuel classe à nouveau les deux groupes humains dans deux espèces séparées, l’Homme de Néandertal étant désormais dit Homo neanderthalensis,

Ceci dit, pour répondre à la question Appartenons-nous à l ‘espèce Homo sapiens ? il serait tentant au vu de nos performances actuelles de répondre par la négative. Nous mettons en danger par nos comportements belliqueux l’ensemble de l’humanité, voire l’ensemble de la planète. Chacun sait qu’en cas de guerre nucléaire, fut-elle de faible intensité, ce serait toute vie pluricellulaire qui pourrait disparaître. Ceci n’a rien de sapiens.

Mais pourrait-on changer d’espèce, au bénéfice d’une espèce qui serait vraiment sage ? Si l’on s’en tenait aux processus de la reproduction naturelle, la réponse serait définitivement négative. A supposer que les généticiens puissent définir des embryons possédant des qualités de sagesse améliorées par rapport à celles de l’humain, il faudrait attendre des siècles pour que ceux-ci ‘ils puissent, grâce à leur sagesse, remplacer les milliards d’humains actuels .

Le seul espoir repose dans la perspective de pouvoir un jour réaliser des hommes de synthèse ou robots humanoîdes superinteligents, y compris sous forme de prothèses cérébrales enrichissant le comportement du cerveau supérieur des humains. Mais ce serait une forme de suicide pour ceux des humains qui accepteraient de se lancer dans un tel processus.

Si les astrophysiciens ne détectent aujourd’hui aucune trace de vie intelligente dans les zones dites habitables des nombreuses planètes qu’ils peuvent désormais observer, serait-ce du à un simple hasard ?

Expansion de l’univers. Un monde miroir invisible n’interagissant avec notre monde qu’à travers la gravité

Voir https://www.futura-sciences.com/sciences/actualites/univers-hubble-franchit-nouvelle-etape-determination-taux-expansion-univers-98638/

Notre Univers est en expansion. Cela ne fait aucun doute. Ce qui fait débat, c’est la vitesse à laquelle se poursuit aujourd’hui son taux d’expansion, baptisé du nom de constante de Hubble. C’était en hommage à l’Américain Edwin Hubble qui a découvert le phénomène d’expansion de l’univers et en a réalisé les premières mesures dans les années 1920. Et l’hommage est encore renforcé aujourd’hui alors que des chercheurs révèlent de nouveaux résultats plus précis que jamais obtenus grâce aux données recueillies pendant plus de 30 ans par le télescope spatial Hubble.

Celui-ci visait dans les années 1990 mieux observer les céphéides.Une céphéide est une étoile variable, géante ou supergéante jaune, de 4 à 15 fois plus massive que le Soleil et de 100 à 30 000 fois plus lumineuse, dont l’éclat varie de 0,1 à 2 magnitudes selon une période bien définie, comprise entre 1 et 135 jours, d’où elle tire son nom d’étoile variable. Leur observation permet d’affiner la mesure des distances des galaxies proches de la nôtre. Au début des années 2000, les efforts ont été récompensés. Les astronomes ont pu ainsi déduire une valeur de la constante de Hubble avec une précision de 10 %, soit une valeur de 72 plus ou moins 8 kilomètres par seconde par mégaparsec (km/s/Mpc).

Malheureusement à partir des mesures de la mission Planck (Agence spatiale européenne) sur notre univers primitif et selon le modèle cosmologique standard, les théoriciens prévoient une valeur de la constante de Hubble qui devrait être de 67,5 plus ou moins 0,5 km/s/Mpc.

D’où peut venir cet écart ? Les astronomes l’ignorent encore. Mais il est possible qu’ils doivent aller chercher la réponse dans de nouvelles lois de la physique Une étude très récente tente par exemple d’expliquer l’écart à l’aide d’un « monde miroir » invisible de particules qui interagirait avec notre monde uniquement via la gravité.

Pour affiner cette valeur, les chercheurs ont ensuite ajouté de nouvelles caméras au télescope spatial. Avec l’idée d’atteindre une précision de 1 %. Une idée menée notamment pour la collaboration Supernova, H0, for the Equation of State of Dark Energy (SH0ES).

Les nouveaux résultats publiés aujourd’hui par les chercheurs reposent ainsi sur un échantillon de marqueurs cosmiques plus que doublé. Ils intègrent aussi une analyse mise à jour des données antérieures. Et au total, 42 supernovae — sachant que Hubble assiste à une explosion en supernova par an, environ… – utiles elles aussi à déterminer les distances dans l’Univers. Les astronomes estiment ainsi, compte tenu de la taille de leur échantillon, à seulement une chance sur un million, la possibilité « d’un tirage au sort malchanceux ». Et donnent une valeur de la constante de Hubble de quelque 73 km/s/Mpc. Très exactement 73,04 +/- 1,04 km/s/Mpc.

Pour affiner cette valeur, les chercheurs ont ensuite ajouté de nouvelles caméras au télescope spatial. Avec l’idée d’atteindre une précision de 1 %. Une idée menée notamment pour la collaboration Supernova, H0, for the Equation of State of Dark Energy (SH0ES).

Les nouveaux résultats publiés aujourd’hui par les chercheurs reposent ainsi sur un échantillon de marqueurs cosmiques plus que doublé. Ils intègrent aussi une analyse mise à jour des données antérieures. Et au total, 42 supernovae — sachant que Hubble assiste à une explosion en supernova par an, environ, utiles elles aussi à déterminer les distances dans l’Univers. Les astronomes donnent une valeur de la constante de Hubble de quelque 73 km/s/Mpc. Très exactement 73,04 +/- 1,04 km/s/Mpc.

L’ennui, c’est qu’à partir des mesures de la mission Planck (Agence spatiale européenne), sur notre univers primitif et selon le modèle cosmologique standard, les théoriciens prévoient une valeur de la constante de Hubble qui devrait être de 67,5 plus ou moins 0,5 km/s/Mpc. Alors d’où peut bien venir cet écart ? Les astronomes l’ignorent encore. Mais il est possible qu’il faille chercher la réponse dans de nouvelles lois de la physique

Une étude très récente ont nous publions ci-dessous les références et l’abstract, tente par exemple d’expliquer l’écart à l’aide d’un « monde miroir » invisible de particules qui interagirait avec notre monde uniquement via la gravité.

Symmetry of Cosmological Observables, a Mirror World Dark Sector, and the Hubble Constant
Phys. Rev. Lett. 128, 201301 – Published 18 May 2022

ABSTRACT

We find that a uniform scaling of the gravitational free-fall rates and photon-electron scattering rate leaves most dimensionless cosmological observables nearly invariant. This result opens up a new approach to reconciling cosmic microwave background and large-scale structure observations with high values of the Hubble constant H0: Find a cosmological model in which the scaling transformation can be realized without violating any measurements of quantities not protected by the symmetry. A “mirror world” dark sector allows for effective scaling of the gravitational free-fall rates while respecting the measured mean photon density today. Further model building might bring consistency with the two constraints not yet satisfied: the inferred primordial abundances of deuterium and helium.

25/05/2022. Dans quelques années la fusion nucléaire

Pour en savoir plus, voir https://trustmyscience.com/fusion-nucleaire-c-est-pour-quand/

Ce texte a été écrit en hommage à Bernard Bigot, décédé à l’âge de 72 ans. le 14 mai 2022. Ce physico-chimiste, grand commis de l’Etat, au service de l’énergie atomique, avait été appelé en 2015 à la direction d’ITER, réacteur à fusion nucléaire expérimental international.

La production d’électricité dans des réacteurs dits nucléaires (ou centrales nucléaires) a été adoptée en France dès les origines à l’incitation des scientifiques et industriels ayant participé sous De Gaulle à la réalisation de la bombe atomique française et voulant valoriser les retombées civiles de cette arme. Aujourd’hui avec le réchauffement climatique ce choix est apprécié. Il évite d’utiliser comme en Allemagne des centrales à charbon grosses productrices de gaz à effets de serre.

Aujourd’hui, c’est la fusion nucléaire et non plus comme aujourd’hui la fission qui représente la meilleure solution pour produire de l’énergie nucléaire. Nous évoquons souvent ici le programme international ITER  (International Thermonuclear Experimental Reactor), dont la France, compte tenu de son expérience, assure à Cadarache une grande partie du pilotage

Mais quelle est la différence entre la fusion et la fission ? Citons trustmyscience

Les réacteurs nucléaires actuels produisent de l’énergie par une réaction de fission d’atomes lourds. La fission nucléaire est la projection d’un neutron sur un atome lourd instable (uranium 235 ou plutonium 239), lequel absorbe le neutron et éclate en deux atomes plus légers. Il en résulte une production d’énergie, de rayonnements radioactifs et de deux ou trois neutrons capables à leur tour de provoquer une fission, et ainsi de suite par réactions en chaîne.

La fusion nucléaire permet de produire de l’énergie de façon opposée, en rapprochant deux atomes d’hydrogène (deutérium et tritium). Lorsque leurs noyaux légers fusionnent, le nouveau noyau créé se trouve dans un état instable et, afin de retrouver un état plus stable, éjecte un atome d’hélium et un neutron avec beaucoup d’énergie. Ceci se déroule à des températures de plusieurs millions de degrés, comme au cœur du Soleil.

Ce type de production d’énergie présente de nombreux avantages. Quand la technologie sera mise en route, elle utilisera des matières premières presque illimitées, obtenues à partir d’eau ou de la réaction de fusion elle-même. En outre, elle est extrêmement efficace, puisqu’elle permet théoriquement de libérer (à masse égale) une énergie quatre fois supérieure à la fission, et près de quatre millions de fois supérieure à celle d’une réaction chimique simple telle que la combustion du charbon, du pétrole ou du gaz. La fusion nucléaire est également bien plus sûre pour notre santé et a un faible impact environnemental. En effet elle ne libèrera pas de gaz à effet de serre, l’hélium produit étant un gaz inerte non toxique. Aucun déchet radioactif de haute activité et à vie longue n’en résultera.

Plus de 50 ans d’amélioration des tokamaks

L’idée d’exploiter l’énergie issue de la fusion nucléaire n’est pas nouvelle. Dans les années 60, des chercheurs russes ont réussi à atteindre des températures et des durées de confinement du plasma (deux des paramètres essentiels de la fusion) jamais obtenues par le passé. « Le plasma représente le quatrième état de la matière : quand on chauffe un élément solide, il devient liquide ; si on le chauffe davantage, il devient gazeux ; et si on le chauffe davantage encore, il devient plasma », explique Didier Perrault, expert de l’institut chargé de piloter la vingtaine de spécialistes mobilisés pour évaluer la sûreté de l’installation du réacteur thermonucléaire à fusion ITER.

Baptisée « tokamak », la machine est une structure contenant des électroaimants permettant de confiner le plasma ultra chaud. Le principal défi de cette technologie est justement que le plasma doit être contenu et contrôlé par des champs magnétiques puissants, dans le but de maintenir une réaction de fusion stable et exploitable.

Dès lors, le tokamak s’est imposé comme le concept dominant parmi les chercheurs qui travaillaient sur le projet, les machines se sont multipliées dans beaucoup de pays et les installations se sont améliorées. En une cinquantaine d’années, la performance des plasmas produits par les machines de fusion a ainsi été multipliée par 10 000, et il ne resterait plus qu’à multiplier leur performance par 10 pour réaliser un réacteur capable de produire de l’énergie de manière continue.

En 1985, le projet ITER est lancé dans le sud de la France, dont le but est de générer une puissance de 500 MW, contre les 50 MW consommés. Même si les travaux ont débuté en 2010, la mise en route du premier réacteur de fusion nucléaire ITER prend du temps, et les étapes la nécessitant sont sans cesse reportées.

Les start-ups sont présentes dans la course au développement de la fusion

Pourtant, les avancées technologiques ne manquent pas pour espérer utiliser au plus vite ce type de réaction nucléaire. L’année dernière, une équipe du MIT affirme avoir développé un nouvel électroaimant capable de fournir une puissance jusqu’ici jamais atteinte. En effet, la principale difficulté de la fusion nucléaire est de contenir le plasma du réacteur par le biais d’électroaimants, lesquels peuvent être limités par la puissance et la durée des réactions. D’après les chercheurs du MIT, les récentes avancées sur l’aimant présenté permettraient qu’une minicentrale à fusion (sous très haute température) voie le jour pour la première fois en 2025. L’équipe américaine prend le contrepied par rapport à ITER, qui est une installation énorme fonctionnant à des températures plus basses.

De leur côté, les chercheurs d’ITER ont réceptionné la première partie d’un aimant massif qui constituera l’élément central du réacteur il y a moins d’un an. Appelé « solénoïde central », l’aimant est fabriqué pour maintenir des pressions et températures extrêmes. Il permet de générer un champ magnétique environ 280 000 fois plus puissant que le champ magnétique terrestre. « Chaque fois qu’un composant majeur et unique est achevé, comme le premier module du solénoïde central, nous sommes plus confiants dans notre capacité à mener à bien l’ingénierie complexe de la machine complète », a déclaré Laban Coblentz, porte-parole d’ITER.

En décembre 2021, une réaction de fusion nucléaire avait même frôlé le seuil d’ignition, dont l’atteinte permettrait au réacteur de s’autosuffire, sans apport d’énergie nécessaire. En concurrence directe avec ITER, de nombreuses start-ups se lancent dans la voie vers la fusion commerciale, avec parfois des approches innovantes. Par exemple, une société s’est focalisée sur la fusion par projectile, dont le but est de lancer un projectile à très grande vitesse sur une cible contenant du combustible de fusion pour générer de l’énergie. La technique est en cours d’amélioration, car l’énergie générée n’est pas encore suffisante pour initier la réaction. La société souhaite aussi s’associer aux producteurs d’électricité existants pour développer une centrale pilote qui devrait voir le jour dans les années 2030.

Des limites qui devraient être dépassées dans une quinzaine d’années

Qu’est-ce qui empêche réellem nt la mise en route du tout premier réacteur à fusion nucléaire ? Même si seulement une petite quantité de tritium est nécessaire à la réaction, il faut savoir que l’atome n’existe pas à l’état naturel et se désintègre rapidement. Produit à partir du lithium, il faut donc le produire au sein même du réacteur, par réaction avec des neutrons.

En outre, les déchets de tritium pourraient poser des problèmes de contamination. Dans le cas d’ITER, ils feront un peu moins de 500 tonnes au total et devront être entreposés sur le site jusqu’à ce qu’ils deviennent inoffensifs (la demi-vie du tritium n’est cependant que de 12 ans). Actuellement, l’un des objets de recherche consiste à diminuer cette quantité de tritium dans les déchets. Il faudra les chauffer à très haute température, ou produire des barrières de perméation qui empêcheront la contamination de l’eau des systèmes de refroidissement par le tritium. Les déchets devraient commencer à s’accumuler dès 2035, et maîtriser leur gestion est essentiel.

En tenant compte de ces éléments, les centrales à fusion nucléaire sont très prometteuses et bien plus avantageuses que celles à fission. Même si de nombreuses améliorations sont encore nécessaires pour réussir la prouesse de la fusion à l’échelle industrielle, la solution est envisageable dans quelques décennies. En ce qui concerne ITER, les scientifiques affirment que le réacteur est désormais achevé à 75%, et que le premier plasma d’hydrogène permettant son bon fonctionnement (initialement envisagé en 2025) est prévu pour 2027. Il atteindrait sa pleine puissance au mieux en 2035, mais sans la certitude de devenir énergétiquement viable. Pour ce qui est des premiers réacteurs prévus pour une utilisation industrielle plus rentable que la fission, certains experts s’accordent à dire qu’il faudra attendre au moins 2040-2050.

.