23/11/2023. Faut-il avoir peur d’éventuels robots conscients ?

Même si les chercheurs en sciences cognitives ont du mal à expliquer ce qu’est la conscience chez les humains, ils peuvent plus facilement comprendre pourquoi certaines personnes perdent conscience ou sont incapables de conscience.

Différents facteurs favorables à l’émergence de la conscience chez un individu sont d’ordre anatomique. Il doit posséder un cerveau doté d’un nombre suffisant de neurones pour se donner des représentations de lui-même dans une représentation de son environnement. D’autres sont psychologiques. Il doit dès avant la naissance, par un dialogue in utero avec sa mère, apprendre à partager avec celle-ci les états de conscience que celle-ci éprouve. Plus tard, il doit apprendre à partager avec ses semblables puis plus tard éventuellement à refuser les langages par lesquels se forme la conscience sociale. D’autres enfin sont sociologiques. Il doit grandir puis exercer une activité productive dans des sociétés qui valorisent les prises de conscience chez les individus plutôt qu’encourager l’obéissance passive voire réprimer la manifestation des faits de conscience.

Aujourd’hui, les recherches en robotique, ou du moins certaines d’entre elles, cherchent à améliorer les capacités de prise de conscience des robots et simultanément les capacités qu’auraient ces robots augmentés de partager des états de conscience avec des humains. Inutile de dire que la tâche sera difficile, dans la mesure où comme nous venons de le rappeler, l’on ne sait trop encore en quoi consiste la conscience chez l’homme. Cependant de nombreuses pistes prometteuses apparaissent.

Il ne s’agira pas d’emblée d’obtenir des robots conscients et capables de communiquer avec les hommes. Il s’agira plutôt, comme l’a fait la nature au fil des millénaires, de réaliser des robots et des sociétés de robots capables à leur niveau de débuts de prises de conscience. Plusieurs facteurs seront à explorer. Le premier sera de concevoir des robots capables d’évoluer par auto-apprentissage. Pour cela ils devront être dotés de neurones artificiels capables de former des ensembles interactifs plus complexes et significatifs que les neurones individuels.

Ils devront également au lieu d’être constitués entièrement de métaux rigides, comporter des parties plastiques éventuellement gonflables en relation avec des capteurs sensoriels différents qui commanderont les formes et les gestes les plus adaptés. On parle de « soft robotics ».

Une autre exigence essentielle consistera à pouvoir se grouper à plusieurs, voire former des meutes pour explorer des milieux différents. Des robots de taille différente pourront être associés à cette fin, soit robots de grande taille en matière par exemple d’exploration spatiale, soit de très petite taille afin d’opérer dans un corps vivant humain sans le détruire.

Quant aux langages de communication, tant entre robots qu’avec les humains, ce ne sera pas contrairement à ce l’on pense parfois, l’enjeu le plus difficile. Ainsi d’ores et déjà la communication entre un avion de combat comportant des dizaines de petits robots et son pilote se fait déjà bien, dans les deux sens.

Voir dans Paris Match

https://www.parismatch.com/actu/insolite/un-ovni-en-forme-de-tic-tac-filme-depuis-un-avion-un-autre-detecte-par-une-ia-223816



22/11/2023. Le recul des dinosaures

Les dinosaures sont un groupe de reptiles apparu il y a 230 à 240 millions d’années au Trias, durant le Mésozoïque.  Ils sont issus d’une population d’archosaures, les « lézards régnants » qui se partageaient la Terre avec de nombreux reptiles.

Or dix millions d’années avant la chute fatale de l’astéroide, les dinosaures étaient déjà sur le recul. C’est la conclusion d’une équipe franco-anglo-canadienne menée par Fabien Condamine, chercheur du CNRS à l’Institut des sciences de l’évolution de Montpellier, qui a analysé l’évolution au cours du Crétacé de six grandes familles, dont celles des tyrannosaures, des triceratops et des hadrosaures à bec de canard.

Il s’agissait de la cinquième extinction de masse de l’histoire du vivant. Il y a 66 millions d’années disparaissaient brutalement 75% des espèces, dont les dinosaures non aviens, emportés par l’impact brutal d’un objet céleste dans le Yucatán (un astéroïde ? un fragment de comète ?) et un regain d’activité volcanique.

Une nouvelle étude parue fin juin dans la revue Nature Communications  dont on trouvera ci-dessous les références et l’abstract avance qu’ils étaient déjà mal en point avant le coup fatal : 10 millions d’années auparavant, ils étaient sur le déclin.

« Nous avons examiné les familles de dinosaures les plus abondantes pendant toute la durée du Crétacé, soit de 150 à 66 millions d’années, précise l’auteur dans un communiquéEt nous avons constaté qu’elles évoluaient toutes, qu’elles se développaient et qu’elles étaient manifestement prospères. Puis, il y a 76 millions d’années, elles ont connu un brusque ralentissement. Le nombre d’extinctions a augmenté et, dans certains cas, l’apparition de nouvelles espèces a chuté. »

Pourquoi ce phénomène ? Il est probablement lié à un refroidissement global survenu vers la fin du Crétacé (la température moyenne de la planète a alors baissé de 7 à 8°C) et à la diminution de la diversité des herbivores. Ceci a pu déséquilibrer les écosystèmes et conduire à des extinctions en cascades.

Pour les auteurs, nul doute que le déclin des dinosaures est dû à ces facteurs environnementaux survenus bien avant le coup de grâce porté par un possible astéroïde.

https://www.geo.fr/animaux/le-declin-des-dinosaures-avait-commence-bien-avant-leur-disparition-brutale-selon-une-nouvelle-etude-205315

Référence

Dinosaur biodiversity declined well before the asteroid impact, influenced by ecological and environmental pressures

Nature Communications 

volume12, Article number: 3833 (2021) 

Abstract

The question why non-avian dinosaurs went extinct 66 million years ago (Ma) remains unresolved because of the coarseness of the fossil record. A sudden extinction caused by an asteroid is the most accepted hypothesis but it is debated whether dinosaurs were in decline or not before the impact. We analyse the speciation-extinction dynamics for six key dinosaur families, and find a decline across dinosaurs, where diversification shifted to a declining-diversity pattern ~76 Ma. We investigate the influence of ecological and physical factors, and find that the decline of dinosaurs was likely driven by global climate cooling and herbivorous diversity drop. The latter is likely due to hadrosaurs outcompeting other herbivores. We also estimate that extinction risk is related to species age during the decline, suggesting a lack of evolutionary novelty or adaptation to changing environments. These results support an environmentally driven decline of non-avian dinosaurs well before the asteroid impact.

22/12/2023 ChatGPT et consorts pris la main dans le sac

La famille de Léon Gautier, qui faisait partie des 177 Français du commando Kieffer ayant débarqué en Normandie le 6 juin 1944, va porter plainte contre une biographie truffée d’erreurs. C’est ce que rapporte France Bleu Normandie.

De leur côté, des journalistes du  Monde  indiquent que le site Amazon est confronté à une déferlante de « faux livres » générés par intelligence artificielle. Amazon a du réduire à trois le nombre de livres publiés chaque jour sur sa plate-forme Kindle Direct Publishing par un  unique et prétendu « auteur » :  « Nos règles relatives au contenu Kindle Direct Publishing imposent désormais aux auteurs et éditeurs de signaler si leur contenu a été généré par intelligence artificielle »,  précise Amazon.

L’agence Reuters recensait déjà sur Amazon Kindle Direct Publishing aux États-Unis, en février dernier, plus de deux cents ouvrages écrits par ChatGPT, le chatbot d’OpenAI. Autant des romans que des manuels techniques ou des livres pour enfants, dont nul ne vérifiait jamais les contenus .

Ce phénomène risque si rien n’est fait d’enlever toute crédibilité à l’édition, au journalisme et à l’information par audiovisuel. Ainsi le Hamas prétend-il actuellement que la dénonciation de ses « crimes » par Israël repose sur des images fausses. Qui vérifiera ?

On dira que le phénomène n’est pas nouveau. Lors des deux dernières guerres mondiales on parlait en France de « bobards ». Ce qui est nouveau sera l’ampleur du phénomène. Chacun d’entre nous vivra bientôt dans une infosphère à laquelle il ne pourra accorder le moindre crédit, étant par lui même incapable de distinguer le vrai du faux.

Elon Musk et autres savaient cela depuis longtemps. Ils n’ont rien fait pour prévenir le phénomène. Si des responsables devaient être poursuivis, ce devrait être eux.


Voir aussi https://www.lemonde.fr/economie/article/2023/01/21/openai-dans-la-tete-des-createurs-de-chatgpt_6158745_3234.html

21/12/2023 Fonte rapide du glacier Antarctique dit Pine Island glacier 

On dit que les glaciers épais de plusieurs centaines de mètres composant le west Antarctic ice sheet ne ressentent pas encore les effets du réchauffement climatique. Ce n’est pas le cas comme le montre la fonte rapide de la couverture de glace de la taille des 3/4 de la Grande Bretagne qui recouvre cette partie du continent.

Le mouvement s’est amorcé il y a quelques décennies. Aujourd’hui il s’accentue rapidement contribuant plus que la fonte des autres glaciers à une remontée de plusieurs mètres du niveau de la mer. Des modélisations montrent que le glacier reculera rapidement jusqu’à disparaître presque totalement.

(voir https://tc.copernicus.org/articles/17/3761/2023/ )

De précédentes montées du niveau de la mer, ne dépassant pas quelques cms s’étaient produites dans les siècles précédents. Elles avaient sans doute été dues à un phénomène dit de la“marine ice sheet instability”. Quand dans l’ouest antarctique à la suite de saisons un peu plus chaudes qu’en moyenne, les glaciers perdent quelques centimètres, ils ne regagnent jamais toute leur hauteur antérieure.

Ceci parce que le nouveau refroidissement devrait être légèrement supérieur au réchauffement précédent afin de compenser la totalité de la masse perdue. Sinon le poids du glacier n’ayant pas fondu pèsera par gravité sur le glacier en train de se refroidir et l’empêchera de regagner son niveau antérieur.

Si de tels phénomènes se reproduisaient à l’avenir la hausse global du niveau des mers pourrait être de plusieurs mètres.

21/12/2023 Des qu-bits réalisés pour la première fois à partir de molécules intriquées

Des physiciens américains de l’Université de Princeton ont réussi pour la première fois à provoquer et contrôler une intrication quantique entre deux molécules. Ce phénomène d’intrication quantique se manifeste quand deux particules (ou groupes de particules) sont liées de manière à ce que l’état quantique de l’une influence instantanément l’état quantique de l’autre, indépendamment de la distance qui les sépare.

Cette caractéristique, initialement considérée comme irréelle par Einstein, est désormais reconnue comme un principe fondamental de la physique quantique.

Une telle capacité d’interaction à distance entre molécules, et non plus simplement entre atomes, ouvre la voie vers des applications pratiques révolutionnaires, notamment dans le développement d’ordinateurs quantiques plus puissants.

Les molécules, contrairement aux atomes, possèdent une structure complexe et donc plus de degrés de liberté dans le contexte quantique. Cela signifie qu’elles peuvent exister dans un plus grand nombre d’états quantiques différents. Cette complexité moléculaire permettra des méthodes innovantes pour le stockage et le traitement de l’information quantique .

En effet, les molécules ont la capacité de vibrer et de tourner dans plusieurs modes différents. Chacun de ces modes peut être utilisé pour représenter différents états quantiques via des bits quantiques (qubits) – les unités fondamentales de l’information dans un ordinateur quantique. Cette polyvalence offrirait une richesse de configurations pour coder l’information, bien au-delà des possibilités offertes par les atomes seuls.

Les chercheurs précités ont utilisé des faisceaux laser très focalisés pour piéger et contrôler des particules extrêmement petites, telles que les molécules. Il s’agit de « pinces optiques ». Le principe de fonctionnement des pinces optiques repose sur la pression de radiation – la pression exercée par la lumière sur les objets physiques. En ajustant les propriétés du faisceau laser, telles que son intensité et sa focalisation, les scientifiques peuvent positionner avec précision et maintenir en place des molécules individuelles.

L’utilisation des pinces optiques pour refroidir les molécules à des températures ultrabasses est essentielle. A ces températures, les molécules sont moins susceptibles d’être perturbées par l’énergie thermique environnante. Cela permet aux chercheurs de les placer dans des états quantiques spécifiques nécessaires pour les expériences d’intrication.

De plus, les chercheurs utilisent des impulsions micro-ondes pour induire des interactions contrôlées entre les molécules. Les micro-ondes, en agissant sur les molécules piégées, permettent de modifier leurs états quantiques de manière cohérente et contrôlée. Cette cohérence est essentielle pour l’intrication, car elle assure que les états quantiques des molécules sont liés de manière prévisible et répétable.

L’intrication réalisée avec cette méthode est un élément fondamental pour le développement de l’informatique quantique . Les ordinateurs quantiques basés sur des molécules présenteraient en effet une caractéristique unique par rapport à ceux utilisant des qubits traditionnels, comme les ions ou les photons.  En informatique quantique, les qubits sont des unités d’information qui peuvent exister dans une superposition d’états quantiques |0⟩ et |1⟩. Les qutrits, en revanche, sont une unité d’information quantique qui peut exister dans une superposition de trois états quantiques orthogonaux, souvent dénotés |0⟩, |1⟩, et |2⟩. Cette capacité à opérer avec trois états quantiques, plutôt que deux, offre une plus grande complexité et flexibilité dans le traitement de l’information quantique, par rapport aux qubits.

Hannah Williams, physicienne à l’Université de Durham, met en lumière l’importance de telles avancées dans un article de Nature référencé ci-dessous. Elle souligne que le rythme rapide des progrès dans l’utilisation des molécules pour la simulation quantique indique que cette approche pourrait bientôt devenir une plate-forme de choix dans ce domaine. Les molécules offrent une flexibilité et une capacité de modélisation qui pourraient surpasser les plates-formes quantiques actuelles, rendant possible l’exploration de domaines de la physique et de la chimie jusqu’alors hors de portée.

Un autre groupe de recherche, mené par John Doyle, Kang-Kuen Ni et Wolfgang Ketterle, a obtenu des résultats similaires, confirmant l’importance de ces découvertes.

Référence

nature  

https://www.nature.com/articles/d41586-023-03943-1

news  

Quantum-computing approach uses single molecules as qubits for first time
Platforms based on molecule

Physicists have taken the first step towards building quantum computers out of individual molecules trapped with laser devices called optical tweezers. Two teams report their results in Nature and Science on 7 December . In both cases they made pairs of calcium monofluoride molecules interact so that they became entangled — a crucial effect for quantum computing.

Accès payant pour la suite

20.12.2023 ITER, un bon projet mais des contre-performances françaises à la réalisation

La France, en retard dans de nombreux domaines scientifico-industriels sur les Etats-Unis , la Russie et bientôt la Chine, pouvait se féliciter de ses performances dans l’électro-nucléaire. En matière de fission, ses centrales regroupent un total de 56 réacteurs dont 32 produisent chacun une puissance électrique de 900 MWe, 20 réacteurs de 1300 MWe, tandis que les quatre derniers délivrent 1450 MWe. Elle avait pris quelques retards à Flamanville, mais celui-ci est en voie de rattrapage.

En matière de fusion, le programme international ITER  International Thermonuclear Experimental Reactor, est un prototype de réacteur à fusion nucléaire en construction en France à Cadarache depuis 2006. Il s’agit d’une collaboration entre 35 pays dans laquelle les équipes françaises jouent un rôle encore dominant. D’autres expériences de fusion entreprises à l’étranger annoncent aujourd’hui avoir réussi le processus, mais il s’agit quasiment encore de réalisations de laboratoire.

Or aujourd’hui le journal Scientific American confirme ce que l’on commençait à savoir en France. Le programme ITER éprouve de grands difficultés
https://www.scientificamerican.com/article/worlds-largest-fusion-project-is-in-big-trouble-new-documents-reveal/

Qui plus est , ces difficultés ne sont pas liées à des questions de fond comme il s’en découvre inévitablement . Il s’agit essentiellement de problèmes de chaudronnerie.

Selon le 4e directeur général d’ITER l’italien Pietro Barabaschi, deux problèmes techniques se sont annoncés. Des « non-conformités dimensionnelles » sur trois secteurs du tokamak (qui en comporte neuf au total), livrés par la Corée du Sud : jusqu’à deux centimètres d’écart entre deux parties devant être soudées Deux centimètres !!!. Il fallait vraiment avoir les yeux dans les poches pour ne pas s’en apercevoir avant recette.

Un des secteurs ayant déjà été installé dans la fosse, il devra être retiré. Cette soudure est nécessaire pour la « chambre à vide », (19 mètres de diamètre pour 11 mètres de hauteur) où se produirait la réaction de fusion.

Second problème, des traces de corrosion sur « l’écran thermique », censé protéger de la chaleur générée par la fusion. C’est un défaut de fabrication de la pièce, pouvant engendrer des fuites d’hélium, qu’il faut donc réparer ou changer.

Au-delà du respect du calendrier, l’impact financier est très important . Le coût a déjà quadruplé par rapport aux premières estimations, avoisinant les 20 milliards d’euros. Ce chiffre va de façon certaine être amené à augmenter en fonction des problèmes techniques découverts. De plus les réparations pourraient prendre des années.

De nationalité italienne, Pietro Barabaschi est le quatrième directeur général d’ITER Organization, après les Japonais Kaname Ikeda (2006-2010) et Osamu Motojima (2010-2015), et le Français Bernard Bigot (2015-2022).

A l’origine, ITER visait à réaliser son premier plasma en 2025 et d’autres tests en 2035. Aujourd’hui, aucune prévision n’est désormais crédible

Inévitablement se pose la question de la responsabilité des directeurs généraux successifs et de leurs collaborateurs. Leur rôle n’était-il pas de vérifier depuis longtemps si la Corée du Sud et autres sous-traitants imposés sans doute pour des raisons diplomatiques s’acquittaient convenablement de leurs tâches.

Pour en savoir plus

https://www.boursorama.com/actualite-economique/actualites/fusion-nucleaire-le-programme-iter-mine-par-des-problemes-de-soudure-des-annees-de-retard-en-vue-1ce9e294db42a879ee199b90aa9a187e

https://fr.euronews.com/next/2023/12/19/reacteur-iter-reproduire-le-pouvoir-du-soleil-pour-alimenter-la-terre-en-energie

19/12/2023 L’effet pathogène des nanoplastiques

Les emballage en plastique pour produits alimentaires sont devenus incontournables, du fait des facilités qu’ils procurent, tant aux consommateurs finals qu’aux commerçants. Des chercheurs ont récemment découverts cependant que ces facilités pouvaient avoir un prix non négligeable en matière de santé humaine.

Quand on les jette, où que ce soit, ils finissent par se désagréger en particules que l’on nomme, selon leur taille, des microplastiques ou des nanoplastiques. Elles peuvent contaminer les aliments et les eaux de consommation des animaux comme des humains. On les retrouve de plus en plus dans le sang de ceux-ci

https://theconversation.com/nanoplastics-linked-to-parkinsons-and-some-types-of-dementia-new-study-218188

Bien plus elles peuvent entrer dans les neurones du cerveau en franchissant touts les barrières existantes. Elles y provoquent des troubles normalement associés à la maladie de Parkinson. https://www.science.org/doi/10.1126/sciadv.adi8716

Elles y interagissent avec une protéine dite alpha-synuclein qui joue un rôle pour faciliter la communication entre cellules nerveuses. Elles y provoquent la formation et l’accumulation de fibrilles jouant un rôle dans la maladie de Parkinson et d’autres types de démence.

Les chercheurs ont étudié en laboratoire les troubles provoqués chez les souris par l’absorption de nanoplastiques de polystyrène. Ils y ont retrouvé des troubles analogues à ceux observés chez les humains lors de certaines maladies cérébrales ou de cancers.

Ces recherches devraient être poursuivies avant que l’on en tire des conclusions définitives.

Voir aussi

https://www.futura-sciences.com/sante/actualites/cerveau-microplastiques-notre-environnement-alterent-fonctionnement-notre-cerveau-105005/

Référence

Anionic nanoplastic contaminants promote Parkinson’s disease–associated α-synuclein aggregation

SCIENCE ADVANCES
17 Nov 2023
Vol 9, Issue 41

Abstract

Recent studies have identified increasing levels of nanoplastic pollution in the environment. Here, we find that anionic nanoplastic contaminants potently precipitate the formation and propagation of α-synuclein protein fibrils through a high-affinity interaction with the amphipathic and non-amyloid component (NAC) domains in α-synuclein. Nanoplastics can internalize in neurons through clathrin-dependent endocytosis, causing a mild lysosomal impairment that slows the degradation of aggregated α-synuclein. In mice, nanoplastics combine with α-synuclein fibrils to exacerbate the spread of α-synuclein pathology across interconnected vulnerable brain regions, including the strong induction of α-synuclein inclusions in dopaminergic neurons in the substantia nigra. These results highlight a potential link for further exploration between nanoplastic pollution and α-synuclein aggregation associated with Parkinson’s disease and related dementias.


19/12/23 La relance du nucléaire de fission français

Les mesures tant attendues, parce qu’indispensables au maintien de l’indépendance énergétique de la France, vis-à-vis notamment du gaz russe et du pétrole de schiste américain, viennent enfin d’être annoncées.

A deux mois de l’élection présidentielle, Emmanuel Macron a dévoilé à l’occasion d’un déplacement à Belfort, son plan de relance du nucléaire pour la France. Il souhaite prolonger la durée de vie des centrales françaises et construire de nouveaux réacteurs d’ici 2035. Les chantiers intéressant l’énergie renouvelable seront par ailleurs poursuivis.

https://www.francebleu.fr/infos/economie-social/nucleaire-emmanuel-macron-1644503639

Des précisions concernant la relance du nucléaire français sont apportées sur les sites révolution-energétique et Les voix du Nucléaire

La première phase du programme de relance du nucléaire, annoncée par Emmanuel Macron à Belfort en 2022, va désormais pouvoir réellement commencer. Selon les premières estimations, ce chantier devrait coûter près de 52 milliards d’euros et nécessiter le recrutement de près de 30 000 personnes dans les années à venir. EDF prévoit, dans le meilleur des cas, une mise en service des réacteurs de Penly en 2035, de ceux de Gravelines en 2038 et des deux du Bugey en 2042.

La question du personnel ingénieurs et techniciens est essentiel. La France avait précédemment découragé du fait de sa timidité nombre des compétences dont elle disposait en ce domaine. Des programmes de recrutement et de formation doivent être annoncés dans les meilleurs délais.

En parallèle de la construction de ces 6 EPR2, l’État souhaite le prolongement de la durée de vie à 60 ans ou plus de tous les réacteurs actuels lorsque cela est possible. Il envisagera dans les années à venir la construction de 8 réacteurs supplémentaires afin d’atteindre la neutralité carbone d’ici à 2050.

L’association « Les Voix du nucléaire » a proposé un scénario de transition énergétique particulièrement volontariste. Ses experts, outre les travaux d’extension des centrales existantes et le lancement des nouveaux chantiers, recommandent de généraliser le stockage par STEP, qui permettrait à la France d’atteindre la neutralité carbone sans incertitudes ni dépendance aux pays voisins.

Les STEP

Précisons que les STEP sont des stations de transfert d’énergie par pompage dont le principal but est d’adapter en temps réel la production à la consommation en permettant le stockage de l’électricité . Ainsi la centrale hydroélectrique de Montézic est une unité de production très particulière. Il s’agit d’une station de transfert d’énergie par pompage dont le principal atout est d’adapter en temps réel la production à la consommation en permettant le stockage de l’électricité sous la forme d’eau. En effet, par définition, l’électricité ne se stocke pas, elle doit être produite en fonction des besoins.

Le principe de la STEP est le suivant : lorsque le réseau a besoin d’électricité, la STEP utilise  l’eau qui se trouve dans le bassin supérieur pour produire de l’électricité (mode turbine). C’est la force de l’eau qui fait tourner la turbine.

Aux heures de faible consommation, lorsque l’électricité est disponible sur le réseau, l’eau est pompée (mode pompe) de la retenue inférieure vers la retenue supérieure. C’est alors le réseau qui alimente l’alternateur comme un moteur électrique. Il fait tourner la turbine en sens inverse  dans le sens pompe pour remonter l’eau vers la retenue supérieure. Le stock d’énergie potentielle est ainsi reconstitué pour un nouveau cycle de production et ce, indépendamment de l’eau des pluies et des autres cours d’eau naturels.

Ce système a un rôle essentiel dans le mix énergétique français : il permettra de consommer  via le mode pompe l’énergie dite excédentaire ou non utilisée produites par les nouvelles énergies renouvelables comme l’éolien et le photovoltaïque.

Le rôle de la France dans le projet international de fusion nucléaire ITER

Les propositions d’Emmanuel Macron dans le nucléaire de fission ne devraient pas se traduire par une moindre participation au programme international ITER de fusion nucléaire dont un pilier essentiel se trouve à Cadarache.

18/12/2023 Décarboner l’atmosphère, une industrie d’avenir

Capter et stocker le CO2 ne sont pas à proprement parler des actions innovantes. Plusieurs grandes entreprises hautement émettrices en carbone, comme les centrales électriques au gaz ou au fioul ou encore les raffineries de pétrole, utilisent déjà cette technique d’extraction du carbone. Habituellement, le gaz est filtré directement à la sortie des cheminées des bâtiments.

 Capter du CO2 à la sortie des cheminées d’usines (cimenteries, aciéries…) est bien plus facile et moins coûteux que le rechercher dans l’atmosphère, car sa concentration en volume est de 4 % à 40 %, voire plus, alors que dans l’air, le CO2 est extrêmement dilué (0,04 %) 

On distingue trois grandes familles de procédés. La première, le captage en « post-combustion », consiste à extraire le CO2 des fumées industrielles de combustion de ressources fossiles (bois, gaz naturel, pétrole et charbon) à l’aide d’un solvant qui présente une affinité pour les molécules de CO2. Positionnée en aval des processus industriels, cette technologie peut être mise en œuvre sur des installations préexistantes et appliquée au traitement des fumées d’industries diverses. Si le taux de captage dépasse les 90 % du CO₂ émis, elle s’accompagne néanmoins d’une forte « pénalité énergétique » requise lors de la séparation du CO2 du solvant, ce qui entraîne un coût de mise en œuvre élevé, soit entre 10 et 100 € par tonne de CO2 évité (et donc non émis).

La seconde famille, dite de captage en « oxy-combustion », consiste à réaliser une combustion en présence d’oxygène (presque) pur, plutôt qu’à l’air. Le gaz de combustion ainsi produit est constitué presque exclusivement de vapeur d’eau et de CO2. Il est alors beaucoup plus simple d’extraire le CO2 que lorsqu’il est dilué dans l’azote de l’air. Cette technologie présente ainsi une pénalité énergétique plus faible mais nécessite une refonte de la chambre de combustion. Elle est donc envisagée pour certaines applications, comme les cimenteries, et pour de nouvelles unités de conversion des combustibles biomasse et fossiles.

La troisième famille enfin, dite de captage en « précombustion », consiste à extraire le CO2 en amont de la combustion en transformant le combustible initial en un « gaz de synthèse » : il s’agit de gazéifier le combustible pour obtenir un mélange de CO + H20, puis d’opérer une transformation chimique pour obtenir un mélange CO2 + H2 et enfin d’extraire du CO2 par solvant. La mise en œuvre de ce procédé nécessite d’être intégrée en amont, au moment de la construction de l’unité industrielle.

Ce procédé permet de capturer le CO2 au niveau d’installations industrielles, mais aussi de retirer du CO₂ présent l’atmosphère comme sur le site d’Orca en Islande (qui devrait capter environ 4000 tonnes par an).

Après le captage vient le transport et l’enfouissement. En aval de la chaîne précédente , le CO2 se transporte au même titre que le gaz naturel, par gazoducs, train ou bateau, en fonction de la quantité de CO2 à transporter et de la distance. Les infrastructures de transport et de stockage ne posent donc pas de problème technique particulier, mais il faut les sécuriser et assurer leur maintenance, comme l’exige tout équipement industriel.

Ensuite, le CO2 capté est stocké dans d’anciens gisements d’hydrocarbures ou des roches poreuses (aquifères salins profonds). Le CO2 est injecté sous forme dense à une profondeur d’au moins 800 mètres. Il est alors piégé par des mécanismes chimiques et géologiques : dissolution dans la saumure (eau salée) présente dans les roches, immobilisation dans les pores des roches, puis, à terme, minéralisation. Il n’est pas exclu d’utiliser la roche ainsi obtenue dans la construction.

Les sites de stockage font l’objet d’une sélection rigoureuse afin de garantir la pérennité et la sécurité du stockage sur le long terme (fuite du CO2 hors du site de stockage). Les opérations de stockage s’accompagnent d’un protocole de surveillance qui intègre, entre autres, un suivi géophysique du comportement du CO2 dans le sous-sol, des mesures de gaz et des prélèvements en profondeur dans le sous-sol et en surface, une surveillance des événements microsismiques, 

Élaborés dans le cadre de projets de recherche européens tels que Strategy CCUS sur la base de facteurs techniques (volumes de CO2 impliqués, zones géographiques concernées, usages possibles du CO2 à proximité des lieux de capture, lieux de stockage possibles) et environnementaux (via les méthodologies d’analyse de cycle de vie), les scénarios prennent aussi en compte des facteurs économiques et sociaux, tels que la création d’emploi et les préoccupations des communautés locales, qu’il est impératif d’associer au plus tôt à la construction d’un projet.

L’enjeu est aujourd’hui de créer les conditions pour permettre le déploiement de la filière du CCUS à grande échelle dès 2030. Si les technologies sont là, des mécanismes de soutien financier et un cadre réglementaire sont nécessaires pour accélérer la mise en place de la filière. En l’état actuel des estimations, le prix du quota de carbone émis est encore inférieur aux dépenses que les industriels devraient engager pour investir dans ces installations, soit entre 50 et 180 € par tonne de CO2 évités.

Sources
National Geographic.fr
The conversation

Note.

Faut-il rappeler que le meilleur moyen d’éviter la production de CO2 serait d’éviter les guerres et la fabrication puis l’emploi des armements nécessaires. Ainsi, avec un budget militaire annuel de 842 milliards de dollars, les Etats-Unis doivent produire chaque année quelques milliards de tonnes de CO2

17/12/2023 Un rayon cosmique d’une énergie exceptionnelle vient de percuter la Terre

Des astronomes de l’Osaka Metropolitan University au Japon viennent de détecter le second plus puissant rayon cosmique jamais observé. Il semble provenir d’une région presque vide de l’univers (Cosmic void) où rien n’apparaît capable de l’avoir engendré. Il a été nommé Amaterasu d’après le nom de la déesse du soleil japonaise.

Le rayonnement cosmique, selon Wikipedia, est principalement constitué de particules chargées : protons (88 %), noyaux d’hélium (9 %), antiprotonsélectronspositrons et particules neutres (rayons gammaneutrinos et neutrons). La source de ce rayonnement se situe selon les cas dans le Soleil, à l’intérieur ou à l’extérieur de notre galaxieCertaines des astroparticules qui composent le rayonnement cosmique ont une énergie qui dépasse 1020 eV et qui n’est expliquée par aucun processus physique identifié.

Amaterasu pourrait résulter de puissants flux magnétiques ayant dévié le rayon origine de sa trajectoire initiale mais aussi d’une source invisible située dans une autre galaxie, ou même provenir d’une cause encore inconnue. Cette dernière possibilité intéresserait évidemment les astronomes, car ils devraient la rechercher.

Référence

SCIENCE
VOL. 382, NO. 6673
An extremely energetic cosmic ray observed by a surface detector array

TELESCOPE ARRAY COLLABORATION*,   76 authors
23 Nov 2023

Editor’s summary

Cosmic rays are charged particles from space. At low energies, they mostly originate from the Sun, whereas at high energies, they are expected to be emitted by nearby active galaxies. The Telescope Array Collaboration now reports the detection of a cosmic ray event with an energy of about 240 exa–electron volts, more than a million times higher than that achieved by artificial particle accelerators. Such high-energy particles should experience only small deflections by foreground magnetic fields, but tracing back the arrival direction shows no obvious source galaxy. The authors suggest that the foreground magnetic fields might be stronger than expected, or there could be unknown particle physics at high energies. —Keith T. Smith

Abstract

Cosmic rays are energetic charged particles from extraterrestrial sources, with the highest-energy events thought to come from extragalactic sources. Their arrival is infrequent, so detection requires instruments with large collecting areas. In this work, we report the detection of an extremely energetic particle recorded by the surface detector array of the Telescope Array experiment. We calculate the particle’s energy as 244±29 stat. −76+51syst. exa–electron volts (~40 joules). Its arrival direction points back to a void in the large-scale structure of the Universe. Possible explanations include a large deflection by the foreground magnetic field, an unidentified source in the local extragalactic neighborhood, or an incomplete knowledge of particle physics.