12/09/2024 Un autre Big Bang

New Scientist The other big bang 10 nov 2023

Même si aujourd’hui les physiciens ne discutent plus de la pertinence du concept de matière noire, laquelle donnerait une équilibre gravitationnel à un univers constitué d’à peine un quart de matière ordinaire, il reste qu’aucune particule d’une telle matière n’a encore été identifiée.

Certes aujourd’hui un grand nombre de signaux anormaux dans les données provenant des instruments censés observer l’univers jeune commencent à être recueillis.

Bien qu’encore controversés, ils semblent conforter l’existence de WIMPs ou Weakly interacting massive particle. Cependant aucune preuve précise concernant l’existence de telles particules noires n’a encore été obtenue

Selon la physicienne américaine Katherine Freeze, ceci pourrait tenir au fait que nous ne tenions pas compte d’un second Big Bang, qu’elle nomme un Big Bang Noir, qui se serait produit peu de temps après le premier

Référence

Submitted on 7 Jan 2017]

Status of Dark Matter in the Universe

Katherine Freese

Over the past few decades, a consensus picture has emerged in which roughly a quarter of the universe consists of dark matter. I begin with a review of the observational evidence for the existence of dark matter: rotation curves of galaxies, gravitational lensing measurements, hot gas in clusters, galaxy formation, primordial nucleosynthesis and cosmic microwave background observations. Then I discuss a number of anomalous signals in a variety of data sets that may point to discovery, though all of them are controversial. The annual modulation in the DAMA detector and/or the gamma-ray excess seen in the Fermi Gamma Ray Space Telescope from the Galactic Center could be due to WIMPs; a 3.5 keV X-ray line from multiple sources could be due to sterile neutrinos; or the 511 keV line in INTEGRAL data could be due to MeV dark matter. All of these would require further confirmation in other experiments or data sets to be proven correct. In addition, a new line of research on dark stars is presented, which suggests that the first stars to exist in the universe were powered by dark matter heating rather than by fusion: the observational possibility of discovering dark matter in this way is discussed.


Proceedings of 14th Marcel Grossman Meeting, MG14, University of Rome « La Sapienza », Rome, July 2015
Subjects:Cosmology and Nongalactic Astrophysics (astro-ph.CO); High Energy Physics – Phenomenology (hep-ph)
Cite as:arXiv:1701.01840 [astro-ph.CO]
 (or arXiv:1701.01840v1 [astro-ph.CO] for this version)
 https://doi.org/10.48550/arXiv.1701.01840 Focus to learn more
Related DOI:https://doi.org/10.1142/S0218271817300129

11/09/2024 Le Type 076

Ce terme désigne le nouveau porte-hélicoptère d’assaut développé par la Chine pour renforcer sa présence dans le Pacifique face à l’US Navy. C’est ce qu’annonce le Centre d’études stratégiques et internationales (CSIS) dans un article publié le 1er août 2024

(voir https://www.csis.org/analysis/chinas-massive-next-generation-amphibious-assault-ship-takes-shape).

 Les clichés du « Type 076 », évoquent un pont d’envol d’environ « 260 mètres sur 52 mètres, soit plus de 13 500 m« 

Une fois terminée, le navire sera capable de transporter des dizaines de péniches de débarquement, d’avions et de drones ainsi qu’un effectif de plus de 1000 marines.. Il pourra accueillir dans son hangar interne plus d’avions que n’importe quel autre navire du même type.

Autre nouveauté, il sera doté d’une catapulte capable de lancer les avions à voilure fixe (à ailes et non à rotors). Jusqu’à maintenant, les navires d’assaut amphibie ne pouvaient lancer que des avions et des hélicoptères à décollage vertical

Rappelons que la marine française dispose de deux porte- hélicoptère amphibie de la classe Mistral

https://fr.wikipedia.org/wiki/Classe_Mistral

Voir aussi

https://www.meretmarine.com/fr/defense/un-nouveau-porte-helicopteres-d-assaut-americain-en-achevement-a-flot

11/09/2023 La matière noire est encore introuvable

Les dernières expériences conduites dans le Dakota du Sud à la recherche des hypothétiques particules de matière noire, les WIMPs, sont encore restées sans résultats. https://lz.lbl.gov/

La matière noire n’interagit pas avec la matière ordinaire, non plus qu’avec la lumière. Elle ne révélé son existence que par ses effets gravitationnel. Elle constituerait 80% de la matière de l’univers.

Le détecteur LUX-ZEPLIN actuellement consacré à sa recherche comporte 7 tonnes de  xénon liquide enfouies à 1,5 km sous terre. Il sera poursuivi en 2028 par un projet dit XLZ2. En cas de nouvel échec, il faudra rechercher d’autres explications (voir https://www.cea.fr/comprendre/Pages/matiere-univers/essentiel-sur-matiere-noire.aspx#:~:text=La%20mati%C3%A8re%20noire%20n’a,les%20noyaux%20par%20interaction%20faible.

Référence

LZ Sets New Record in Search for Dark Matter

New results from the world’s most sensitive dark matter detector put the best-ever limits on particles called WIMPs, a leading candidate for what makes up our universe’s invisible mass.

With 280 days of data, the LUX-ZEPLIN (LZ) collaboration has made a world-leading search for weakly interacting massive particles (WIMPs) in areas no experiment has probed before. The new result is nearly five times better than the previous world’s best published result and finds no evidence of WIMPs above a mass of 9 GeV/c2. We have only scratched the surface of what LZ can do. With the detector’s exceptional sensitivity and our advanced analysis techniques, we are primed to discover dark matter if it exists within the experiment’s reach and to explore other rare physics phenomena.

10/09/2024 Les surprenantes connaissances scientifiques révélées par les dolmens néolithiques

Ceux-ci étaient nombreux dans toute l’Europe. Les plus petits ont disparu ou ont été démantelés par la suite pour en faire de la pierre de construction.

Aujourd’hui, à l’University College de Londres, on croit savoir comment nos ancêtres, il y a environ 4.000 ans, ont transporté les énormes pierres de Stonehenge, monument ;réhistorique dans le sud de l’Angleterre parmi les plus célèbres au monde.

The Telegraph  précise les travaux d’une équipe de chercheurs qui a tenté d’identifier la méthode utilisée par les hommes du Néolithique pour maîtriser les colossales pierres «bleues». Ces blocs de 2 tonnes, dont le surnom vient de leur couleur gris bleuté, possèdent la particularité de venir des carrières des monts Preseli au pays de Galles… à plus de 200 kilomètres de Stonehenge.

Les mêmes questions se posent à propos des dolmens du site moins célèbre mais tout aussi remarquable de Menga, en Espagne

Le Dolmen de Menga, monument mégalithique, datant d’environ 5 700 ans, situé près d’Antequera en Espagne, se distingue par sa complexité et son importance historique. Il est inscrit au patrimoine mondial de l’UNESCO depuis juillet 2016. Récemment, des études approfondies ont révélé des aspects inédits de sa construction, offrant un nouvel éclairage sur les compétences techniques et l’organisation sociale de la période néolithique. Cette découverte renouvelle la compréhension de l’ingénierie préhistorique et enrichit l’appréciation du patrimoine culturel de l’humanité. Les travaux des chercheurs sont résumés ici

Early science and colossal stone engineering in Menga, a Neolithic dolmen (Antequera, Spain)

Authors Info & Affiliations

Science Advances
23 Aug https://www.science.org/doi/10.1126/sciadv.adp12952024

Vol 10, Issue 34

DOI: 10.1126/sciadv.adp1295

Abstract

Megaliths represent the earliest form of monumental stone architecture. The earliest megalithic chambers in Europe appeared in France in the fifth millennium BCE. Menga is the oldest of the great dolmens in Iberia (approximately 3800 to 3600 BCE). Menga’s capstone #5 weighing 150 tons is the largest stone ever moved in Iberia as part of the megalithic phenomenon and one of the largest in Europe. The research presented here proposes a completely innovative interpretation of how this colossal monument was built. It comprises a geoarchaeological analysis encompassing three major components: (i) the angles of the planes of each stone, (ii) the stratigraphic polarity of each structural element, and (iii) the depth of the foundations. Our results show that Menga is a unique example of creative genius and early science among Neolithic societies. It was designed as a completely original engineering project, for which we know of no precedents in Iberia.

09/09/2024 Enfin de miniréacteurs nucléaires.

En France, en attendant l’arrivée avec ITER du nucléaire de fusion, il y a suffisamment de temps pour installer de nouveaux réacteurs de fission. C’est ce que vient de décider le gouvernement français. Il a annoncé la construction de 6 nouveaux réacteurs nucléaires. Ceux-ci devraient entrer en service entre 2035 et 2037. 

Le modèle de réacteurs prévus pour ces nouvelles installations est l’EPR 2, une version améliorée de l’EPR actuellement en construction à Flamanville. Cette version, totalement conçue en numérique, offre la possibilité de réaliser des économies d’échelle grâce à des préfabrications en usine. Par ailleurs, selon EDF, cette conception en numérique permettrait de repérer plus facilement les possibles anomalies de conception. 

Pour l’instant, 4 sites sont en bonne position pour accueillir ces réacteurs nucléaires nouvelle génération : Penly (Seine-Maritime) ;Graveline (Nord) ;Bugey (Ain) Tricastin (Drôme) ;

Le coût total de la construction de ces nouveaux réacteurs est estimé à 46 milliards d’euros. 

 Il faudrait voir plus petit

Mais beaucoup se sont demandé s’il fallait attendre si longtemps. Une solution consisterait à faire appel à des réacteurs plus petits, donc plus économiques. Un sous-marin nucléaire n’a pas besoin pour avancer d’embarquer la centrale de Flamanville.

De plus des réacteurs plus petits ne pourraient ils pas fonctionner sans faire appel à de l’uranium dont l’essentiel proviendra d’Afrique, de régions de plus en plus en butte au terrorisme islamique.

Quoique il en soit, basée à Nanterre (92), NAAREA est une entreprise francilienne qui propose de sortir des énergies fossiles grâce à un nucléaire de nouvelle génération, durable et innovant. NAAREA signifie « Nuclear Abundant Affordable Resourceful Energy for All », 

L’entreprise propose un réacteur qui combine trois technologies de pointe : neutrons rapides, sels fondus et production en série. Les neutrons rapides permettent de recycler le combustible usagé issu des centrales nucléaires conventionnelles et de clôturer le cycle du combustible, ce qui est une préoccupation majeure dans le domaine du nucléaire conventionnel. Les sels fondus permettent de garantir une sécurité intérieure intrinsèque.

Enfin, ses micro-générateurs sont conçus pour être installés au plus près des besoins des industriels, ce qui représente une innovation majeure dans le domaine de la production d’énergie nucléaire. 

NAAREA déjà franchi plusieurs étapes importantes dans ce projet. Elle a finalisé sa version numérique qui est une grande bibliothèque dans laquelle est archivée toute la documentation de recherche, de calculs, de tests, de matériaux ou de laboratoire.

Elle est en phase de recherche et développement et travaille en étroite collaboration avec les industriels pour adapter sa solution à leurs besoins. Il y a aussi un travail de développement des partenariats en cours pour mutualiser les expériences. 

Pour en savoir plus

https://www.iledefrance.fr/toutes-les-actualites/projet-naarea-vers-lenergie-nucleaire-de-demain



08/09/2024 Le Black Hole Explorer Telescope

Tout au long du 20e siècle et jusqu’à nos jours, les trous noirs ont été une source de fascination et de mystère, ceci tant pour les scientifiques que pour les amateurs de science-fiction ; ils représentent la seule occasion à ce jour de dépasser les limites de ce que l’on nomme l’univers observable.

En 2019, l’image reconstituée du Trou Noir supermassif M87* situé au centre de la galaxie elliptique supergéante M87 (également appelée Messier 87 ou Virgo A) a fait le tour du monde. C’était le premier trou noir à être imagé en  interférométrie à très longue base, le 10 avril 2019, par l’équipe de l’Event Horizon Telescope.

Prochainement la mission dite Event Horizon Telescope 2 lancera dans l’espace le Black Hole Explorer Telescope . Ceci lui permettra de voir bien au delà de ce qui est visible de la Terre. Notamment, l’on devrait obtenir des trous noirs des images bien plus précise que celle concernant M87* et révélant les principales caractéristiques de ces objets encore énigmatiques.

Pour en savoir plus on lira un entretien de Thomas Lewton, du NewScientist avec Alex Lupsasca, un des responsable de la Mission Black Hole Explorer Telescope, 20 july 2024, p 40

Voir aussi https://www.cfa.harvard.edu/research/black-hole-explorer-bhex

06/09/2024 Réchauffement climatique. Comment lutter contre l’excès de gaz carbonique (CO2)?

Le réchauffement climatique est l’un des principaux défis de notre époque. Il convient désormais de trouver des solutions efficaces pour enrayer ce phénomène. Parmi celles-ci, figure la technique du captage et stockage du CO2.

Le captage du CO2

L’objectif du procédé est de capter le carbone avant que celui-ci ne soit émis dans l’atmosphère. Il existe 3 grandes approches. La capture peut se faire par : 

Postcombustion : on retire le carbone à la sortie d’un flux de gaz généré par la combustion d’un combustible carboné.Cette technique est la plus connue et la plus utilisée.

Précombustion : le combustible est partiellement oxydé avant sa combustion. Il est ensuite (re)formé afin d’obtenir du CO2 et de l’hydrogène. La pression et la concentration du gaz carbonique sépare le CO2 de l’hydrogène.
Ce processus est plus coûteux par rapport à la capture postcombustion. 

Oxycombustion : le combustible carboné est brûlé avec de l’oxygène pur plutôt qu’avec de l’air. Le flux produit est alors sans azote, uniquement composé de CO2 et de vapeur d’eau que l’on sépare par condensation. 

La séquestration carbone naturelle (ou bioséquestration)

La séquestration du carbone se fait à l’origine, naturellement. Près de la moitié des émissions anthropiques sont extraites de l’atmosphère via l’équilibre du cycle du carbone (ou plus techniquement appelé : cycle biogéochimique) :

Les réservoirs de carbone naturels

Un réservoir de carbone est un stock qui contient une certaine quantité de carbone. Cette masse de carbone est généralement exprimée en gigatonne de carbone (GtC).

Atmosphère : le carbone est présent sous forme de gaz carbonique (dioxyde de carbone ou méthane).

Hydrosphère (océans) : le CO2 est dissous dans l’eau. Avec l’action des phytoplanctons, une partie est transformée en carbonate de calcium (CaCO3). Lorsque ces organismes meurent, leurs carapaces se retrouvent au fond de la mer (lithosphère) pour former des roches carbonatées (CaCO3).

Biosphère (sols) : le carbone est fixé dans la biomasse sous forme de carbone organique (plantes, animaux, etc.). Le processus menant à cette séquestration par des organismes vivants est la photosynthèse. Le carbone peut être rejeté par  Fermentation : relâché dans l’atmosphère, sous forme de méthane (CH4) – Respiration : relâché dans l’atmosphère, sous forme de CO2.- Fossilisation : avec le temps, si le carbone est emprisonné dans un organisme vivant qui s’enfouit dans la terre (lithosphère), cette forme organique se fossilise et devient une roche carbonée (pétrole, du charbon ou du gaz).

Lithosphère : le carbone est fixé sous forme de : Carbonates : ce sont les roches calcaires.- Carbone fossile : ce sont les combustibles comme le pétrole, le gaz ou le charbon.

Dans la nature, avec les phénomènes de volcanisme, une partie de ces roches carbonées (combustibles fossiles) ou carbonatées (CaCO3) est libérée dans l’atmosphère sous forme de CO2. Mais les activités humaines via la combustion de matières fossiles, relâchent bien plus de dioxyde de carbone que ce que la nature ne peut en supporter.

L’océan est le réservoir le plus important du monde, et il est d’ailleurs l’un des premiers à être impacté par le réchauffement climatique. La hausse des températures acidifie le milieu océanique, mettant en péril la survie d’espèces. Quant au milieu terrestre, les principaux puits de carbone sont les forêts, notamment les mangroves. Non seulement riches en biodiversité, ces milieux qui se trouvent en zone tropicale séquestrent une grande quantité de carbone organique.

Sur les côtes indonésiennes, des mangroves stockeraient plus de 1 000 tonnes de carbone par hectare dans leurs sols (selon une étude de Nature Geoscience).

La séquestration carbone industrielle

Par définition, ce mode de séquestration ou de captage se rapporte aux activités industrielles : on capte et stocke le carbone issu des activités industrielles. Elle suit les étapes déjà évoquées auparavant:

Le captage du CO2 par solvant est la technique la plus connue. La fumée produite par une activité industrielle est captée. L’ajout d’un solvant sépare le CO2 du reste des composants. Le mélange est chauffé pour ne récupérer que le CO2. Il est ensuite comprimé, refroidi et enfin liquéfié avant d’être transporté dans des sites de stockage. Le CO2 capté est ensuite stocké dans des couches très profondes en dessous de la terre, des sites surveillés et analysés pour garantir un stockage permanent.

Où stocker le carbone ? 

Il existe différents lieux de stockage : Les substrats géologiques rocheux. Cela peut être dans d’anciens gisements d’hydrocarbures, des veines de charbon (on remplace le méthane par le CO2) ou dans des aquifères salins (formation géologique constituée de roches sédimentaires poreuses). 

Les fonds océaniques. On peut doper la croissance du phytoplancton en fertilisant certaines zones marines par du fer. Certains chercheurs ont également imaginé la possibilité de dissoudre le CO2 à plus de 1000 mètres de profondeur, voire 3000 mètres (dans des fosses marines à haute pression). 

Les minéraux. Il existe des tests en cours en Islande (projet CarbFix), pour minéraliser le CO2 sous forme de carbonates. 

Source

07/09/2024. Sur l’indispensable correction des erreurs quantiques

Dans l’article précédent nous avions signalé l’étape importante que représente la correction des erreurs quantiques dans la dernière annonce faite par Google (Quantum AI), une start-up financé par Google dans le domaine de l’informatique quantique.

Voici pourquoi c’est une étape importante. Les ordinateurs quantiques fonctionnent en manipulant des qubits d’une manière coordonnée, fondée sur des algorithmes quantiques. Le défi vient du fait que les qubits sont si sensibles que même la lumière du jour peut provoquer des erreurs de calcul.

Plus les ordinateurs quantiques se développent, plus ce problème s’aggrave. Il en résulte des conséquences majeures, car les meilleurs algorithmes quantiques connus pour exécuter des opérations utiles exigent que les taux d’erreur des qubits soient très inférieurs à ceux constatés aujourd’hui. Pour combler cet écart, la correction d’erreur quantique est un élément essentiel.

La correction d’erreur quantique protège les informations en les codant sur plusieurs qubits physiques pour former un « qubit logique ». Elle est considérée comme le seul moyen de produire un ordinateur quantique à grande échelle avec des taux d’erreur suffisamment faibles pour des calculs utiles.

Au lieu de calculer sur les qubits individuels eux-mêmes, l’ordinateur calcule sur des qubits logiques. En codant un nombre plus important de qubits physiques sur un seul des qubits logiques du processeur quantique, il devrait être possible de réduire suffisamment les taux d’erreur pour activer des applications utiles dans la société d’aujourd’hui.

Mais la route est encore longue permettant d’obtenir des systèmes utilisant des milliers de qubits logiques avec de faibles taux d’erreur.

Plusieurs composants de la technologie devront être améliorés, de la cryogénie à l’électronique de contrôle en passant par la conception et la
réalisation des matériaux dont sont faits les qubits. Avec de tels
progrès, la possibilité d’obtenir les ordinateurs quantiques à grande échelle apparait plus clairement.

Le développement de processeurs quantiques sera aussi un excellent banc d’essai pour l’ingénierie assistée par l’IA et dans l’utilisation du Machine Learning afin d’améliorer les ordinateurs quantiques eux-mêmes.

Qu’est ce que la correction d’erreurs quantiques.

Il s’agit d’un ensemble de techniques utilisées pour protéger les informations stockées dans les qubits des erreurs et de la décohérence causées par le bruit.

Les ordinateurs quantiques actuels ont des taux d’erreur élevés : environ 1 erreur se produit sur 1 000 opérations avant de tomber en panne. Pour que ces ordinateurs soient utiles, les taux d’erreur doivent être aussi bas que possible, soit 1 sur mille milliards environs. Une amélioration considérable des performances est donc nécessaire, mais des progrès avérés sont déjà en cours

Mais pourquoi la correction des erreurs quantiques est-elle un défi si difficile à résoudre ?

Les qubits, les éléments constitutifs des ordinateurs quantiques, sont extrêmement sensibles aux perturbations environnementales. Le moindre changement de température ou toute interaction avec les molécules environnantes peut entraîner la perte d’informations par un qubit. De plus, des millions de qubits sont nécessaires pour effectuer des calculs utiles.

Des décodeurs puissants sont donc nécessaires pour détecter et corriger les erreurs avec une précision totale et à des vitesses considérables.

Le décodage en temps réel est un défi considérable pour les ordinateurs quantiques rapides, car un million de séries de résultats de mesure sont produites chaque seconde. Si l’on ne décode pas assez vite, l’on se trouve face à un retard exponentiellement croissant dans le traitement des données. Pour que l’informatique quantique soit utile, il faut donc pousser l’échelle du décodeur jusqu’à des vitesses de décodage dites Teraquop .   


07/09/2024. La correction des erreurs quantiques  par l’Intelligence artificielle quantique de Google (Quantum AI)

il y a trois ans, les ordinateurs quantiques de Google ont été les premiers à effectuer la démonstration d’une opération de calcul quantique faite plus rapidement et mieux que par les superordinateurs classiques les plus rapides.

Aujourd’hui, Google annonce avoir franchi une nouvelle étape.

Pour la première fois, ses chercheurs de Quantum AI ont démontré de façon expérimentale qu’il était possible de réduire les erreurs en augmentant le nombre de qubits. En informatique quantique, un qubit est une unité de base d’informations quantiques qui peut avoir toutes les valeurs autres que le zéro et le 1 du bit classique.

Cette avancée représente un changement majeur dans la façon dont Google utilisera les ordinateurs quantiques.

Au lieu de  travailler un par un sur les qubits physiques de son processeur quantique, QuantumAI traite un groupe de qubits comme un seul qubit logique. En conséquence, un qubit logique créé par QuantumAI à partir de 49 qubits physiques a pu surpasser celui précédemment créé avec 17 qubits. 

 Nature vient de publier les résultats de ces recherches

Référence

Suppressing quantum errors by scaling a surface code logical qubit

Nature volume614, pages 676–681 (2023)Cite this article

Abstract

Practical quantum computing will require error rates well below those achievable with physical qubits. Quantum error correction offers a path to algorithmically relevant error rates by encoding logical qubits within many physical qubits, for which increasing the number of physical qubits enhances protection against physical errors. However, introducing more qubits also increases the number of error sources, so the density of errors must be sufficiently low for logical performance to improve with increasing code size. Here we report the measurement of logical qubit performance scaling across several code sizes, and demonstrate that our system of superconducting qubits has sufficient performance to overcome the additional errors from increasing qubit number. We find that our distance-5 surface code logical qubit modestly outperforms an ensemble of distance-3 logical qubits on average, in terms of both logical error probability over 25 cycles and logical error per cycle ((2.914 ± 0.016)% compared to (3.028 ± 0.023)%). To investigate damaging, low-probability error sources, we run a distance-25 repetition code and observe a 1.7 × 10−6 logical error per cycle floor set by a single high-energy event (1.6 × 10−7 excluding this event). We accurately model our experiment, extracting error budgets that highlight the biggest challenges for future systems. These results mark an experimental demonstration in which quantum error correction begins to improve performance with increasing qubit number, illuminating the path to reaching the logical error rates required for computation.

06/09/2024. Les centrales à chaleur OTEC.

Une centrale OTEC (centrale océanothermique) est une machine thermique alimentée par les différences de températures entre l’eau de mer chaude (en surface) et froide (pompée en profondeur). Elle peut produire de l’électricité, de l’eau douce et de l’eau de mer de qualité pour l’aquaculture. La technologie employée est simple : canalisations, échangeurs thermiques, pompes et turbines.

Le concept a été imaginé par le physicien et inventeur français Jacques Arsène d’Arsonval en 1881.

Une centrale océanothermique est constituée de deux éléments principaux :

– Un système de production d’énergie. Un fluide de travail passe de l’état liquide à l’état gazeux dans un évaporateur en contact avec l’eau de mer chaude (pompée en surface). Il passe ensuite dans la turbine d’un turbo-générateur qui produit l’électricité. Enfin, il est refroidi dans un condenseur en contact avec l’eau de mer froide (pompée en profondeur).

– Un système d’alimentation en eau de mer. Pour alimenter une centrale OTEC, des débits d’eau de mer importants sont nécessaires. Ceci exige des canalisations suffisamment larges pour limiter les pertes de charges et suffisamment longues pour atteindre jusqu’à 1000 mètres de profondeur. Une différence de 20°C suffit pour le fonctionnement de l’OTEC.

Quels en sont les avantages ? peu de frais de fonctionnement, eau de mer abondante et gratuite, fonctionnement sans intermittence (différence de température stable), pas de confinement ou de stockage de l’eau.

Quels en sont les inconvénients ? investissement initial important, faible rendement thermique.

Pour conclure, posons-nous la question : à quand les premières centrales OTEC en France d’Outre-Mer, Guadeloupe, Guyane, Martinique, Mayotte , La Réunion .. ? Les avantages paraissent devoir y dépasser largement les inconvénients

Pour en savoir plus

Newscientist
Ocean heat could supply essentially endless clean energy to tropical islands

An old idea to use ocean heat to generate clean electricity has long failed to gain traction, but the technology – known as ocean thermal energy conversion (OTEC) – is seeing a resurgence of interest from islands dependent on fossil fuels

https://www.newscientist.com/article/2401171-ocean-heat-could-supply-essentially-endless-clean-energy-to-islands/