10/09/2024 Les surprenantes connaissances scientifiques révélées par les dolmens néolithiques

Ceux-ci étaient nombreux dans toute l’Europe. Les plus petits ont disparu ou ont été démantelés par la suite pour en faire de la pierre de construction.

Aujourd’hui, à l’University College de Londres, on croit savoir comment nos ancêtres, il y a environ 4.000 ans, ont transporté les énormes pierres de Stonehenge, monument ;réhistorique dans le sud de l’Angleterre parmi les plus célèbres au monde.

The Telegraph  précise les travaux d’une équipe de chercheurs qui a tenté d’identifier la méthode utilisée par les hommes du Néolithique pour maîtriser les colossales pierres «bleues». Ces blocs de 2 tonnes, dont le surnom vient de leur couleur gris bleuté, possèdent la particularité de venir des carrières des monts Preseli au pays de Galles… à plus de 200 kilomètres de Stonehenge.

Les mêmes questions se posent à propos des dolmens du site moins célèbre mais tout aussi remarquable de Menga, en Espagne

Le Dolmen de Menga, monument mégalithique, datant d’environ 5 700 ans, situé près d’Antequera en Espagne, se distingue par sa complexité et son importance historique. Il est inscrit au patrimoine mondial de l’UNESCO depuis juillet 2016. Récemment, des études approfondies ont révélé des aspects inédits de sa construction, offrant un nouvel éclairage sur les compétences techniques et l’organisation sociale de la période néolithique. Cette découverte renouvelle la compréhension de l’ingénierie préhistorique et enrichit l’appréciation du patrimoine culturel de l’humanité. Les travaux des chercheurs sont résumés ici

Early science and colossal stone engineering in Menga, a Neolithic dolmen (Antequera, Spain)

Authors Info & Affiliations

Science Advances
23 Aug https://www.science.org/doi/10.1126/sciadv.adp12952024

Vol 10, Issue 34

DOI: 10.1126/sciadv.adp1295

Abstract

Megaliths represent the earliest form of monumental stone architecture. The earliest megalithic chambers in Europe appeared in France in the fifth millennium BCE. Menga is the oldest of the great dolmens in Iberia (approximately 3800 to 3600 BCE). Menga’s capstone #5 weighing 150 tons is the largest stone ever moved in Iberia as part of the megalithic phenomenon and one of the largest in Europe. The research presented here proposes a completely innovative interpretation of how this colossal monument was built. It comprises a geoarchaeological analysis encompassing three major components: (i) the angles of the planes of each stone, (ii) the stratigraphic polarity of each structural element, and (iii) the depth of the foundations. Our results show that Menga is a unique example of creative genius and early science among Neolithic societies. It was designed as a completely original engineering project, for which we know of no precedents in Iberia.

09/09/2024 Enfin de miniréacteurs nucléaires.

En France, en attendant l’arrivée avec ITER du nucléaire de fusion, il y a suffisamment de temps pour installer de nouveaux réacteurs de fission. C’est ce que vient de décider le gouvernement français. Il a annoncé la construction de 6 nouveaux réacteurs nucléaires. Ceux-ci devraient entrer en service entre 2035 et 2037. 

Le modèle de réacteurs prévus pour ces nouvelles installations est l’EPR 2, une version améliorée de l’EPR actuellement en construction à Flamanville. Cette version, totalement conçue en numérique, offre la possibilité de réaliser des économies d’échelle grâce à des préfabrications en usine. Par ailleurs, selon EDF, cette conception en numérique permettrait de repérer plus facilement les possibles anomalies de conception. 

Pour l’instant, 4 sites sont en bonne position pour accueillir ces réacteurs nucléaires nouvelle génération : Penly (Seine-Maritime) ;Graveline (Nord) ;Bugey (Ain) Tricastin (Drôme) ;

Le coût total de la construction de ces nouveaux réacteurs est estimé à 46 milliards d’euros. 

 Il faudrait voir plus petit

Mais beaucoup se sont demandé s’il fallait attendre si longtemps. Une solution consisterait à faire appel à des réacteurs plus petits, donc plus économiques. Un sous-marin nucléaire n’a pas besoin pour avancer d’embarquer la centrale de Flamanville.

De plus des réacteurs plus petits ne pourraient ils pas fonctionner sans faire appel à de l’uranium dont l’essentiel proviendra d’Afrique, de régions de plus en plus en butte au terrorisme islamique.

Quoique il en soit, basée à Nanterre (92), NAAREA est une entreprise francilienne qui propose de sortir des énergies fossiles grâce à un nucléaire de nouvelle génération, durable et innovant. NAAREA signifie « Nuclear Abundant Affordable Resourceful Energy for All », 

L’entreprise propose un réacteur qui combine trois technologies de pointe : neutrons rapides, sels fondus et production en série. Les neutrons rapides permettent de recycler le combustible usagé issu des centrales nucléaires conventionnelles et de clôturer le cycle du combustible, ce qui est une préoccupation majeure dans le domaine du nucléaire conventionnel. Les sels fondus permettent de garantir une sécurité intérieure intrinsèque.

Enfin, ses micro-générateurs sont conçus pour être installés au plus près des besoins des industriels, ce qui représente une innovation majeure dans le domaine de la production d’énergie nucléaire. 

NAAREA déjà franchi plusieurs étapes importantes dans ce projet. Elle a finalisé sa version numérique qui est une grande bibliothèque dans laquelle est archivée toute la documentation de recherche, de calculs, de tests, de matériaux ou de laboratoire.

Elle est en phase de recherche et développement et travaille en étroite collaboration avec les industriels pour adapter sa solution à leurs besoins. Il y a aussi un travail de développement des partenariats en cours pour mutualiser les expériences. 

Pour en savoir plus

https://www.iledefrance.fr/toutes-les-actualites/projet-naarea-vers-lenergie-nucleaire-de-demain



08/09/2024 Le Black Hole Explorer Telescope

Tout au long du 20e siècle et jusqu’à nos jours, les trous noirs ont été une source de fascination et de mystère, ceci tant pour les scientifiques que pour les amateurs de science-fiction ; ils représentent la seule occasion à ce jour de dépasser les limites de ce que l’on nomme l’univers observable.

En 2019, l’image reconstituée du Trou Noir supermassif M87* situé au centre de la galaxie elliptique supergéante M87 (également appelée Messier 87 ou Virgo A) a fait le tour du monde. C’était le premier trou noir à être imagé en  interférométrie à très longue base, le 10 avril 2019, par l’équipe de l’Event Horizon Telescope.

Prochainement la mission dite Event Horizon Telescope 2 lancera dans l’espace le Black Hole Explorer Telescope . Ceci lui permettra de voir bien au delà de ce qui est visible de la Terre. Notamment, l’on devrait obtenir des trous noirs des images bien plus précise que celle concernant M87* et révélant les principales caractéristiques de ces objets encore énigmatiques.

Pour en savoir plus on lira un entretien de Thomas Lewton, du NewScientist avec Alex Lupsasca, un des responsable de la Mission Black Hole Explorer Telescope, 20 july 2024, p 40

Voir aussi https://www.cfa.harvard.edu/research/black-hole-explorer-bhex

06/09/2024 Réchauffement climatique. Comment lutter contre l’excès de gaz carbonique (CO2)?

Le réchauffement climatique est l’un des principaux défis de notre époque. Il convient désormais de trouver des solutions efficaces pour enrayer ce phénomène. Parmi celles-ci, figure la technique du captage et stockage du CO2.

Le captage du CO2

L’objectif du procédé est de capter le carbone avant que celui-ci ne soit émis dans l’atmosphère. Il existe 3 grandes approches. La capture peut se faire par : 

Postcombustion : on retire le carbone à la sortie d’un flux de gaz généré par la combustion d’un combustible carboné.Cette technique est la plus connue et la plus utilisée.

Précombustion : le combustible est partiellement oxydé avant sa combustion. Il est ensuite (re)formé afin d’obtenir du CO2 et de l’hydrogène. La pression et la concentration du gaz carbonique sépare le CO2 de l’hydrogène.
Ce processus est plus coûteux par rapport à la capture postcombustion. 

Oxycombustion : le combustible carboné est brûlé avec de l’oxygène pur plutôt qu’avec de l’air. Le flux produit est alors sans azote, uniquement composé de CO2 et de vapeur d’eau que l’on sépare par condensation. 

La séquestration carbone naturelle (ou bioséquestration)

La séquestration du carbone se fait à l’origine, naturellement. Près de la moitié des émissions anthropiques sont extraites de l’atmosphère via l’équilibre du cycle du carbone (ou plus techniquement appelé : cycle biogéochimique) :

Les réservoirs de carbone naturels

Un réservoir de carbone est un stock qui contient une certaine quantité de carbone. Cette masse de carbone est généralement exprimée en gigatonne de carbone (GtC).

Atmosphère : le carbone est présent sous forme de gaz carbonique (dioxyde de carbone ou méthane).

Hydrosphère (océans) : le CO2 est dissous dans l’eau. Avec l’action des phytoplanctons, une partie est transformée en carbonate de calcium (CaCO3). Lorsque ces organismes meurent, leurs carapaces se retrouvent au fond de la mer (lithosphère) pour former des roches carbonatées (CaCO3).

Biosphère (sols) : le carbone est fixé dans la biomasse sous forme de carbone organique (plantes, animaux, etc.). Le processus menant à cette séquestration par des organismes vivants est la photosynthèse. Le carbone peut être rejeté par  Fermentation : relâché dans l’atmosphère, sous forme de méthane (CH4) – Respiration : relâché dans l’atmosphère, sous forme de CO2.- Fossilisation : avec le temps, si le carbone est emprisonné dans un organisme vivant qui s’enfouit dans la terre (lithosphère), cette forme organique se fossilise et devient une roche carbonée (pétrole, du charbon ou du gaz).

Lithosphère : le carbone est fixé sous forme de : Carbonates : ce sont les roches calcaires.- Carbone fossile : ce sont les combustibles comme le pétrole, le gaz ou le charbon.

Dans la nature, avec les phénomènes de volcanisme, une partie de ces roches carbonées (combustibles fossiles) ou carbonatées (CaCO3) est libérée dans l’atmosphère sous forme de CO2. Mais les activités humaines via la combustion de matières fossiles, relâchent bien plus de dioxyde de carbone que ce que la nature ne peut en supporter.

L’océan est le réservoir le plus important du monde, et il est d’ailleurs l’un des premiers à être impacté par le réchauffement climatique. La hausse des températures acidifie le milieu océanique, mettant en péril la survie d’espèces. Quant au milieu terrestre, les principaux puits de carbone sont les forêts, notamment les mangroves. Non seulement riches en biodiversité, ces milieux qui se trouvent en zone tropicale séquestrent une grande quantité de carbone organique.

Sur les côtes indonésiennes, des mangroves stockeraient plus de 1 000 tonnes de carbone par hectare dans leurs sols (selon une étude de Nature Geoscience).

La séquestration carbone industrielle

Par définition, ce mode de séquestration ou de captage se rapporte aux activités industrielles : on capte et stocke le carbone issu des activités industrielles. Elle suit les étapes déjà évoquées auparavant:

Le captage du CO2 par solvant est la technique la plus connue. La fumée produite par une activité industrielle est captée. L’ajout d’un solvant sépare le CO2 du reste des composants. Le mélange est chauffé pour ne récupérer que le CO2. Il est ensuite comprimé, refroidi et enfin liquéfié avant d’être transporté dans des sites de stockage. Le CO2 capté est ensuite stocké dans des couches très profondes en dessous de la terre, des sites surveillés et analysés pour garantir un stockage permanent.

Où stocker le carbone ? 

Il existe différents lieux de stockage : Les substrats géologiques rocheux. Cela peut être dans d’anciens gisements d’hydrocarbures, des veines de charbon (on remplace le méthane par le CO2) ou dans des aquifères salins (formation géologique constituée de roches sédimentaires poreuses). 

Les fonds océaniques. On peut doper la croissance du phytoplancton en fertilisant certaines zones marines par du fer. Certains chercheurs ont également imaginé la possibilité de dissoudre le CO2 à plus de 1000 mètres de profondeur, voire 3000 mètres (dans des fosses marines à haute pression). 

Les minéraux. Il existe des tests en cours en Islande (projet CarbFix), pour minéraliser le CO2 sous forme de carbonates. 

Source

07/09/2024. Sur l’indispensable correction des erreurs quantiques

Dans l’article précédent nous avions signalé l’étape importante que représente la correction des erreurs quantiques dans la dernière annonce faite par Google (Quantum AI), une start-up financé par Google dans le domaine de l’informatique quantique.

Voici pourquoi c’est une étape importante. Les ordinateurs quantiques fonctionnent en manipulant des qubits d’une manière coordonnée, fondée sur des algorithmes quantiques. Le défi vient du fait que les qubits sont si sensibles que même la lumière du jour peut provoquer des erreurs de calcul.

Plus les ordinateurs quantiques se développent, plus ce problème s’aggrave. Il en résulte des conséquences majeures, car les meilleurs algorithmes quantiques connus pour exécuter des opérations utiles exigent que les taux d’erreur des qubits soient très inférieurs à ceux constatés aujourd’hui. Pour combler cet écart, la correction d’erreur quantique est un élément essentiel.

La correction d’erreur quantique protège les informations en les codant sur plusieurs qubits physiques pour former un « qubit logique ». Elle est considérée comme le seul moyen de produire un ordinateur quantique à grande échelle avec des taux d’erreur suffisamment faibles pour des calculs utiles.

Au lieu de calculer sur les qubits individuels eux-mêmes, l’ordinateur calcule sur des qubits logiques. En codant un nombre plus important de qubits physiques sur un seul des qubits logiques du processeur quantique, il devrait être possible de réduire suffisamment les taux d’erreur pour activer des applications utiles dans la société d’aujourd’hui.

Mais la route est encore longue permettant d’obtenir des systèmes utilisant des milliers de qubits logiques avec de faibles taux d’erreur.

Plusieurs composants de la technologie devront être améliorés, de la cryogénie à l’électronique de contrôle en passant par la conception et la
réalisation des matériaux dont sont faits les qubits. Avec de tels
progrès, la possibilité d’obtenir les ordinateurs quantiques à grande échelle apparait plus clairement.

Le développement de processeurs quantiques sera aussi un excellent banc d’essai pour l’ingénierie assistée par l’IA et dans l’utilisation du Machine Learning afin d’améliorer les ordinateurs quantiques eux-mêmes.

Qu’est ce que la correction d’erreurs quantiques.

Il s’agit d’un ensemble de techniques utilisées pour protéger les informations stockées dans les qubits des erreurs et de la décohérence causées par le bruit.

Les ordinateurs quantiques actuels ont des taux d’erreur élevés : environ 1 erreur se produit sur 1 000 opérations avant de tomber en panne. Pour que ces ordinateurs soient utiles, les taux d’erreur doivent être aussi bas que possible, soit 1 sur mille milliards environs. Une amélioration considérable des performances est donc nécessaire, mais des progrès avérés sont déjà en cours

Mais pourquoi la correction des erreurs quantiques est-elle un défi si difficile à résoudre ?

Les qubits, les éléments constitutifs des ordinateurs quantiques, sont extrêmement sensibles aux perturbations environnementales. Le moindre changement de température ou toute interaction avec les molécules environnantes peut entraîner la perte d’informations par un qubit. De plus, des millions de qubits sont nécessaires pour effectuer des calculs utiles.

Des décodeurs puissants sont donc nécessaires pour détecter et corriger les erreurs avec une précision totale et à des vitesses considérables.

Le décodage en temps réel est un défi considérable pour les ordinateurs quantiques rapides, car un million de séries de résultats de mesure sont produites chaque seconde. Si l’on ne décode pas assez vite, l’on se trouve face à un retard exponentiellement croissant dans le traitement des données. Pour que l’informatique quantique soit utile, il faut donc pousser l’échelle du décodeur jusqu’à des vitesses de décodage dites Teraquop .   


07/09/2024. La correction des erreurs quantiques  par l’Intelligence artificielle quantique de Google (Quantum AI)

il y a trois ans, les ordinateurs quantiques de Google ont été les premiers à effectuer la démonstration d’une opération de calcul quantique faite plus rapidement et mieux que par les superordinateurs classiques les plus rapides.

Aujourd’hui, Google annonce avoir franchi une nouvelle étape.

Pour la première fois, ses chercheurs de Quantum AI ont démontré de façon expérimentale qu’il était possible de réduire les erreurs en augmentant le nombre de qubits. En informatique quantique, un qubit est une unité de base d’informations quantiques qui peut avoir toutes les valeurs autres que le zéro et le 1 du bit classique.

Cette avancée représente un changement majeur dans la façon dont Google utilisera les ordinateurs quantiques.

Au lieu de  travailler un par un sur les qubits physiques de son processeur quantique, QuantumAI traite un groupe de qubits comme un seul qubit logique. En conséquence, un qubit logique créé par QuantumAI à partir de 49 qubits physiques a pu surpasser celui précédemment créé avec 17 qubits. 

 Nature vient de publier les résultats de ces recherches

Référence

Suppressing quantum errors by scaling a surface code logical qubit

Nature volume614, pages 676–681 (2023)Cite this article

Abstract

Practical quantum computing will require error rates well below those achievable with physical qubits. Quantum error correction offers a path to algorithmically relevant error rates by encoding logical qubits within many physical qubits, for which increasing the number of physical qubits enhances protection against physical errors. However, introducing more qubits also increases the number of error sources, so the density of errors must be sufficiently low for logical performance to improve with increasing code size. Here we report the measurement of logical qubit performance scaling across several code sizes, and demonstrate that our system of superconducting qubits has sufficient performance to overcome the additional errors from increasing qubit number. We find that our distance-5 surface code logical qubit modestly outperforms an ensemble of distance-3 logical qubits on average, in terms of both logical error probability over 25 cycles and logical error per cycle ((2.914 ± 0.016)% compared to (3.028 ± 0.023)%). To investigate damaging, low-probability error sources, we run a distance-25 repetition code and observe a 1.7 × 10−6 logical error per cycle floor set by a single high-energy event (1.6 × 10−7 excluding this event). We accurately model our experiment, extracting error budgets that highlight the biggest challenges for future systems. These results mark an experimental demonstration in which quantum error correction begins to improve performance with increasing qubit number, illuminating the path to reaching the logical error rates required for computation.

06/09/2024. Les centrales à chaleur OTEC.

Une centrale OTEC (centrale océanothermique) est une machine thermique alimentée par les différences de températures entre l’eau de mer chaude (en surface) et froide (pompée en profondeur). Elle peut produire de l’électricité, de l’eau douce et de l’eau de mer de qualité pour l’aquaculture. La technologie employée est simple : canalisations, échangeurs thermiques, pompes et turbines.

Le concept a été imaginé par le physicien et inventeur français Jacques Arsène d’Arsonval en 1881.

Une centrale océanothermique est constituée de deux éléments principaux :

– Un système de production d’énergie. Un fluide de travail passe de l’état liquide à l’état gazeux dans un évaporateur en contact avec l’eau de mer chaude (pompée en surface). Il passe ensuite dans la turbine d’un turbo-générateur qui produit l’électricité. Enfin, il est refroidi dans un condenseur en contact avec l’eau de mer froide (pompée en profondeur).

– Un système d’alimentation en eau de mer. Pour alimenter une centrale OTEC, des débits d’eau de mer importants sont nécessaires. Ceci exige des canalisations suffisamment larges pour limiter les pertes de charges et suffisamment longues pour atteindre jusqu’à 1000 mètres de profondeur. Une différence de 20°C suffit pour le fonctionnement de l’OTEC.

Quels en sont les avantages ? peu de frais de fonctionnement, eau de mer abondante et gratuite, fonctionnement sans intermittence (différence de température stable), pas de confinement ou de stockage de l’eau.

Quels en sont les inconvénients ? investissement initial important, faible rendement thermique.

Pour conclure, posons-nous la question : à quand les premières centrales OTEC en France d’Outre-Mer, Guadeloupe, Guyane, Martinique, Mayotte , La Réunion .. ? Les avantages paraissent devoir y dépasser largement les inconvénients

Pour en savoir plus

Newscientist
Ocean heat could supply essentially endless clean energy to tropical islands

An old idea to use ocean heat to generate clean electricity has long failed to gain traction, but the technology – known as ocean thermal energy conversion (OTEC) – is seeing a resurgence of interest from islands dependent on fossil fuels

https://www.newscientist.com/article/2401171-ocean-heat-could-supply-essentially-endless-clean-energy-to-islands/

05/09/2024  La World Robot Conférence 2024

La World Robot Conference 2024, tenue à Pékin du 21 au 25 aout, a mis en lumière les derniers progrès en robotique. Plus de 27 modèles de robots humanoïdes ont été présentés, ainsi que plus de 600 produits innovants dans ce domaine en pleine explosion.

La Chine a clairement démontré son ambition de devenir un leader mondial de la robotique. Elle investit massivement dans cette technologie.

Parmi les robots présentés, on a retenu

L’Astribot , développé par Stardust Intelligence, qui a impressionné par ses multiples talents domestiques. Ce robot assistant humanoïde, présenté pour la première fois en avril 2024, a montré ses compétences en pliage de vêtements et en versant du vin. comme  ses talents en calligraphie

NAVIAI, conçu par le Zhejiang Humanoid Robot Innovation Center. Ce robot humanoïde pèse 60 kilogrammes. Il imite les comportements humains avec fidélité. Lors de la conférence, NAVIAI a donné des discours, préparé du thé et joué aux échecs. Les créateurs de NAVIAI envisagent de l’utiliser dans de nombreux domaines. Par exemple, il pourrait être servir pour la prise de parole en public ou dans l’hôtellerie.

La série de robots Agibot, développée par une startup de Shanghai, promet de révolutionner l’industrie de la livraison. Créée par un ancien employé de Huawei, cette entreprise prévoit de déployer ces robots humanoïdes dès mi-octobre 2024. Ils sont conçus pour effectuer diverses tâches, comme la livraison d’articles provenant de supermarchés. Ils peuvent aussi accueillir les visiteurs dans les galeries et prélever des pièces en usine. Agibot se positionne comme un acteur clé de l’avenir des livraisons automatisées et du service

Wanda est un robot humanoïde à double bras développé par l’entreprise japonaise UniX AI. Il vise à faciliter les tâches ménagères. Monté sur roues, Wanda peut réaliser des tâches comme la lessive et la cuisine. Cela en fait une solution pratique pour l’automatisation domestique.

Le robot humanoïde Optimus de Tesla a également fait sensation à Il est resté dans une vitrine, mais il a tout de même attiré de nombreux regards. Plus tôt cette année, Elon Musk avait annoncé que deux robots Optimus travaillaient déjà de manière autonome dans une des usines de Tesla. L’entreprise prévoit de produire ces robots pour un usage interne l’année prochaine. Elle espère ensuite les proposer à d’autres entreprises d’ici 2026.

Au-delà de ces cinq robots humanoïdes remarquables, la World Robot Conference 2024 a également mis en lumière une variété d’autres innovations robotiques. Certains robots exécutaient des arts martiaux chinois traditionnels, d’autres jouaient du zither. Certains ouvraient même des canettes de soda. Ainsi la société Wisson Technology, basée à Shenzhen, a présenté des manipulateurs robotiques flexibles imprimés en 3D. Ces composants sont conçus comme des muscles artificiels pneumatiques pour alimenter les robots. Ils sont plus économiques que les dispositifs de transmission traditionnels. 

Lors de cette conférence, l’entreprise chinoise Ex-Robots a attiré l’attention en exposant des robots humanoïdes d’apparence réaliste. Cependant, cette démonstration a pris une tournure inattendue. Les « robots » présentés n’étaient en réalité des femmes déguisées en robots qui imitaient les mouvements mécaniques des machines.

L’illusion était convaincante jusqu’à ce qu’une vidéo d’une de ces femmes en train de manger un sandwich n’apparaisse sur les écrans des réseaux sociaux. Cette révélation a provoqué diverses réactions qui allaient de la surprise à la déception. Les robots humanoïdes ne sont pas connus pour leur appétit en matière de nourriture humaine

Ajoutons qu’aucune application militaire de ces robots n’a été présentée. Non plus d’ailleurs que d’applications dans le domaine des réseaux spatiaux orbitaux ou surorbitaux. Les services de renseignement militaires occidentaux savant que la Chine, dans sa volonté de rejoindre les Etats-Unis dans ces domaines d’avenir, dispose de produits très avancés.

Source https://www.lebigdata.fr/

04/09/2924 Le quantique en Finlande. Le Finish Quantum Flagships

La Finlande se positionne fermement sur la scène internationale de la recherche quantique avec un investissement massif dans le développement technologique, l’éducation et la recherche.

Comment ce pays nordique se prépare t-il à devenir un acteur majeur dans ce domaine en pleine expansion ?

Le 11 janvier, le Conseil de la Recherche de Finlande a attribué 13 millions d’euros au projet Finnish Quantum Flagship (FQF), qui vient tout juste d’être lancé. Ce financement initial devrait être complété par une somme équivalente provenant des diverses organisations membres du projet. Ces sommes ne représentent que les cinq premières années de financement pour ce projet qui s’étend sur huit ans. Le FQF prévoit de lancer son plan directeur en mars 2024.

Le FQF regroupe les organisations hôtes suivantes : l’Université Aalto (coordinatrice), le Centre de Recherche Technique VTT de Finlande, l’Université de Helsinki, l’Université de Jyväskylä, l’Université de Tampere, l’Université d’Oulu, et le CSC-IT Centre for Science.

Un élan pour l’excellence finlandaise en technologies quantiques

« Avec ce financement, le FQF dispose désormais des ressources nécessaires pour élargir l’expertise quantique interdisciplinaire et la traduire au-delà de la communauté scientifique. C’est important. La Finlande est l’un des précurseurs reconnus dans les technologies quantiques, et notre collaboration nationale est flexible. Bien que la concurrence mondiale se durcisse, l’esprit de collaboration entre les universités finlandaises, les institutions de recherche, les agences gouvernementales et les partenaires industriels est ce qui nous distingue des autres pays. Le lancement de ce projet phare servira de catalyseur pour renforcer l’excellence de la Finlande en matière d’éducation, de recherche et de développement industriel dans les technologies quantiques », précise Peter Liljeroth, directeur du FQF et professeur de physique à l’Université Aalto.

Un plan sur plusieurs fronts pour l’écosystème quantique finlandais

Le calendrier du projet phare est prévu pour la période 2024-2031 et représente une avancée multifacette de l’écosystème quantique finlandais. Outre le parrainage de la collaboration entre les dizaines de groupes de recherche du FQF, les fonds nouvellement attribués seront utilisés pour attirer, former et retenir des talents internationaux – un problème persistant du domaine et un domaine clé du FQF.

De plus, les fonds seront utilisés pour initier de nouvelles activités de recherche et des initiatives industrielles, ainsi que pour sensibiliser la société finlandaise à la technologie quantique grâce à des programmes éducatifs et des formations en libre accès.

Des réseaux avec d’autres États nordiques et au-delà

Si la préparation d’une Finlande prête pour le quantique est au premier plan des objectifs du FQF, l’établissement de réseaux avec d’autres États nordiques est également une priorité. Les membres du FQF effectuent une analyse continue du paysage avec leurs homologues de Suède, du Danemark et de Norvège dans le cadre de la collaboration internationale Nordic Quantum. Ce groupe vise à identifier des domaines fructueux de collaboration en matière de recherche et de développement de technologies quantiques entre les États nordiques.

Une collaboration européenne plus large et des relations bilatérales avec des pays comme les États-Unis sont également en cours depuis plusieurs années, et celles-ci sont basées sur des déclarations publiques.

InstituteQ : un parapluie pour la science et la technologie quantique

Le FQF est hébergé au sein de l’InstituteQ, qui est l’institut quantique finlandais qui sert d’organisation collaborative parapluie en science et technologie quantique. Fondé en 2021 entre l’Université Aalto, le VTT et l’Université de Helsinki, l’InstituteQ facilite la recherche de haut niveau, l’adoption de nouvelles technologies, le développement de nouvelles opportunités commerciales et le développement de programmes de formation nationaux.

En synthèse

La Finlande se positionne comme un acteur majeur dans le domaine de la recherche quantique grâce à un investissement massif et une collaboration étroite entre les universités, les institutions de recherche, les agences gouvernementales et les partenaires industriels. Avec le lancement du projet phare FQF, le pays se prépare à renforcer son excellence en matière d’éducation, de recherche et de développement industriel dans les technologies quantiques.

Qu’est-ce que le projet Finnish Quantum Flagship (FQF) ?

Le FQF est un projet ambitieux lancé par la Finlande pour renforcer son rôle dans le domaine de la recherche et du développement quantiques. Il regroupe plusieurs organisations de recherche et d’éducation finlandaises.

Quel est l’objectif du FQF ?

Le FQF vise à élargir l’expertise quantique interdisciplinaire en Finlande et à la traduire au-delà de la communauté scientifique. Il cherche également à attirer, former et retenir des talents internationaux dans le domaine quantique.Ezoic

Quels sont les partenaires du FQF ?

Le FQF regroupe plusieurs organisations, dont l’Université Aalto, le Centre de Recherche Technique VTT de Finlande, l’Université de Helsinki, l’Université de Jyväskylä, l’Université de Tampere, l’Université d’Oulu, et le CSC-IT Centre for Science.

Quel est le rôle de l’InstituteQ ?

L’InstituteQ est l’institut quantique finlandais qui sert d’organisation collaborative parapluie en science et technologie quantique. Il facilite la recherche de haut niveau, l’adoption de nouvelles technologies, le développement de nouvelles opportunités commerciales et le développement de programmes de formation nationaux.

Quelle est la durée du projet FQF ?

Le projet FQF est prévu pour une durée de huit ans, de 2024 à 2031.

Références

Conseil de la Recherche de Finlande. (2024). Annonce du financement du projet Finnish Quantum Flagship. Helsinki, Finlande.