23/07/2023 Court extrait d’analyses britanniques concernant la guerre en Ukraine

Traduction

Le discours occidental concernant les forces armées russes a tendance à les présenter comme incapables en matière de tactique, déficientes techniquement et brisées moralement. Ces critiques dans certains cas ne sont pas inexacte mais elles ne peuvent pas être appliquées à l’ensemble de l’armée russe. Celle-ci, tout d’abord, a démontré que son matériel est efficace et hautement léthal comme le montre les statistiques militaires ukrainiennes concernant ses propres morts, blessés et prisonniers.

Les faiblesses russes à ce jour sont apparues dans la conduite des opérations offensives. L’infanterie manque d’effectifs suffisants et bien entraînés. Au contraire de l’artillerie en arrière plan, elle manque également de puissance de feu. Plus généralement elle est incapable d’anticiper les nouvelles menaces. Beaucoup de ses adaptations sont réactives. Il n’est pas certain qu’elle deviendront des acquis définitifs de l’armée russe.

Ainsi dans la défense antiaérienne toute innovation ukrainienne, résultant notamment de l’introduction d’armements américains, cause de trop longues périodes de troubles et de tirs amis. Les réserves massives de munitions dont disposaient initialement l’armée ont été utilisées inefficacement faute de pouvoir être remplacées rapidement.

Les troupes ukrainiennes, de leur côté, auront de plus en plus de mal à maintenir leur supériorité, notamment du fait de la complexité des fortifications construites par les russes dans les zones urbaines qu’ils ont occupées.

Source

Royal United Services Institute for Defence and Security Studies

Meatgrinder: Russian Tactics in the Second Year of Its Invasion of Ukraine
https://static.rusi.org/403-SR-Russian-Tactics-web-final.pdf
Special Report 19 May 2023

Contents
Executive Summary
Introduction 1 Infantry 3 Engineers 9 Artillery 11 Armour 15 Electronic Warfare 18 Air Defence 20 Aviation 22 Command and Control 24 Priority Assistance for the Armed Forces of Ukraine 25 Conclusions

 

23/07/2023 Gaz de schiste américain ou fusion nucléaire à la française

Depuis quelques mois, des rapports américains préviennent du fait que ce qui avait été nommé l’ US shale revolution, la révolution du gaz de schiste ne pourra plus dans la quinzaine d’années prochaines soutenir la croissance comme cela avait été le cas dans les quinze dernières années.

Voir du Wall Street Journal “US Shale Boom Shows Signs of Peaking as Big Oil Well Disappear” ou Bloomberg. https://www.latestly.com/socially/business/the-specter-of-peak-oil-that-haunted-global-energy-markets-during-the-first-decade-of-the-latest-tweet-by-bloomberg-4922112.html

En fait, on peut penser que le peak oil surviendra plus tôt, dans deux à cinq ans. Mais il est surprenant de constater combien ces avertissements impactent peu le débat public. Jusqu’à présent l’opinion la plus répandue était qu’aux rythmes actuels de forage, les réserves pourraient durer au moins un siècle. Comme manifestement ce ne pourra pas être le cas, on se demande sur quoi comptent les investisseurs américains pour maintenir un taux suffisant d’activité dans l’économie, ceci afin en priorité d’éviter des crises sociales.

Dans l’immédiat, ils comptent sur les 25 milliards minimum annuels d’aide américaine à l’Ukraine pour faire fonctionner à plein régime les industries militaires américaines. Plus généralement le budget militaire américain, qui est approximativement de 615 milliards de dollars, aura son rôle pour maintenir l’activité aux Etats-Unis eux-mêmes comme dans les Etats satellites.

Mais si les intérêts pétroliers américains n’étaient pas si puissants, Washington devrait sans attendre investir comme le fait la France à Cadarache dans la fusion nucléaire. Si tout ce passait bien en ce domaine, le pétrole de schiste américain perdrait plus vite que l’on ne croit tout intérêt.

22/07/2023 La desalination de l’eau de mer

Actuellement l’humanité consomme globalement 4.000 Km2 d’eau douce pour ses divers besoins. Ceci devrait augmenter avec le réchauffement climatique L’eau douce devrait devenir une ressource rare et par conséquent de plus en plus coûteuse. Pourquoi dans ce cas ne pas consommer davantage d’eau de mer desalinée ?

Le problème est que la desalination de l’eau de mer est actuellement trop coûteuse pour être rentable. Le sel se dissout très facilement dans l’eau mais ce faisant il forme des liens chimiques difficiles à rompre. L’énergie et les technologies nécessaires sont d’un prix élevé.

Il est difficile d’évaluer exactement les coûts de la desalination. Ils varient beaucoup selon les pays, en fonction des prix de l’énergie, de la main d’oeuvre, des terrains et de l’accès à la mer. Mais ils sont relativement élevés. Il y a encore peu d’usines de desalination dans le monde.

Selon l’ International Desalination Association (IDA | The Global Desalination and Water Reuse Community ) il y a environ 13.000 usines de desalination dans le monde. La plupart sont situées dans des Etats pétroliers où l’énergie est bon marché et l’eau douce rare.

Rappelons qu’il y a deux méthodes pour désaliner l’eau de mer, la distillation thermique et l’osmose inverse. La première nécessite de la chaleur pour faire bouillir l’eau, la seconde utilise des membranes semi-perméables. L’eau salée est obligée de les traverser afin d’y perdre l’essentiel de ses sels. Cette technologie nécessitant moins d’énergie que la distillation sera de plus en plus fréquemment utilisée.

Ces deux méthodes présentent des coûts écologiques. Avec l’eau de mer sont pompées et détruites de nombreuses créatures marines. Le rejet d’eaux supersalées a le même effet.

Ceci dit, l’eau douce sera de plus en plus rares. Les nappes souterraines sont en voie d’asséchement de même que la plupart des rivières, il n’est plus possible de construire de nouveaux barrages ; l’enneigement des massifs montagneux diminue chaque année.

22/07/2023 La conscience chez l’animal

Le fait que les animaux puissent être dotés de capacités de conscience proches de celles de l’homme n’a jamais été discuté dans l’Antiquité. Aujourd’hui il fait l’objet de vifs débats. y compris dans le domaine scientifique.

Ceux-ci commencent par la définition de ce que l’on entend par le concept de conscience. S’agit-il d’une conscience analogue à la nôtre, très largement influencée par les représentations que s’en donnent les groupes sociaux dominants. S’agit-il des conséquences qui découlent d’une organisation neuro-cérébrale que l’on trouve chez toutes les espèces supérieure, y compris chez beaucoup d’invertébrés comme les poulpes dépourvus de cerveaux centraux . Et qu’en sera-t-il des futures générations de robots dits intelligents dotés de l’équivalent de cerveaux. Que seront leurs capacités de conscience ?

En 2012, des scientifiques de tous les horizons, dont le physicien Stephen Hawking, parlaient d’une seule et même voix pour affirmer que les animaux étaient doués de conscience. Dans leur Déclaration de Cambridge sur la conscience, ils affirmaient ainsi que « les humains ne sont pas les seuls à posséder les substrats neurologiques qui produisent la conscience »

Un ouvrage, paru le 18 octobre 2018 aux éditions Quae, propose de faire le point sur la question de la conscience des animaux. Il synthétise les résultats d’une expertise pluridisciplinaire de l’Inra, qui avait été conduite à la demande de l’unité « santé et bien-être animal » de l’Autorité européenne de sécurité alimentaire (EFSA).

Ces résultats ont été présentés en mai 2017 aux membres du réseau européen sur le bien-être animal. Le rapport complet a été publié en anglais dès avril 2017 (un résumé en français est disponible sur le site de l’Inra).

Pour cette expertise, l’Inra a mobilisé 17 chercheurs français de diverses disciplines – biologistes, philosophes, sociologues et juristes. Ils ont effectué une revue de la littérature internationale, en retenant au final 659 références. L’analyse de ces textes et leur synthèse inédite présentées dans cet ouvrage permettront aux lecteurs de faire le point sur cette question complexe

Une nouvelle approche de la conscience

Pour mener à bien ce travail, il a d’abord fallu reprendre la notion de conscience chez les êtres humains, en tenant compte des apports récents de la neurobiologie (voir à ce sujet l’ouvrage du neuropsychologue Antonio Damasio, L’Ordre étrange des choses. La vie, les sentiments et la fabrique de la culture)

La définition de la conscience retenue dans l’ouvrage est la suivante : il s’agit d’une « expérience subjective de l’individu de l’environnement, de son corps et de ses propres connaissances », lui conférant une aptitude à percevoir le monde et à résoudre des problèmes.

La conscience y est classiquement présentée sous deux composantes : le niveau et le contenu de conscience. Le niveau de conscience se réfère aux états de vigilance, allant du coma à l’éveil. Le contenu de la conscience concerne la perception subjective de l’environnement et de soi-même, et l’évaluation et le contrôle des états mentaux.

Pour mettre en œuvre cette conscience, différentes structures nerveuses en interaction sont associées à un noyau central, chargé de gérer les règles des rythmes biologiques ainsi que la vigilance. Elles permettent des compétences cognitives parfois complexes telles que l’attention, l’apprentissage, la mémorisation, les émotions et l’évaluation d’une situation. Un seul stimulus peut activer plusieurs de ces structures, mais leurs interactions produisent des interprétations, des intentions, et provoquent des actions conscientes.

Le résultat de ces interactions s’avère d’une plus grande complexité que ce qui serait permis par la somme des activations de ces différentes structures. C’est cette propriété émergente qui constitue la conscience.

Ce que disent les récentes études sur la conscience animale

Les études récentes permettent de remettre en cause certaines affirmations sur l’incapacité des animaux à être conscients d’eux-mêmes, à évaluer leurs connaissances ou encore à se souvenir.

Les analyses disponibles sur le comportement, les facultés cognitives et la neurobiologie tendent ainsi à montrer l’existence de contenus élaborés de conscience chez certains animaux, dont les mammifères et les oiseaux. Pour illustrer ces contenus, le choix a été fait par les auteurs de l’ouvrage de développer différentes facettes des composantes de la conscience dont les émotions, la métacognition, la maîtrise du temps, le comportement social et les interactions avec les humains.

La possibilité d’évaluer sa propre connaissance, aussi appelée « métacognition », était encore récemment considérée comme une compétence de niveau supérieur présente uniquement chez l’homme. Les nouveaux dispositifs expérimentaux et les développements neurobiologiques ont permis, après les travaux de Smith sur les dauphins, de montrer que cette compétence existe également chez plusieurs espèces de mammifères terrestres (singes, rongeurs) ou marins (dauphin) et d’oiseaux (pigeon).

La conviction que les animaux étaient enfermés dans le présent a également été longtemps affirmée. Or il a été démontré, chez certains oiseaux et mammifères, l’existence d’une mémoire épisodique permettant à l’animal de se souvenir d’épisodes spécifiques, capacité présumée seulement humaine. Ainsi, des expériences montrent que les animaux peuvent planifier leurs activités futures. La tayra (Eira barbara), un mustélidé d’Amérique centrale et du Sud, cache par exemple des bananes plantains vertes et vient les chercher une fois qu’elles ont muri à point.

Les relations des animaux entre eux et avec l’homme s’avèrent quant à elles extrêmement flexibles, permettant une adaptation à de multiples situations. Ainsi, les geais buissonniers et les écureuils gris possèdent des stratégies de protection de leur cache par des tactiques de confusion, grâce à des caches factices variant en fonction du public fréquentant les bois où ils vivent .

Enfin, l’individu a la notion de ses partenaires et de leurs réactions : il s’agit d’une « théorie de l’esprit », qui caractérise la capacité à attribuer des états mentaux à d’autres individus. Des formes d’empathie, on pense aux rats libérant un congénère de sa cage, et de tromperie, en donnant par exemple de fausses informations à des congénères, ont d’autre part été observées chez les animaux.

https://theconversation.com/une-synthese-inedite-des-connaissances-actuelles-sur-la-conscience-animale-99394

Espace. Une mystérieuse source envoie d’étranges signaux vers la Terre depuis 35 ans

De longs signaux radio émanant de l’espace sont captés depuis 35 ans par les scientifiques qui n’en trouvent pas l’origine comme l’indique un article publié dans la revue Nature, mercredi 19 juillet 2023 (cf références et abstract ci-dessous). Parmi les hypothèses, les scientifiques pensent à un pulsar, même si ces étoiles ont l’habitude d’envoyer des pulsations de quelques millisecondes à plusieurs secondes mais jamais plusieurs minutes comme c’est le cas pour l’objet inconnu. 

Les premières ondes datent au moins de l’année 1988. Mais, depuis toutes ces années, les chercheurs n’ont pas pu décoder ces signaux. Leurs caractéristiques ne correspondent à aucun modèle connu, rapporte The Independent .Cette source envoie des explosions d’énergie d’une vingtaine de minutes avec une luminosité qui varie considérablement, selon les scientifiques. Elle a été identifiée il y a peu, mais en consultant des archives, les chercheurs ont pu repérer des traces de signaux comparables allant jusqu’à 21 minutes perçus depuis au moins 1988.

Les scientifiques ont d’abord pensé qu’il pouvait s’agir de signaux émanant de pulsars, des étoiles en fin d’évolution qui tournent rapidement en émettant des explosions radio de courte impulsion de quelques millisecondes à plusieurs secondes, mais jamais plusieurs minutes. Il pourrait aussi s’agir de sursauts radio, c’est-à-dire des anomalies dans les relevés de fréquences radio de l’espace, mais là encore les émissions ne durent pas plusieurs minutes.

Si l’objet baptisé GPMJ1839-10 est un pulsar, il ne se comporte pas comme ceux qui sont connus. Il fonctionne d’une manière que les scientifiques pensaient impossible. Les experts font également d’autres hypothèses. Il pourrait s’agir d’une étoile du type « naine blanche » hautement magnétisée ou d’un magnétar, un autre type d’étoile à neutrons avec des champs magnétiques incroyablement puissants. Cependant, ces objets célestes n’envoient habituellement pas de telles pulsations. Le mystère reste donc entier.

Observons que compte tenu de la vitesse de la lumière dans le vide, cette source est dans notre galaxie et relativement proche de la Terre

Référence

A long-period radio transient active for three decades

Nature  volume619, pages 487–490 (2023)

Abstract

Several long-period radio transients have recently been discovered, with strongly polarized coherent radio pulses appearing on timescales between tens to thousands of seconds1,2. In some cases, the radio pulses have been interpreted as coming from rotating neutron stars with extremely strong magnetic fields, known as magnetars; the origin of other, occasionally periodic and less-well-sampled radio transients is still debated3. Coherent periodic radio emission is usually explained by rotating dipolar magnetic fields and pair-production mechanisms, but such models do not easily predict radio emission from such slowly rotating neutron stars and maintain it for extended times. On the other hand, highly magnetic isolated white dwarfs would be expected to have long spin periodicities, but periodic coherent radio emission has not yet been directly detected from these sources. Here we report observations of a long-period (21 min) radio transient, which we have labelled GPM J1839–10. The pulses vary in brightness by two orders of magnitude, last between 30 and 300 s and have quasiperiodic substructure. The observations prompted a search of radio archives and we found that the source has been repeating since at least 1988. The archival data enabled constraint of the period derivative to <3.6 × 10−13 s s−1, which is at the very limit of any classical theoretical model that predicts dipolar radio emission from an isolated neutron star.

21/07/2023 Pourquoi Moscou abandonnerait-il son contrôle de l’est du Donbass ?

L’est du Donbass, où la plupart des combats avec la Russie ont eu lieu depuis 8 ans, a toujours été présenté comme le cœur industriel de l’Ukraine. Avec ses réserves considérables en charbon, il a contribué au développement des aciéries, des fonderies et des générateurs électriques de la région depuis plus d’un siècle.

Mais il n’est pas que cela. Un récent rapport du cabinet d’étude SecDev basé à Ottawa, intitulé Russia’s Resource Grab in Ukraine, référencié ci-dessous, montre que l’Ukraine pourrait devenir un  super-pouvoir dans le domaine critique des ressources minérales et agricoles. Globalement il y occupe le 4e rang mondial.

Au delà de cela, l’Ukraine disposerait des plus vastes réserves de terres rares en Europe (cerium, yttrium, lanthanum, neodymium). Celles-ci sont indispensable à l’industrie de la microélectronique et de la téléphonie mobile. Elles ont compté pour plus de 30% des exportations du pays en mars 2022, avec un total de 54 milliards de dollars.

Par ailleurs, l’essentiel des réserves de gaz naturel, de charbon et de pétrole dont dispose l’Ukraine se trouve dans la région Dnieper-Donetsk. Le gaz se trouve dans des réserves estimées de 2 à 5 trillions de M3 principalement dans des régions aujourd’hui contestées de la Mer Noire. Grâce à ses conquêtes en Ukraine, Moscou contrôle les 2/3 de son plateau maritime en atlantique nord, où se trouve l’ essentiel de ses réserves en hydrocarbures.

https://foreignpolicy.com/2022/04/28/ukraine-war-russia-resources-energy-oil-gas-commodities-agriculture/.



20/07/2023 La théorie de l’information intégrée (TII)

La théorie de l’information intégrée (TII), ou en anglais Integrated information theory (IIT), est une théorie proposée par Giulio Tononi en 2004. Elle vise à expliquer pourquoi les cerveaux humains, qu’elle considère comme des systèmes physiques, sont conscients et à quel degré. Elle se demande ce qu’il faudrait pour que d’autres systèmes physiques, en premier lieu les cerveaux animaux, deviennent conscients comme le sont les humains. L’univers dans son ensemble est-il conscient et comment cette conscience se manifeste-t-elle ?

La dernière version de la théorie dite ITT 3.0. date de 2014. Elle est encore en développement et amélioration.

David Chalmers avait expliqué que tenter de comprendre la conscience à partir de lois physiques débouchait sur une impossibilité, ce qu’il a nommé le « hard problem« . ITT part du principe contraire. Nous devons admettre que nous sommes conscients et rechercher les propriétés qu’un système physique tels que nous doit acquérir pour accéder à cet état de conscience, étant admis que celui-ci ne peut que provenir de l’état du système physique sous-jacent.

Les capacités d’un système physique pour accéder à la conscience sont inconnues. Elles forment un éventail comme le montrent les études sur des patients atteints d’incapacité du corps calleux (split brain patients) ou sur des patients conscients bien que disposant d’un cerveau où manquent d’importantes portions du corps cérébral.

L’ITT pour sa part distingue les propriétés d’une expérience consciente, qu’elle nomme « axiomes » et les propriétés d’un système physique conscient, nommés postulats.

Pour des approches différentes, voir Wikipedia Conscience

Les axiomes.

Ils représentent les aspects essentiels de chaque expérience consciente. On peut les caractériser comme suit :

  • La conscience existe intrinsèquement. Chaque expérience consciente est réelle ; elle ne dépend pas d’observateurs extérieurs.
  • La conscience est structurée. Chaque expérience est composée de multiples distinctions phénomènologiques. La phénoménologie est une école de philosophie qui s’attache à démontrer que le phénomène n’existe que s’il y a une conscience pour le percevoir. Toute conscience serait donc conscience de quelque chose, c’est l’idée d’intentionnalité de la conscience. La méthode phénoménologique veut démontrer qu’il existe une relation essentielle entre la conscience et le monde. La phénoménologie reprend les interrogations philosophiques sur le concept d’essence, et son approche pour les aborder est d’étudier l’expérience vécue, c’est-à-dire le phénomène en tant que tel. Il est parfois considéré qu’ainsi, la phénoménologie cherche à faire le lien entre l’idéalisme (passer par l’idée pour accéder au réel) et l’empirisme (passer par le réel pour accéder à l’idée)
  • La conscience est spécifique. Chaque expérience est comme elle est, composée d’un ensemble spécifique de distinctions phénoménales. Elle se différencie de toutes autres possibles.

Les postulats

Les propriétés requises d’un état physique conscient sont dites par l’ITT des postulats du fait que l’existence de cet état physique est elle-même postulée. Rappelons que l’ITT maintient que la seule chose dont chacun peut être certain qu’elle existe est sa propre conscience. Ici, dans ce qui suit, un système physique est entendu comme un ensemble d’éléments, chacun disposant de deux ou trois états internes. Les données en entrée influencent cet état, celles en sortie sont influencées par lui. Les neurones en sont des exemples naturels.

Dans ces conditions, les postulats sont

. Que les système disposent d’une existence intrinsèque. Afin d’exister intrinsèquement, ils doivent avoir des causes et des effets, indépendants des observateurs extérieurs. Un pouvoir de cause et d’effet peut-être défini en considérant un espace de cause et d’effet ( cause-effect space ) doté d’un axe pour chaque état possible du système dans le passé (causes) et dans le futur (effets). Dans cet espace, une intervention qui établit le système dans un état initial (cause), sans modification des conditions d’arrière plan (background conditions) conduit le système dans son état présent (effet).

  • Que les systèmes soient structurés. Les sous-éléments constituant le système s’articulent selon des considérations différentes qui peuvent avoir des relations de cause à effet à l’intérieur du système lui-même ( cause-effect structure )
  • Que les systèmes précisent les conditions pour lesquelles ils sont ce qu’ils sont. Ceci permettra d’établir des répertoires spécifiques de cause à effet, (specific cause-effect repertoires )permettant de comprendre pourquoi les systèmes sont ce qu’ils sont

Pour la suite voir ( Non traduit faute de temps)

https://en.wikipedia.org/wiki/Integrated_information_theory

09/07/2023 Une mystérieuse « zone d’évitement » au centre de notre galaxie 

Andreas Burkert et des collègues de l’Observatoire universitaire de Munich ont observé une étrange « zone of avoidance » terme que l’on peut traduire par zone d’évitement, près du centre de notre galaxie, la Voie Lactée. Ce centre est occupé par un trou noir supermassif nommé Sagittarius A* . Les étoiles à quelque distance qu’elles soient de ce centre, devraient avoir une distribution au hasard.

Cependant un groupe d’environ 200 étoiles non loin du centre galactique ne se comporte pas de cette façon. Elles ont été nommé S-stars. Andreas Burkert a constaté que les orbites d’une cinquantaine d’ étoiles de ce groupe qu’il a pu observer avec précision n’étaient pas comme elles auraient du l’être circulaires autour du centre galactique. Elles paraissaient fuir ce centre en adoptant des orbites elliptiques. Il a parlé de zone d’évitement

Une raison non expliquée à ce jour leur impose un tel comportement exceptionnel. Il restera dans les prochains mois à en découvrir la raison. Tout se passe comme si la présence d’un trou noir supermassif tel que Sagittarius A* obligeait les objets autour de lui à adopter des comportements n’ayant rien d’aléatoire.

Référence

[Submitted on 3 Jun 2023]

The Orbital Structure and Selection Effects of the Galactic Center S-Star Cluster

Andreas BurkertStefan GillessenDouglas N.C. LinXiaochen ZhengPhilipp SchoellerFrank EisenhauerReinhard Genzel

The orbital distribution of the S-star cluster surrounding the supermassive black hole in the center of the Milky Way is analyzed. A tight, roughly exponential dependence of the pericenter distance rp on orbital eccentricity e⋆ is found, log(rp)∼(1-e⋆), which cannot be explained simply by a random distribution of semi-major axes and eccentricities. No stars are found in the region with high e⋆ and large log rp or in the region with low e⋆ and small log rp. G-clouds follow the same correlation. The likelihood P(log rp,(1-e⋆)) to determine the orbital parameters of S-stars is determined. P is very small for stars with large e⋆ and large log rp. S-stars might exist in this region. To determine their orbital parameters, one however needs observations over a longer time period. On the other hand, if stars would exist in the region of low log rp and small e⋆, their orbital parameters should by now have been determined. That this region is unpopulated therefore indicates that no S-stars exist with these orbital characteristics, providing constraints for their formation. We call this region, defined by log (rp/AU) < 1.57+2.6(1-e⋆), the zone of avoidance. Finally, it is shown that the observed frequency of eccentricities and pericenter distances is consistent with a random sampling of log rp and e⋆. However, only if one takes into account that no stars exist in the zone of avoidance and that orbital parameters cannot yet be determined for stars with large rp and large e⋆.

Comments:15 pages, 4 figures, submitted to ApJ, comments very welcome
Subjects:Astrophysics of Galaxies (astro-ph.GA)
Cite as:arXiv:2306.02076 [astro-ph.GA]
 (or arXiv:2306.02076v1 [astro-ph.GA] for this version)
 https://doi.org/10.48550/arXiv.2306.02076

18/07/2022 Des batteries pour des millions de véhicules électriques

Northvolt est une entreprise suédoise proche de Skelleftea, une vaste zone industrielle du nord de la Suède. Elle a entrepris de construire une « gigafactory » qui, en 2026, emploiera 4.000 personne. L’objectif sera de produire des batteries au lithium pour 1 million de véhicules électriques par an. Il faudra aussi recycler le maximum de batteries usagées, plutôt que les jeter dans des décharges.

Northvolt.com

La production de voitures électriques produit plus de gaz à effet de serre que celle de voitures classiques, du fait que la fabrication de leurs batteries fait encore largement appel aux énergies fossiles. C’est la raison pour laquelle Northvolt s’est installé au nord de la Suède ou l’hydroélectricité est abondante et bon marché. Les émissions de CO2 y sont inférieures de quelques 30% à celles des entreprises chinoises fonctionnant au charbon. Il en est même du prix des autres composants des batteries.

Ceci dit Northvolt est loin du compte. Aux estimations actuelles, ce devrait être 50 millions de véhicules électriques par an qui seraient nécessaires dans le monde, sans compter les autocars de transport urbain et suburbain. Quant au lithium des batteries, il deviendra plus rare que l’or.

Pour en savoir plus

« La guerre des batteries a commencé », une conversation avec Paolo Cerruti, co-fondateur de Northvolt »

https://legrandcontinent.eu/fr/2022/10/19/la-guerre-des-batteries-a-commence-une-conversation-avec-paolo-cerruti-co-fondateur-de-northvolt/


« Après les Etats-Unis et la Chine : L’Europe rejoint la course dans la fabrication de batteries électriques »
https://elwatan-dz.com/apres-les-etats-unis-et-la-chine-leurope-rejoint-la-course-dans-la-fabrication-de-batteries-electriques

17/07/2023 A la découverte de la partie obscure de l’univers

Bruno Lévy, directeur de recherche à l’Inria, participe à un projet international de recherche en cosmologie, aux côtés de chercheurs de l’Institut d’astrophysique de Paris et d’universités étrangères. L’objectif ? Développer des algorithmes permettant de retracer l’histoire de l’Univers, ainsi que des modèles qui pourront tenir compte de plusieurs inconnues, comme la matière noire et l’énergie sombre.

Il présente ainsi ce projet :

L’’Univers recèle une face sombre, que de nombreux scientifiques cherchent à percer. C’est l’objectif d’un ambitieux programme de recherche international et pluridisciplinaire, qui s’appuie sur des expertises en informatique, en mathématiques et en cosmologie. Le projet est mené, depuis 2015, outre moi-même, par  Roya Mohayaee, chargée de recherche CNRS à l’Institut d’astrophysique de Paris (Sorbonne Université – CNRS), et par Sebastian von Hausegger, chercheur à l’université d’Oxford. Ils viennent d’être rejoints par Ravi Sheth et Farnik Nikakhtar, deux experts américains en astronomie et en physique, respectivement enseignant-chercheur à l’université de Pennsylvanie et postdoctorant à l’université de Yale.

 Les mathématiques sont notre langage commun, explique Bruno Lévy. Un langage puissant pour décrire ce qui se passe dans l’Univers, notamment les principes physiques découverts grâce à la cosmologie .  La recherche en informatique vise, quant à elle, à faciliter la traduction pour l’ordinateur des équations et formules physiques qui doivent être calculées. C’est la baguette magique qui donne vie aux formules mathématiques et permet de simuler numériquement les lois de la physique, précise le directeur de recherche.

Reconstituer la trajectoire des galaxies

Cette innovation, comparée à une machine à remonter le temps, repose sur une méthode mathématique qui utilise la théorie du transport optimal pour reconstituer la trajectoire des étoiles et des galaxies, à partir d’une carte en 3D du Cosmos. « Notre but était de voir à quoi ressemblait l’Univers il y a des milliards d’années et nous y sommes parvenus, il est vrai sur des cas simplifiés et avec des ensembles de données limités

Les recherches ainsi effectuées ont mené à une première découverte majeure mi-2022, rapportée alors dans un article de la revue Physical Review Letters, avant d’avoir le privilège d’être mise en lumière par le magazine Physics.

L’équipe s’est ensuite attelée à renforcer sa méthode, notamment en montant en puissance sur les calculs et en testant sa résistance face à des paramètres incomplets ou non mesurables. « Il faut être capable de prendre en compte le fait qu’une certaine proportion des galaxies ne sont pas observées », 

La question de la matière noire est plus compliquée encore. Ce nom de « matière noire » désigne un ensemble d’effets, constatés depuis le début du XXe siècle. Mais nul n’est jusqu’ici parvenu à détecter directement cette matière, à en connaître la composition, ou encore à la caractériser comme une modification des lois de la gravité. Il en est de même pour l’énergie sombre, dont on ne connaît ni la source ni la nature, mais dont l’existence a été repérée à la fin des années quatre-vingt-dix par les chercheurs américano-australiens Perlmutter et Riess : elle est à l’origine d’une accélération de l’expansion de l’Univers au cours des derniers milliards d’années.

Dans un nouvel article publié fin 2022 par Physical Review Letters, les chercheurs de l’équipe internationale ont démontré la pertinence de l’outil mathématique qu’ils ont conçu pour des données réelles, comportant leur part d’incertitude et de données manquantes. Ils ont pu montrer la capacité de leur méthode à reconstruire une information pertinente à partir de données incomplètes. À terme, leur outil permettra de tester différentes théories de la matière noire et de l’énergie sombre qui prennent la forme d’ensembles d’équations mathématiques. Cette méthode visera à confronter ces équations à la réalité, en mesurant à quel point elles restent cohérentes lorsqu’on y injecte les données d’observation. 

Course aux « super-algorithmes »

Il reste maintenant à adapter cette méthode mathématique à une quantité toujours plus grande de données observationnelles, remontées par de puissants télescopes. « Nous avons réussi à effectuer des calculs sur 300 millions de points et espérons dépasser prochainement le milliard de points », indique Bruno Lévy. « À terme, nous aimerions appliquer notre algorithme sur de vraies données observationnelles, issues en particulier des relevés effectués dans le cadre du projet DESI » (Dark Energy Spectroscopic Instrument (DESI), ajoute Farnik Nikakhtar, postdoctorant à l’université de Yale. Ce projet international devrait déboucher sur l’observation de « 40 millions de galaxies et de quasars » d’ici à la fin de la décennie,

À l’avenir, le traitement de tels gisements de données nécessitera d’utiliser un calculateur plus grand, ou de mettre en réseau un nombre très élevé d’ordinateurs dédiés aux calculs. « Pour mener ces très grosses simulations, nous aurons le choix entre utiliser la force brutale, à savoir faire tourner l’algorithme sur un supercalculateur , ou être plus subtil, en remplaçant le supercalculateur par un « super-algorithme » » L’idée consiste à repenser la méthode sous un angle nouveau, permettant en quelque sorte de trouver un « raccourci mathématique » et ainsi de parvenir plus vite au résultat. 

À terme, ceci devrait aider les chercheurs en cosmologie à effectuer beaucoup plus facilement des calculs, depuis leurs propres ordinateurs personnels. Sans avoir à utiliser systématiquement de rares et coûteux supercalculateurs.

La partie la plus intéressante de ces résultats tient à la façon dont nous arrivons désormais à déterminer précisément la forme des zones de l’espace d’où se sont constitués, à l’origine, les halos de matière noire et les amas de galaxies. Cette possibilité est enthousiasmante dans la mesure où elle peut hypothétiquement améliorer notre compréhension des liens entre la matière noire et la matière visible, lesquels sont depuis longtemps une énigme en astrophysique. 

Référence

https://www.inria.fr/fr/univers-cosmologie-matiere-noire-mathematique-algorithmes