22/06/2024 Mobilisation dans le quantique français. Le programme Proqcima

Financé par le plan France 2030 https://www.economie.gouv.fr/france-2030, Proqcima est le programme par lequel le ministère des Armées finance des start-up du quantique pour un montant d’un demi-milliard d’euros. Le but est de les aider à développer un calculateur quantique universel, en vue d’une utilisation vers 2032. Les calculateurs quantiques actuels, dont les unités de calcul sont des qubits, sont encore extrêmement « bruyants ou bruités » et ne permettent pas de répondre à tous les besoins d’une informatique quantique professionnelle.

Pour mener à bien cette mission, l’Agence du numérique de défense (AND), https://www.defense.gouv.fr/and rattachée à la Direction générale de l’armement (DGA), a choisi d’engager cinq PME spécialisées dans le quantique pour une compétition sur huit ans.

Il s’agit de Alice&Bob, C12, Pasqal, Quandela et Quobly. Chacune mise sur une technologie différente pour encoder l’information quantique, qu’il s’agisse d’atomes neutres, de photons, de nanotubes de carbone ou de supraconducteurs.

D’où le choix d’une compétition par étapes, avec des points d’évaluation à 4 ans et 8 ans qui élimineront progressivement les entreprise les moins performantes. Dans quatre ans normalement, deux acteurs devront quitter le programme. Les restants auront encore quatre ans pour continuer à développer leur technologie. Et dans huit ans, il y en aura un ou deux qui passeront en industrialisation 

Le programme comportera deux grandes étapes : la première consistera à faire un ordinateur dit tolérant aux défauts, avec l’ambition d’obtenir des qubits logiques utilisables en pratique. D’ici 2032, si tout va bien, le ministère des Armées disposera de démonstrateurs.

Dans une seconde phase, dite « LSQ » (pour Large Squale Quantum), il faudra passer à des volumes de qubits logiques de 1 000, 10 000, 100 000 voire 1 million de qubits logiques pour faire des calculs hors de portée de ce qu’on peut imaginer aujourd’hui des calculateurs classiques . Sont visées, outre des applications strictement militaires restant confidentielles, des activités comme la cryptographie, en particulier pour déchiffrer des clés de chiffrement. Dans beaucoup de problèmes la seule façon d’être sûr d’avoir la bonne solution, c’est de tester toutes les solutions et de choisir celle qui obtient le meilleur résultat, ce qui prend énormément de temps.

En dehors des Armées, divers organismes nationaux de recherche seront intéressés, de même que de nombreuses entreprises du secteur privé. Ainsi le médical pour la recherche vaccinale, la finance ou la SNCF s’intéressent au quantique, dans l’optique de résoudre de nouveaux problèmes trop lourds pour des ordinateurs classiques.

De plus, le calculateur quantique ne remplacera jamais l’informatique actuelle. Ils ont chacun leurs forces et leurs faiblesses, et il faut leur apprendre à coopérer, dans la gestion courante comme dans la recherche de nouvelles solutions

Le rôle du ministère des Armées est d’essayer de faciliter la vie des start-up participantes, pour réussir dans un monde plus compétitif, où la France n’est pas seule.

Note

Ajoutons que le défi auquel doit faire face désormais la Défense ne se limite plus au Quantique. Il inclut le robot humanoide destiné à remplacer le plus souvent possible le militaire humain

22/06/2024 A l’intérieur de l’horizon des événements.

A l’intérieur d’un trou noir, tel que se les représente la cosmologie actuelle, l’univers se recourbe sur lui même juqu’à atteindre des densités inimaginables. La théorie de la relativité d’Einstein y devient inapplicable. Notre capacité de comprendre l’univers disparaît.

Mais ces effets ne se font sentir qu’à l’intérieur de l’horizon des événements du trou noir. Ce terme d’horizon des événements désigne   la frontière du trou noir à partir de laquelle la vitesse de libération atteint celle de la lumière. Autrement dit, pour franchir cette frontière et donc sortir du trou noir, il faudrait atteindre une vitesse supérieure à celle de la lumière, ce qui est impossible dans le cadre de la relativité générale.

Cet horizon des événements marque la frontière au delà de laquelle nous ne pouvons voir ce qui se passe à l’intérieur du trou noir. A l’inverse, elle marque la frontière au delà de laquelle les effets du trou noir, notamment l’imprédictabilité, cessent de nous concerner.

Ces caractères du trou noir en font une « singularité ».

Aujourd’hui certains théoriciens se demandent si de telles singularités ne pourraient pas se rencontrer dans notre univers, en dehors de toute référence à un trou noir. Ils sont incités à le faire dans le cadre des hypothèses découlant de la théorie de la gravité quantique. laquelle concerne le comportement des atomes et des particules.

Celles-ci changent la règle du jeu concernant la définition des singularités , selon Netta Engelhardt du MIT, théoricienne de la gravité quantique,, https://insidetrimeter.ca/fr/a-new-take-on-holography/).

Ce terme de gravité quantique désigne l’ambition actuelle visant à unifier la physique quantique et la physique classique, qui pour certains conduit à considérer que le monde classique émerge du monde quantique comme une projection holographique

https://insidetheperimeter.ca/fr/a-new-take-on-holography/

« Mais que sont exactement les singularités ? » demande Evita Verheijden de Harvard, fondatrice de la Black Hole initiative . »On ne comprend pas ce qu’elles désignent. On ne sait même pas comment les décrire ».

Certes, en 1965 le grand cosmologiste Roger Penrose avait montré que celles-ci sont des conséquences obligées de la relativité générale, se produisant chaque fois que la matière s’effondre en un trou noir d’une densité presque infinie, dont rien ne peut s’échapper, même la lumière.

Ceci est connu comme la « weak cosmic censorship hypothesis »  https://en.wikipedia.org/wiki/Cosmic_censorship_hypothesis suggérant que la nature interdit les singularités trop visibles ou nues. Le terme de censorship convient aux physiciens puisque le concept de singularités nues contredit le principe selon lequel la science peut essayer de prévoir ce qui arrive.

Cependant récemment des théoriciens ont démontré que des singularités nues pouvaient apparaître en conséquence de la relativité générale et des hypothèses sur la gravité. Ainsi dans la théorie des cordes, des « cordes noires » instables (black strings) comparables aux trous noirs pourraient apparaître et s’étendre dans l’univers en laissant derrière elles des singularités nues. D’autres théoriciens suggèrent que celles-ci peuvent aussi apparaître lorsque deux trous noirs entrent en collision.

Cependant, lorsque l’on regarde de nuit un ciel obscur, on n’aperçoit pas ces solidarités nues. Cela ne veut évidemment pas dire qu’elles n’existent pas. En 2023, Engelhardt et ses collègues du MIT ont essayé de comprendre les raisons de cette censure cosmique. Ils ont proposé une raison originale  (voir référence ci-dessous)

Plutôt que rechercher des preuves de singularités nues dans une théorie classique de l’espace temps, ils ont préféré situer cette recherche dans le cadre encore en développement de la gravité quantique, laquelle vise à réaliser une synthèse entre la physique esinsténienne et la mécanique quantique. ;

Nous n’en dirons pas plus ici, renvoyant le lecteur à l’article du New Scientist, 15 juin 2024 Inside the Event Horizon p.32


Voir Référence ci-dessous
https://doi.org/10.48550/arXiv.2402.03425

[Submitted on 5 Feb 2024 (v1), last revised 19 Mar 2024 (this version, v2)]

Cryptographic Censorship

Netta EngelhardtÅsmund FolkestadAdam LevineEvita VerheijdenLisa Yang

We formulate and take two large strides towards proving a quantum version of the weak cosmic censorship conjecture. We first prove « Cryptographic Censorship »: a theorem showing that when the time evolution operator of a holographic CFT is approximately pseudorandom (or Haar random) on some code subspace, then there must be an event horizon in the corresponding bulk dual. This result provides a general condition that guarantees (in finite time) event horizon formation, with minimal assumptions about the global spacetime structure. Our theorem relies on an extension of a recent quantum learning no-go theorem and is proved using new techniques of pseudorandom measure concentration. To apply this result to cosmic censorship, we separate singularities into classical, semi-Planckian, and Planckian types. We illustrate that classical and semi-Planckian singularities are compatible with approximately pseudorandom CFT time evolution; thus, if such singularities are indeed approximately pseudorandom, by Cryptographic Censorship, they cannot exist in the absence of event horizons. This result provides a sufficient condition guaranteeing that seminal holographic results on quantum chaos and thermalization, whose general applicability relies on typicality of horizons, will not be invalidated by the formation of naked singularities in AdS/CFT.

21/06/2024 L ‘Allemagne est dorénavant dans la course à la fusion nucléaire




Si l’Allemagne a renoncé à la fission nucléaire en ayant 
fermé début 2023 ses derniers réacteurs nucléaires, elle n’a pas complétement oublié l’atome. Le ministère fédéral de l’Éducation et de la Recherche (BMBF) soutient depuis longtemps la recherche sur la fusion au Max Planck Institute for Plasma Physics (IPP) à Garching et Greifswald, au Karlsruhe Institute of Technology (KIT) et au Research Center Jülich (FZJ).FZJ). « Ce financement institutionnel est complété par un deuxième pilier avec le nouveau programme de financement de projets », a déclaré le ministère.

Berlin est bien décidé à passer à la vitesse supérieure. « L’objectif du financement des projets est de faire avancer les technologies, les composants et les matériaux nécessaires à une centrale électrique à fusion dans une première phase d’ici le début des années 2030. Dans la deuxième phase, l’accent est mis sur l’intégration dans une conception de centrale électrique. Le programme de financement est ouvert à la technologie et aborde à la fois la technologie de confinement magnétique et la fusion laser », explique le gouvernement.

Pour réaliser la construction d’une centrale électrique à fusion le plus rapidement possible, le programme est essentiellement basé sur la recherche collaborative orientée vers l’application sous forme de partenariat public-privé. Les projets sur des sous-technologies spécifiques doivent être menés conjointement par des institutions de recherche, des universités et l’industrie. Le ministère a déclaré que cela permet de prendre en compte dès le début les nouvelles découvertes de la recherche et de transférer les connaissances à l’industrie nationale pour une utilisation ultérieure.

« La crise énergétique nous a montré à quel point un approvisionnement énergétique propre, fiable et abordable est important », a déclaré la ministre Bettina Stark-Watzinger. « Et la fusion est une énorme opportunité pour résoudre tous nos problèmes énergétiques. Grâce à son excellente infrastructure de recherche et à une industrie forte, l’Allemagne offre d’excellentes conditions pour la construction de centrales électriques à fusion »,

« C’est là que nous intervenons avec notre nouveau programme de financement – nommé Fusion 2040 et nous voulons ouvrir la voie à la première centrale électrique à fusion en Allemagne. Nous voulons construire un écosystème de fusion composé d’industrie, de start-ups et de science afin qu’une centrale électrique à fusion en Allemagne devienne une réalité le plus rapidement possible ».

« La course mondiale est lancée. Je voudrais que nous en Allemagne soyons parmi les premiers à construire une centrale électrique à fusion. Nous ne devons pas manquer cette énorme opportunité, surtout en ce qui concerne la croissance et la prospérité », a déclaré la ministre.

En septembre de l’année dernière, Stark-Watzinger a annoncé que l’Allemagne augmenterait considérablement le financement de la recherche sur la fusion avec un montant supplémentaire de 370 millions d’euros au cours des cinq prochaines années. Avec les fonds déjà réservés aux institutions de recherche, le ministère fournira plus d’un milliard d’euros pour la recherche sur la fusion d’ici 2028.

La fusion en France

Ceci dit l’Allemagne aura du mal à rattraper son retard.

En France, le  Commissariat à l’énergie atomique (CEA) participe à l’essor de la technologie, indique Phys.org. L’institut de recherche exploite le réacteur à fusion West (autrefois nommé Tore Supra) dans le sud de la France. Situé à Cadarache, tout près du projet ITER, le réacteur possède la particularité d’avoir une couche interne recouverte de  tungstène.

Durant six minutes, le réacteur West a entretenu un plasma contenant des atomes d’hydrogène (les isotopes deutérium et tritium) afin de former des atomes d’hélium afin de récupérer l’énergie de cette réaction. Il s’agit d’une durée record pour une chauffe à 50 millions de degrés pour l’infrastructure.

Surtout, le réacteur de type tokamak a bien géré les 1,15 gigajoules d’énergie injectée. La structure a ainsi généré 15 % d’énergie supplémentaire grâce à un plasma deux fois plus dense qu’au cours des précédents essais. C’est bien la combinaison d’une température élevée et d’une forte densité qui garantit la création d’une source d’énergie fiable et durable

Cependant, le revêtement du réacteur à fusion West en tungstène peut s’avérer extrêmement contraignant. Si ce revêtement présente l’avantage de laisser glisser le plasma, il peut également ruiner la création d’énergie. Car il suffirait qu’un fragment minime de tungstène se retrouve dans le plasma pour le refroidir fortement, en engendrant une altération de la réaction.

De plus si un revêtement au carbone est beaucoup plus facile à dompter au sein d’un réacteur tokamak, cette matière peut retenir le combustible. Cela représente un trop grand risque de voir les essais de longue durée devenir infructueux, notamment pour des modèles de grande taille.

Or, le réacteur West sert de base expérimentale pour le projet pilote Iter, censé devenir le plus grand tokamak au monde. Cette installation doit entrer en service en 2030 et aura pour objectif de démontrer la faisabilité de compter sur la fusion nucléaire comme source d’énergie propre, constante et durable.

21/06/2024 Macron démission

L’ex-Premier ministre Édouard Philippe a affirmé le jeudi 20 juin 2024 qu’Emmanuel Macron avait « tué la majorité présidentielle » en décidant de dissoudre l’Assemblée nationale, et qu’il faudrait donc « créer une nouvelle majorité ». Qu’en termes polies ces choses là sont dites.

Dans l’actuelle majorité, les propos relatés par les médias sont plus crus. « Macron est fou » « Qu’est-ce qui lui a pris ? Trouvait-il que l’on ne parlait pas assez de lui ? » « Après avoir prétendu que le Front (rassemblement) national n’offrait aucune solution pour la France, il lui ouvre grande la porte ».

Au sein de l’Union européenne la même incompréhension régné. La France qui était jusqu’ici considérée comme la locomotive de l’Europe, se retrouve dans le fossé, et l’Union avec elle. Le Chancelier allemand a du mal à s’en remettre. Quant à Victor Orban, il jubile.

Il est de fait qu’aujourd’hui il apparaît très probable que les prochaines élections à l’Assemblée nationale française ne donneront aucune majorité de gouvernement. L’actuelle majorité gouvernementale se retrouvera divisée en trois sous-ensemble minoritaires incapables de gouverner seuls mais aussi incapables de s’entendre. La minorité de gauche, dite Nouveau Front Populaire, se verra obligée pour survivre, de soutenir le sulfureux Jean-Luc Mélenchon, ce que les autres groupes, espérons-le , n’accepteront jamais.

Quant au Rassemblement National, son président l’intelligent Jordan Bardella vient d’annoncer qu’il ne gouvernera jamais sans être assuré d’une majorité absolue, ce qui paraît fort peu probable.

Or si Macron dissolvait à nouveau la future assemblée nationale, il apparaîtrait comme un fou dangereux ou comme un dictateur.

Nous avons tout lieu de penser que les actuels conseillers de l’Elysée auraient fortement déconseillé à Macron cette décision suicidaire, si seulement il les avait consultés. Mais Monsieur est assez grand pour savoir seul ce qui est bon pour la France

20/06/2024 Qu’adviendrait il si la Russie ne pouvait pas l’emporter en Ukraine?

Sur le front ukrainien, la situation semble de nouveau bloquée. Après l’échec de la contre-offensive de Kiev à l’été 2023, puis l’enlisement et la nouvelle offensive russe dans la région de Kharkiv (nord-est de l’Ukraine), il semblerait que le conflit soit reparti pour un nouveau statu quo.

Alors que la Russie espérait l’épuisement de son adversaire en hommes et en matériel, le Congrès des États-Unis a voté le retour d’une aide militaire de 61 milliards de dollars, le 20 avril. De plus, le président Volodymyr Zelensky a abaissé l’âge de la conscription de 27 à 25 ans et le Parlement ukrainien a validé le fait que l’armée puisse avoir recours, sous certaines conditions, à des prisonniers.

Au même moment, le président russe Vladimir Poutine procédait au remaniement de l’establishment politico-militaire. Le 12 mai, le ministre de la Défense Sergueï Choïgou a été remplacé par Andreï Belooussov et muté au poste de secrétaire du Conseil de sécurité. . Nikolaï Patrouchev (ancien secrétaire du Conseil de sécurité de Russie) et Alexeï Dioumine (nouveau secrétaire du Conseil d’État) sont devenus les conseillers particuliers du président. Pour sa part Valeri Guerassimov reste le chef d’état-major des forces armées russes.

Bien que le budget consacré à la défense ne cesse d’augmenter, tous attendent une réforme fiscale visant à accroître les recettes de l’État russe de façon à financer l’effort de guerre. Le message est clair: pour gagner sur le temps long, il faut préparer la Russie à l’économie de guerre.

Or, cette guerre, Vladimir Poutine ne peut la gagner. Il n’en a pas les moyens économiques, mais il n’en a pas davantage les moyens militaires.

Sur le plan humain d’abord. Si les estimations varient beaucoup, des chiffres oscillant entre 300.000 et 450.000 soldats russes morts ou blessés (dont au moins 50.000 soldats tués et identifiés) depuis le début du conflit sont régulièrement avancés. De plus, selon le ministère de la Défense britannique, le chiffre des pertes tendrait à augmenter. Il est maintenant estimé à 1.000 à 1.200 soldats russes morts ou blessés par jour, la moyenne la plus élevée depuis le début de la guerre en février 2022, d’après le renseignement britannique.

Quant aux pertes matérielles de la Russie, elles sont toujours aussi difficiles à évaluer. Également selon le ministère de la Défense britannique, dans des estimations rendues publiques le 27 avril, l’armée russe aurait perdu au moins 10.000 véhicules blindés, dont le chiffre difficilement imaginable de près de 3.000 chars de combat (à peu près quinze fois la totalité du parc français!), 109 avions, 136 hélicoptères, 346 drones, 23 navires de guerre de toutes classes et plus de 1.500 pièces d’artillerie de tous types.

Au plan financier, par rapport à 2021, la Russie aura multiplié par trois ses dépenses militaires. L’estimation du budget consacré à la défense et à la sécurité était de 3,9% du produit intérieur brut (PIB) en 2023, contre 2,7% en 2021. Il l’est aux alentours de 6% en 2024, ce qui représenterait entre 30 et 40% des dépenses de l’État.

Ceci dit, la Russie est un pays pauvre. Le produit national brut (PNB) russe correspond à peu près aux PNB belge et néerlandais combinés, pour une population de près de 146 millions de personnes contre 30 millions pour la Belgique et les Pays-Bas réunis. Son économie dépend avant tout de la production de gaz et de pétrole. Si les sanctions occidentales ne l’on pas trop affectée, en raison notamment de la propension des acteurs non occidentaux ou même occidentaux à les contourner (AllemagneGrèce, etc.), elles l’ont tout de même beaucoup gênée.

D’abord, il y a eu le pari manqué du Kremlin qui ne pensait pas que les gouvernements européens auraient le «courage» de se passer du gaz russe. En conséquence, le prix du gaz a beaucoup baissé en 2023 par rapport aux hausses de 2022 (40% du gaz européen venait de Russie avant la guerre, contre 15% fin 2023). Toutefois, le prix du baril de brut de l’Oural est resté à des niveaux très élevés (il n’est jamais descendu en dessous de 55 dollars le baril). Mais le résultat, c’est que l’excédent commercial de la Russie serait de 50 milliards de dollars en 2023, contre 238 milliards en 2022. L’inflation vient de passer les 8% en mai, le taux directeur de la Banque centrale de Russie est à 16%, ce qui nuit naturellement à l’investissement du secteur privé.

NB. Rappelons que la France, grâce à l’énergie nucléaire, a pu traverser cette période à peu près convenablement.

Le Kremlin était tellement convaincu de la victoire au début de son «opération militaire spéciale» qu’il avait engagé ses matériels les plus modernes et ses meilleures troupes. Le but était non seulement de décapiter le gouvernement de Kiev et de mater l’Ukraine, mais ensuite de s’en prendre à la Moldavie, à la Géorgie et aux pays baltes, Il fallait aussi de démontrer au monde que la Russie était de retour parmi les plus grandes puissances.

Les conséquences de cette monumentale erreur furent des pertes énormes en matériels modernes, des tanks T-72B3MT-80BVM et T-90, par exemple, aux véhicules blindés dernier cri. En conséquence, depuis 2022, le ministère de la Défense russe aurait mobilisé 40% des tanks et véhicules blindés de transport de troupes soviétiques, qui attendaient dans la principale base d’équipements située en Bouriatie (Extrême-Orient russe).

De plus, selon les estimations de février 2024 du Royal United Services Institute (RUSI), groupe de réflexion britannique spécialisé dans la défense et la sécurité, environ 80% de la production mensuelle d’équipements (chars, blindés, etc.) seraient en réalité des véhicules datant de l’ère soviétique qui auraient été modernisés et réactivés.

Quant aux missiles, la Russie reste dépendante des composants électroniques occidentaux, d’où la multiplication des affaires de contrebande. Même la production de munitions souffre de carences. Toujours selon le RUSI, l’industrie d’armement russe peine à remplir les cahiers des charges. En attendant, le ministère de la Défense doit de nouveau puiser dans les stocks de l’ancienne URSS estimés à trois millions d’obus. En résumé, les stocks soviétiques s’épuisent plus rapidement que la capacité de l’appareil industriel à les remplacer avec des matériels modernes. C’est donc une situation intenable sur le temps long.

Qu’en est-il de l’option de la re-soviétisation du pays. Avec un appareil de production qui doit être modernisé, des problèmes de main-d’œuvre et pas de capacité d’endettement, Poutine  pourrait être tenté de renationaliser complètement l’économie russe. À défaut de retrouver la grandeur de l’Union soviétique, il pourrait ressusciter son modèle économique actuellement moribond.

Qu’en serait-il de l’emploi du nucléaire tactique ? Certains y pensent. Mais avec les vents d’ouest dominant dans cette partie du monde, les retombées sur le territoire russe lui-même ne seraient pas acceptées.

Source

https://www.slate.fr/story/267269/guerre-ukraine-grand-secret-vladimir-poutine-cacher-realite-pertes-armes-difficultes-economie-sanctions-occident-petrole-strategie-militaire

19/06/2024 Fiche de lecture Antimatière et gravité. Vers un nouveau modèle cosmologique

par Gabriel Chardin( CNRS Editions)

Présentation par l’éditeur:

Et si l’antimatière renversait le modèle standard de l’Univers?

Depuis plus de vingt ans, le cosmologiste français Gabriel Chardin, médaille d’argent du Centre national de la recherche scientifique (CNRS), poursuit une idée renversante, celle d’un modèle alternatif basé sur l’antimatière pour expliquer notre Univers. Il dresse la liste des arguments scientifiques pour le défendre dans son dernier ouvrage paru en avril 2024.

Gabriel Chardin propose une alternative au modèle standard jugé insatisfaisant. Dans son univers, sans matière ni énergie noires, l’antimatière, de masse négative, est aux commandes. Des expériences en cours au CERN pourraient valider (ou non) cette hypothèse iconoclaste.

La cosmologie est l’étude de l’Univers dans son ensemble, sa structure, ses propriétés, son origine et son évolution. Elle s’intéresse à ses composants les plus infimes comme à ses plus colossales structures, de sa naissance, il y a environ 14 milliards d’années, à son futur le plus lointain.

Pour parvenir à penser un objet aussi considérable, le physicien construit des modèles. Or, le modèle standard actuel est en crise : il ne rend compte du mouvement des galaxies ou de la vitesse d’expansion de l’Univers qu’en supposant l’existence d’une matière noire et d’une énergie noire mystérieuses, toujours non identifiées.

Et si aux premiers instants du Big Bang, l’univers contenait nécessairement autant de matière que d’antimatière, on ignore où est passée cette dernière, que l’on n’observe aujourd’hui que très brièvement et en minuscules quantités dans le rayonnement cosmique ou nos accélérateurs de particules.

Grâce à une seule hypothèse aussi simple qu’iconoclaste, Gabriel Chardin propose un nouveau modèle, l’univers de Dirac-Milne : et si l’antimatière avait une masse négative, et repoussait tout, matière comme antimatière ? Cette hypothèse posée, il n’est plus besoin d’imaginer l’existence de matière ou d’énergie noires et l’antimatière n’aurait pas disparu mais se trouverait, extrêmement diluée, sous la forme de grands nuages entourant les galaxies. Ce modèle est actuellement testé au Cern (organisation européenne pour la recherche nucléaire) dans plusieurs expériences, où l’on tente de « peser » des atomes d’antihydrogène.

Un voyage dans la fabrique d’une théorie en gestation.

Pour en savoir plus sur le modèle de Dirac Milne
https://theses.hal.science/tel-00442948

Étude de la concordance d’un univers de Dirac-Milne symétrique matière-antimatière
Aurélien Benoit-Lévy 
2009

Cette thèse s’intéresse à divers aspects de l’univers de Dirac-Milne, un modèle cosmologique dans lequel matière et antimatière sont présentes en quantités égales et où l’on suppose, comme pourrait le suggérer la relativité générale à travers les propriétés des solutions de Kerr-Newman, que l’antimatière possède une masse gravitationnelle active négative.

Ces hypothèses permettent de s’affranchir de la nécessité d’introduire Inflation, Énergie Noire et Matière Noire, dont les mises en évidences expérimentales et les motivations théoriques font parfois défaut. La présence en quantités égales de matière de masse positive et d’antimatière de masse négative impose une évolution du facteur d’expansion linéaire par rapport au temps.

Après avoir rappelé les concepts basiques de la cosmologie, certaines implications de cette évolution linéaire sont étudiées. L’étude complète de la nucléosynthèse primordiale dans le cadre de ce modèle alternatif permet de montrer qu’une production primordiale de deutérium est rendue possible par la présence d’annihilations résiduelles entre matière et antimatière à des époques précédant la recombinaison. Toutefois, ce mécanisme de production secondaire conduit à une surproduction d’hélium-3, potentiellement incompatible avec les observations.

Bien que l’univers de Dirac-Milne ne présente pas d’accélération de l’expansion aux époques récentes, il est montré que ce modèle satisfait raisonnablement bien au test cosmologique des supernovae de type Ia. De même, l’échelle angulaire du premier pic acoustique des fluctuations de température du fond diffus cosmologique apparaît naturellement à l’échelle du degré. Même si l’étude complète du spectre de ces fluctuations et de la cohérence de la notion de masse négative reste encore à approfondir, ce travail pose les bases d’un modèle cosmologique original et potentiellement capable de donner une autre description de notre Univers.

Le modèle cosmologique ΛCDM a toujours de la concurrence, et heureusement… Les plus fidèles d’entre vous se souviendront peut-être d’un billet que je vous avais proposé en février 2012 et que j’avais intitulé : « Symétrie Matière/Anti-Matière et masse négative, une clé pour l’élégance ? » : il s’agissait d’un article des physiciens français Aurélien Benoit-Lévy et Gabriel Chardin qui présentait un nouveau modèle d’Univers hyper élégant, où coexistent matière et antimatière à quantité égale et dans lequel les particules d’antimatière antigravitent et se repoussent également entre elles, créant des effets étonnants à même d’expliquer des choses incomprises comme l’énergie noire (entre autre). Ce modèle dit de Dirac-Milne a continué à être développé par Chardin et d’autres collaborateurs avec plusieurs articles parus en 2018 et 2020, et cet été, ils ont publié dans Astronomy&Astrophysics une nouvelle étude assez bluffante, dans laquelle Chardin et ses collaborateurs démontrent que leur modèle d’Univers produit naturellement des courbes de rotation galactiques plates, ce qui avait mené initialement au concept de matière noire… Et ils retrouvent un comportement de type MOND dans les galaxies.

Le modèle cosmologique de Dirac-Milne repose seulement sur deux hypothèses qui peuvent paraitre à la fois très simples et très élégantes : 

1) matière et antimatière sont symétriques : il en existe autant l’une que l’autre dans l’Univers,

2) l’antimatière possède une masse gravitationnelle active négative : il y a répulsion entre matière et antimatière et aussi entre antimatière et antimatière, comme il y a attraction gravitationnelle entre matière et matière.

La deuxième hypothèse viole complètement le principe d’équivalence faible qui fonde la Relativité Générale, mais il faut bien un peu d’audace parfois.

Le modèle porte le nom d’Edward Milne, car c’est ce cosmologiste britannique qui avait introduit l’idée d’un univers vide de masse en 1933 comme une alternative à la vision de la Relativité Générale einsteinienne (l’Univers d’Einstein-de Sitter). Mettre autant de masse positive que de masse négative revient en effet à grande échelle à avoir un univers vide. Mais cet univers de Dirac-Milne reste régit par une métrique de type Friedman-Lemaître-Robertson-Walker comme le modèle standard actuel, mais avec des paramètres différents. Le fait important de cette cosmologie est que le facteur d’échelle (que l’on note a(t)) est linéaire et cette linéarité reste identique tout au long de l’évolution de l’expansion,  mais cette expansion est du coup constante : elle n’est ni accélérée, ni ralentie.

Dans leur article de 2012, les chercheurs montraient que leur modèle était compatible avec les observations de luminosité des supernovas Ia de 1998 qui avaient conduit au concept d’expansion accélérée, et donc d’énergie noire. L’Univers de Dirac-Milne n’a pas besoin d’énergie noire.

Une autre implication très importante de ce facteur d’échelle linéaire a(t) ~t apparaissant dans l’univers de Dirac-Milne est qu’il n’y a plus de problème d’horizon : chaque point de l’espace a pu être en relation causale avec un autre point de l’espace dans les temps anciens, il n’y a donc plus aucun besoin de recourir à l’Inflation!. L’inflation, introduite au début des années 1980 permettait de résoudre de manière ad hoc l’apparente impossibilité que des directions opposées de l’espace aient pu être en contact causal dans le passé, ce qui est observé.

Outre le fait d’évacuer le problème de l’énergie noire et de l’inflation, l’élégance du modèle de Dirac-Milne vient surtout du fait qu’il est fondé sur une totale symétrie entre matière et antimatière, et il faut rappeler qu’actuellement, on cherche toujours des pistes dans tous les sens pour expliquer pourquoi l’Univers (dans la vision du modèle standard), ne contient que de la matière alors que l’on sait que le Big Bang a dû produire quasi autant d’antimatière…  

On doit alors se demander où se trouve cette antimatière dans un Univers de Dirac-Milne ? Et la réponse est directement liée aux propriétés de l’antimatière qui fondent le modèle. On l’a dit, les particules d’antimatière ayant une masse gravitationnelle active négative pour Chardin et ses collaborateurs, les particules de matière et d’antimatière se repoussent. Mais à l’opposé des particules de matière qui s’attirent entre elles, les particules d’antimatière se repoussent également entre elles. Un antiproton et un antiélectron se repousseront par la gravitation mais s’attireront par la force électromagnétique. La force électromagnétique étant énormément plus intense que la gravitation, des anti-atomes vont pouvoir se former, typiquement de l’antihydrogène et de l’antihélium. Mais ces anti-atomes électriquement neutres seront donc repoussés par les atomes de matière et par les autres anti-atomes.

Les physiciens ont montré ce qui se passe lors de la formation des structures dans l’Univers primordial, dont la chronologie se retrouve modifiée dans le modèle de D-M par rapport à ΛCDM. La transition du plasma quarks-gluons dure 1 jour dans D-M contre 10 µs dans le modèle standard, la nucléosynthèse primordiale dure 35 ans au lieu des 3 minutes de ΛCDM, et la recombinaison entre rayonnement et matière (l’émission du fond diffus cosmologique) a lieu au bout de 14 millions d’années, contre 380 000 ans pour le modèle standard. Mais il faut noter que l’âge de l’Univers de Dirac-Milne reste heureusement très proche de celui déduit de ΛCDM : à peine 100 millions d’années de plus, à 13,9 milliards d’années avec une constante de Hubble-Lemaître valant 70 km/s/Mpc, une paille. 

Mais revenons aux effets des caractéristiques de l’antimatière sur la formation des structures galactiques, car c’est là l’origine de ce que révèle la nouvelle étude de cet été sur la rotation des galaxies. Comme les atomes d’antihydrogène sont repoussés par les atomes d’hydrogène, mais aussi par les autres atomes d’antihydrogène, non seulement ils ne se retrouvent jamais en contact avec la matière, mais de plus, contrairement à la matière « ordinaire » qui s’agglomère et se condense sous l’effet de la gravitation pour former des nuages puis des étoiles puis des galaxies et des amas de galaxies, l’antihydrogène et l’antihélium, eux, ne se condensent jamais en nuages denses et ces atomes sont en perpétuel mouvement, comme un fluide qui circule autour des régions de matière.

Un effet très important qu’ont montré Chardin et ses collaborateurs grâce à des calculs et des simulations, c’est que les régions où se trouverait de l’antimatière et les galaxies faites de matière ne peuvent jamais entrer en contact. Et heureusement. La raison à ça est qu’il se formerait naturellement, depuis très tôt dans l’histoire cosmique, des zones de déplétion autour des galaxies et des amas de galaxies : des no man’s land où il n’y a ni matière ni antimatière, qui apparaissent du fait de la répulsion engendrée entre ces deux composantes de l’Univers de Dirac-Milne. Et ces zones de déplétion sont très grandes ! Puisque matière et antimatière dans ce modèle sont en quantité égale, mais que l’antimatière ne peut pas se concentrer comme le fait la matière dans les galaxies, l’antimatière occupe en moyenne la moitié du volume de l’Univers, mais la matière, elle, est très concentrée dans les galaxies, elle occupe donc un volume beaucoup plus petit. La différence entre les deux correspond à ces zones de déplétion où il n’y aurait que du rayonnement en transit.

L’article qui est paru le 17 août dernier développe les effets dynamiques qui sont induits par la présence autour d’une galaxie de cette grande zone de déplétion qui est elle-même entourée d’une présence diffuse d’antimatière répulsive, dont la masse totale est égale et opposée à celle de la galaxie en rotation. Grâce à un logiciel de simulation, Chardin et ses collaborateurs regardent à quelle vitesse tourne la galaxie en fonction de la distance du centre de la galaxie. Ils simulent pour cela des cubes d’Univers comportant en leur centre une galaxie, entourée d’une zone de déplétion sphérique entourée par l’antimatière diffuse. 

Le résultat est surprenant. Au delà de 0,5 fois le rayon de la zone de déplétion, la courbe s’aplatit, la dérivée de la courbe s’annule exactement à r= 0,79 fois le rayon de la zone de déplétion, ce qui correspond à 2,6 fois le rayon du viriel de la galaxie, la vitesse de rotation reste donc constante au-delà. Exactement ce qui est observé dans les galaxies réelles, cette fameuse anomalie détectée au milieu des années 60 par Vera Rubin puis d’autres et qui a affermi l’idée d’une matière invisible en forme de halo dans les galaxies. (Précision : ce qu’on appelle le « rayon du viriel » d’une galaxie, c’est le rayon maximum d’équilibre dynamique, issu du théorème du viriel).

Chardin et ses collaborateurs montrent ainsi que la masse dérivée des courbes de rotation, si on suppose une gravité strictement newtonienne sans antimatière ni déplétion, est systématiquement surestimée par rapport à la masse réellement présente, comme si il y avait un gros halo de matière noire… Le modèle D-M présente aussi un comportement similaire au modèle phénoménologique MOND (MOdified Newtonia Dynamics), caractérisé par une apparente gravité de surface qui s’ajouterait par rapport au cas newtonien classique, mais qui serait ici dûe à la présence des nuages d’antimatière répulsive, faisant apparaître une polarisation gravitationnelle. En comparaison, MOND reste une approche phénoménologique plus qu’un modèle physique car elle ne donne pas d’explication physique à l’ajout d’un terme dans la formule.

Chardin et ses collègues n’en restent pas là : il font bien sûr le calcul de la valeur de cette accélération additionnelle telle qu’elle apparait : ils trouvent une valeur comprise entre 4 10-11 m.s-2 et 2 10-10 m.s-2 en considérant l’incertitude sur la taille des domaines matière-antimatière initiaux. Or les équations de MOND donnent une valeur de l’accélération caractéristique a0 qui vaut 2 10-10 m s-2… Les valeurs sont donc très très très proches.

Puisque l’Univers de Dirac-Milne avec ses régions de matière et d’antimatière évolue dans le temps, tout comme l’Univers ΛCDM du reste, Chardin et son équipe ont aussi regardé comment se comporterait l’accélération additionnelle induite dans leur modèle en fonction du redshift. Ils ont utilisé pour cela ce qu’ils avaient déterminé en 2020 sur l’évolution de la formation des grandes structures dans le cadre de leur modèle et ont refait tourner des simulations pour différents redshifts

Alors que pour la phénoménologie MOND, l’accélération a0 serait une constante universelle, ce que voient les physiciens français, italien et américain dans le cadre de Dirac-Milne, c’est que l’accélération additionnelle varie en fonction du redshift. Elle décroît de manière continue. Pour les chercheurs, cela reflèterait le fait que la formation hiérarchique des structures à grande échelle a désormais pris fin dans l’Univers de Dirac-Milne, mais l’expansion adiabatique, elle, se poursuit. C’est en tous cas une différence majeure du modèle de D-M avec MOND. 

Chardin et ses collaborateurs obtiennent un autre résultat tout aussi bluffant : ils tracent comment se répartit la vitesse de rotation maximale des galaxies en fonction de la masse qu’ils leur donnent dans leurs simulation, vitesse en abscisse et masse en ordonnée (la relation de Tully-Fisher). Vous devinez sans doute la suite : comme ce qui est observé aujourd’hui dans les galaxies (et quasi impossible à expliquer avec une matière noire non baryonique froide), et comme ce que prédit MOND, le modèle Dirac-Milne produit lui aussi une belle relation de Tully-Fisher en loi de puissance entre la masse et la vitesse de rotation maximale des galaxies : m = Vα . Le modèle D-M donne une valeur proche de 3 pour le paramètre α, alors que MOND prédit une valeur égale à 4, et que la valeur moyenne qui est observée vaut 3.85±0.09 (valeur publiée en 2019)…

Cette étude a été faite sur des cas assez simplistes représentant des volumes d’univers restreints. Chardin et son équipe planifient déjà de réaliser un traitement plus réaliste de la formation des structures en incluant l’hydrodynamique et la rétroaction dans leurs simulations, ce qui devrait leur permettre d’étudier plus finement le relation de Tully-Fisher. Ils annoncent en conclusion qu’ils veulent aussi étudier de plus grands volumes, s’étendant au-delà de l’échelle d’homogénéité (200 Mpc) prédite par le modèle Dirac-Milne, et observée dans notre Univers. De telles simulations à grande échelle constituent un défi car les « domaines » de matière et d’antimatière, qui initient la formation de structures plus grandes au moment du découplage, sont d’une extension géométrique limitée (de l’ordre de 100 parsec à z = 1080).  Cela nécessitera une très haute résolution par rapport aux simulations cosmologiques habituelles. Les chercheurs pensent qu’au delà de tester la robustesse du modèle de Dirac-Milne, ces simulations à des échelles supérieures à quelques centaines de Mpc pourraient aussi permettre de tester les déviations entre mesures locales et à grande échelle de la constante de Hubble-Lemaître  H0, une question d’un intérêt presqu’autant primordial que de changer de modèle cosmologique pour abandonner énergie noire, matière noire, inflation, et retrouver l’antimatière…

Il faut mentionner pour finir que l’idée d’une masse négative et d’une antigravitation est prise très au sérieux par les physiciens depuis de nombreuses décennies. Plusieurs expériences sont toujours financées au CERN pour mesurer pour la première fois comment se comportent des atomes d’antihydrogène dans le champ gravitationnel terrestre : GBAR, AeGIS et ALPHA. Ces trois expériences sont horriblement compliquées à mettre en œuvre. Elles utilisent chacune des techniques différentes et ont récemment été raccordées au nouveau synchrotron ELENA du CERN , qui permet de produire des antiprotons de très basse énergie. On peut garder espoir d’apprendre dans quelques temps un résultat révolutionnaire, ce qui donnerait au modèle cosmologique de Dirac-Milne une aura inimaginable.

Source

MOND-like behavior in the Dirac–Milne universe

Gabriel Chardin, Yohan Dubois, Giovanni Manfredi, Bruce Miller and Clément Stahl

Astronomy&Astrophysics Volume 652, (17 August 2021)

https://doi.org/10.1051/0004-6361/202140575

19/06/2024 Le Wingman, drone furtif d’Airbus

Alors que de plus en plus d’armées de l’air dans le monde font appel à des drones de toutes tailles, souvent fabriqués avec des matériels bon marché, il était inquiétant de ne pas entendre parler de projets européens dans ce domaine.

Ce vide est désormais comblé. L’avionneur franco-européens Airbus vient de dévoiler le concept du futur drone furtif Wingman au salon aérospatial ILA à Berlin

https://www.berlin.de/fr/evenements/2303382-3000868-ila-berlin-salon-de-laeronautique-de-ber.fr.html.

Le chancelier allemand a pu inspecter un modèle à taille réelle du drone qui équipera peut-être dès la fin de la décennie la Luftwaffe, l’armée de l’air allemande.. Le Wingman mesure 11,88 mètres de large et 15,54 mètres de long et il dispose de deux baies d’armement internes (emplacement pour mitrailleuses ou canons).

Ce drone sera propulsé par le turboréacteur Eurojet EJ200, un turboréacteur déjà en service sur l’Eurofighter. Cependant, le modèle présenté au salon dispose d’une ouverture d’échappement en forme de diamant permettant de masquer une partie du réacteur et d’améliorer la discrétion de l’appareil,

En fait, Airbus s’apprête à révolutionner le domaine de l’aviation militaire avec cette présentation de son concept de Wingman. Ce système innovant propose une approche inédite en intégrant des drones de combat aux flottes aériennes existantes, offrant ainsi des capacités accrues tout en minimisant les risques pour les pilotes.

Le concept de Wingman chez Airbus n’est pas un simple drone ; il s’agit d’une plateforme avancée qui étend les capacités des avions de combat pilotés, tels que l’Eurofighter. Ce drone de type combattant sera commandé par un pilote depuis un avion de combat, prenant en charge des missions à haut risque qui seraient autrement dangereuses pour les équipages humains.

Le Wingman d’Airbus est conçu pour être furtif, intégrant une gamme complète d’armements, de capteurs avancés, et des solutions de connectivité et de coopération. Ce modèle exposé n’incorpore pas seulement les dernières avancées technologiques, mais établit également les exigences de conception pour les futures générations du Wingman.

19/06/2024 L’ éventuelle masse des photons

La littérature scientifique décrit les photons comme des particules sans masse. Cette donnée joue un rôle déterminant dans la compréhension des mécanismes de l’Univers. En effet, tout indique que les photons traversent le vide de l’espace à une vitesse constante, sans jamais accélérer ni ralentir tant qu’un obstacle ne se dresse pas sur leur route.

En fait la science actuelle est incapable de déterminer la masse d’un photon.

Une grande partie des théories les plus fondamentales de la physique sont directement basées sur l’absence de masse des photons. Si cette dernière était écartée, les relativités générales et spéciales d’Einstein ou encore les équations de Maxwell, risqueraient de nécessiter de larges révisions.

Cette perspective motive de nombreux physiciens à imaginer des méthodes indirectes pour déterminer l’éventuelle masse d’un photon — ou plutôt la fourchette dans laquelle elle pourrait éventuellement se situer.

C’est ce qu’une équipe de chercheurs chinois a récemment tenté de faire dans une étude dont on trouvera ci-dessous les références et l’abstract. Observons en passant que sur de nombreux points la science fondamentale chinoise dépasse dorénavant en performance la science occidentale.

Pour avancer, les scientifiques chinois se sont basés sur deux sources de rayonnements électromagnétiques intenses.

Les premiers sont des pulsars, des étoiles à neutrons qui tournent sur elles-mêmes à grande vitesse tout en émettant un puissant flux de particules accélérées par leur champ magnétique très intense. Vu de la Terre, ces rayonnements nous parviennent sous forme de pulsations périodiques et intermittentes, d’où le terme de pulsar.

Les seconds sont des sursauts radio rapides (ou FRB, pour Fast Radio Burst). Ce sont des décharges d’onde radio à la fois très brèves et exceptionnellement intenses qui voyagent à travers le cosmos depuis des sources encore inconnues à ce jour.

Il s’agit de deux types de rayonnements très différents, mais ils ont tout de même des points communs, dont un particulièrement important dans le cadre de ces travaux. Lors de leur voyage, les photons qui les composent peuvent croiser différentes sources de plasma. Ce terme désigne un état de la matière où les électrons, des particules chargées négativement, sont arrachés aux atomes et errent en désordre.

Or ces charges libres peuvent affecter la propagation des ondes électromagnétiques émises par les pulsars et les FRB. Plus spécifiquement, elles ont tendance à les diffuser. En pratique, cela se manifeste par une dispersion des photons qui les composent. Selon les chercheurs, ces anomalies dans la propagation des ondes seraient aussi affectées par une éventuelle masse des photons. Si celle-ci était positive, supérieure à zéro, ils arriveraient avec un léger retard.

Ce délai serait infinitésimal et impossible à mesurer directement et précisément. Mais en exploitant de nombreuses sources, les chercheurs ont pu construire un modèle statistique décrivant l’influence de la masse des photons dans cette dynamique. À partir de là, ils ont pu calculer la limite supérieure théorique de la masse des photons, à savoir 9,52 x 10^-46 kg — environ 10 milliards de milliards de milliards de milliards de milliards de fois plus léger qu’une particule de poussière.

Cependant. il ne s’agit pas encore d’une preuve que les photons disposent effectivement d’une masse ou qu’ils en sont dépourvus. Il faudra vraisemblablement quelques années supplémentaires pour que la technologie disponible permette de le vérifier rigoureusement.

https://www.journaldugeek.com/2024/06/18/physique-letau-se-resserre-autour-de-la-masse-de-la-lumiere/

Référence

Bounding the Photon Mass with Ultrawide Bandwidth Pulsar Timing Data and Dedispersed Pulses of Fast Radio Bursts

Yu-Bin Wang aud others

Published 2024 April 3 

Published by the American Astronomical Society.
The Astrophysical JournalVolume 965Number 1

Abstract

Exploring the concept of a massive photon has been an important area in astronomy and physics. If photons have mass, their propagation in nonvacuum space would be affected by both the nonzero mass mγ and the presence of a plasma medium. This would lead to a delay time proportional to ??2?−4, which deviates from the classical dispersion relation (proportional to ν−2). For the first time, we have derived the dispersion relation of a photon with a nonzero mass propagating in plasma. To reduce the impact of variations in the dispersion measure (DM), we employed the high-precision timing data to constrain the upper bound of the photon mass. Specifically, the DM/time of arrival (TOA) uncertainties derived from ultrawide bandwidth (UWB) observations conducted by the Parkes Pulsar Timing Array (PPTA) are used. The dedispersed pulses from fast radio bursts (FRBs) with minimal scattering effects are also used to constrain the upper bound of photon mass. The stringent limit on the photon mass is determined by uncertainties of the TOA of pulsars, with an optimum value of 9.52 × 10−46 kg (5.34 × 10−10 eV c−2). In the future, it is essential to investigate the photon mass, as pulsar timing data are collected by PPTA and UWB receivers, or FRBs with wideband spectra are detected by UWB receivers.

18/06/2024 La conscience selon Koch

Pour le neuroscientifique Christof Koch, la conscience apparaît dans tous les systèmes d’information atteignant une certaine complexité. Tous les animaux, y compris le simple ver de terre, sont conscients. Même des articles publiés sur un support réactif tel que Internet peuvent l’être. Cette conviction, partagée par de nombreux philosophes et par un nombre croissant de scientifiques, est nommée le panpsychisme.

D’ou vient la conscience ?. Nous sommes convaincus qu’elle existe, au moins en ce qui nous concerne. Mais comment peut-elle apparaître dans nos cerveaux, à partir de simples processus chimiques et électrique ? Le mystère demeure entier.

Christof Koch, directeur de recherche au Allen Institute for Brain Science, est convaincu du fait qu’il connait la réponse. Depuis trente ans, il a étudié les bases neurologiques de la conscience. Ses responsabilités au Allen Institute lui ont permis d’être le promoteur d’un projet international dit the BRAIN Initiative dont le travail devrait débuter en 2024. Il a écrit de nombreux ouvrages sur cette question, dont en 2023  Consciousness: Confessions of a Romantic Reductionist.

Plus récemment, voir NewScientist Are you conscious 8 june 2024 p 28

_______________________________________

Nous reprenons ici, sans le traduire faute de temps un entretien sur ce sujet publié par Wired en 2013

WIRED: How did you come to believe in panpsychism?

Christof Koch: I grew up Roman Catholic, and also grew up with a dog. And what bothered me was the idea that, while humans had souls and could go to heaven, dogs were not suppose to have souls. Intuitively I felt that either humans and animals alike had souls, or none did. Then I encountered Buddhism, with its emphasis on the universal nature of the conscious mind. You find this idea in philosophy, too, espoused by Plato and Spinoza and Schopenhauer, that psyche — consciousness — is everywhere. I find that to be the most satisfying explanation for the universe, for three reasons: biological, metaphysical and computational.

WIRED: What do you mean?

Koch: My consciousness is an undeniable fact. One can only infer facts about the universe, such as physics, indirectly, but the one thing I’m utterly certain of is that I’m conscious. I might be confused about the state of my consciousness, but I’m not confused about having it. Then, looking at the biology, all animals have complex physiology, not just humans. And at the level of a grain of brain matter, there’s nothing exceptional about human brains.

Only experts can tell, under a microscope, whether a chunk of brain matter is mouse or monkey or human — and animals have very complicated behaviors. Even honeybees recognize individual faces, communicate the quality and location of food sources via waggle dances, and navigate complex mazes with the aid of cues stored in their short-term memory. If you blow a scent into their hive, they return to where they’ve previously encountered the odor. That’s associative memory. What is the simplest explanation for it? That consciousness extends to all these creatures, that it’s an immanent property of highly organized pieces of matter, such as brains.

WIRED: What do you mean?

Koch: My consciousness is an undeniable fact. One can only infer facts about the universe, such as physics, indirectly, but the one thing I’m utterly certain of is that I’m conscious. I might be confused about the state of my consciousness, but I’m not confused about having it. Then, looking at the biology, all animals have complex physiology, not just humans. And at the level of a grain of brain matter, there’s nothing exceptional about human brains.

Only experts can tell, under a microscope, whether a chunk of brain matter is mouse or monkey or human — and animals have very complicated behaviors. Even honeybees recognize individual faces, communicate the quality and location of food sources via waggle dances, and navigate complex mazes with the aid of cues stored in their short-term memory. If you blow a scent into their hive, they return to where they’ve previously encountered the odor. That’s associative memory. What is the simplest explanation for it? That consciousness extends to all these creatures, that it’s an immanent property of highly organized pieces of matter, such as brains.

WIRED: That’s pretty fuzzy. How does consciousness arise? How can you quantify it?

Koch: There’s a theory, called Integrated Information Theory, developed by Giulio Tononi at the University of Wisconsin, that assigns to any one brain, or any complex system, a number — denoted by the Greek symbol of Φ — that tells you how integrated a system is, how much more the system is than the union of its parts. Φ gives you an information-theoretical measure of consciousness. Any system with integrated information different from zero has consciousness. Any integration feels like somethingto that system. When it’s dissolved, it does not feel that anymore. It’s not that any physical system has consciousness. A black hole, a heap of sand, a bunch of isolated neurons in a dish, they’re not integrated. They have no consciousness. But complex systems do. And how much consciousness they have depends on how many connections they have and how they’re wired up. WIRED: Ecosystems are interconnected. Can a forest be conscious?

Koch: In the case of the brain, it’s the whole system that’s conscious, not the individual nerve cells. For any one ecosystem, it’s a question of how richly the individual components, such as the trees in a forest, are integrated within themselves as compared to causal interactions between trees.

The philosopher John Searle, in his review of Consciousness, asked, « Why isn’t America conscious? » After all, there are 300 million Americans, interacting in very complicated ways. Why doesn’t consciousness extend to all of America? It’s because integrated information theory postulates that consciousness is a local maximum. You and me, for example: We’re interacting right now, but vastly less than the cells in my brain interact with each other. While you and I are conscious as individuals, there’s no conscious Übermind that unites us in a single entity. You and I are not collectively conscious. It’s the same thing with ecosystems. In each case, it’s a question of the degree and extent of causal interactions among all components making up the system.

WIRED: The internet is integrated. Could it be conscious?

Koch: It’s difficult to say right now. But consider this. The internet contains about 10 billion computers, with each computer itself having a couple of billion transistors in its CPU. So the internet has at least 10^19 transistors, compared to the roughly 1000 trillion (or quadrillion) synapses in the human brain. That’s about 10,000 times more transistors than synapses. But is the internet more complex than the human brain? It depends on the degree of integration of the internet.

For instance, our brains are connected all the time. On the internet, computers are packet-switching. They’re not connected permanently, but rapidly switch from one to another. But according to my version of panpsychism, it feels like something to be the internet — and if the internet were down, it wouldn’t feel like anything anymore. And that is, in principle, not different from the way I feel when I’m in a deep, dreamless sleep.

WIRED: Internet aside, what does a human consciousness share with animal consciousness? Are certain features going to be the same?

Koch: It depends on the sensorium [the scope of our sensory perception —ed.] and the interconnections. For a mouse, this is easy to say. They have a cortex similar to ours, but not a well-developed prefrontal cortex. So it probably doesn’t have self-consciousness, or understand symbols like we do, but it sees and hears things similarly.

In every case, you have to look at the underlying neural mechanisms that give rise to the sensory apparatus, and to how they’re implemented. There’s no universal answer.

WIRED: Does a lack of self-consciousness mean an animal has no sense of itself?

Koch: Many mammals don’t pass the mirror self-recognition test, including dogs. But I suspect dogs have an olfactory form of self-recognition. You notice that dogs smell other dog’s poop a lot, but they don’t smell their own so much. So they probably have some sense of their own smell, a primitive form of self-consciousness. Now, I have no evidence to suggest that a dog sits there and reflects upon itself; I don’t think dogs have that level of complexity. But I think dogs can see, and smell, and hear sounds, and be happy and excited, just like children and some adults.

Self-consciousness is something that humans have excessively, and that other animals have much less of, though apes have it to some extent. We have a hugely developed prefrontal cortex. We can ponder.

WIRED: How can a creature be happy without self-consciousness?

Koch:: When I’m climbing a mountain or a wall, my inner voice is totally silent. Instead, I’m hyperaware of the world around me. I don’t worry too much about a fight with my wife, or about a tax return. I can’t afford to get lost in my inner self. I’ll fall. Same thing if I’m traveling at high speed on a bike. It’s not like I have no sense of self in that situation, but it’s certainly reduced. And I can be very happy.

WIRED: I’ve read that you don’t kill insects if you can avoid it.

Koch: That’s true. They’re fellow travelers on the road, bookended by eternity on both sides.

WIRED: How do you square what you believe about animal consciousness with how they’re used in experiments?

Koch: There are two things to put in perspective. First, there are vastly more animals being eaten at McDonald’s every day. The number of animals used in research pales in comparison to the number used for flesh. And we need basic brain research to understand the brain’s mechanisms. My father died from Parkinson’s. One of my daughters died from Sudden Infant Death Syndrome. To prevent these brain diseases, we need to understand the brain — and that, I think, can be the only true justification for animal research. That in the long run, it leads to a reduction in suffering for all of us. But in the short term, you have to do it in a way that minimizes their pain and discomfort, with an awareness that these animals are conscious creatures.

WIRED: Getting back to the theory, is your version of panpsychism truly scientific rather than metaphysical? How can it be tested?

Koch: In principle, in all sorts of ways. One implication is that you can build two systems, each with the same input and output — but one, because of its internal structure, has integrated information. One system would be conscious, and the other not. It’s not the input-output behavior that makes a system conscious, but rather the internal wiring.

The theory also says you can have simple systems that are conscious, and complex systems that are not. The cerebellum should not give rise to consciousness because of the simplicity of its connections. Theoretically you could compute that, and see if that’s the case, though we can’t do that right now. There are millions of details we still don’t know. Human brain imaging is too crude. It doesn’t get you to the cellular level.

The more relevant question, to me as a scientist, is how can I disprove the theory today. That’s more difficult. Tononi’s group has built a device to perturb the brain and assess the extent to which severely brain-injured patients — think of Terri Schiavo — are truly unconscious, or whether they do feel pain and distress but are unable to communicate to their loved ones. And it may be possible that some other theories of consciousness would fit these facts.

WIRED: I still can’t shake the feeling that consciousness arising through integrated information is — arbitrary, somehow. Like an assertion of faith.

Koch: If you think about any explanation of anything, how far back does it go? We’re confronted with this in physics. Take quantum mechanics, which is the theory that provides the best description we have of the universe at microscopic scales. Quantum mechanics allows us to design MRI and other useful machines and instruments. But why should quantum mechanics hold in our universe? It seems arbitrary! Can we imagine a universe without it, a universe where Planck’s constant has a different value? Ultimately, there’s a point beyond which there’s no further regress. We live in a universe where, for reasons we don’t understand, quantum physics simply is the reigning explanation.

With consciousness, it’s ultimately going to be like that. We live in a universe where organized bits of matter give rise to consciousness. And with that, we can ultimately derive all sorts of interesting things: the answer to when a fetus or a baby first becomes conscious, whether a brain-injured patient is conscious, pathologies of consciousness such as schizophrenia, or consciousness in animals. And most people will say, that’s a good explanation.

If I can predict the universe, and predict things I see around me, and manipulate them with my explanation, that’s what it means to explain. Same thing with consciousness. Why we should live in such a universe is a good question, but I don’t see how that can be answered now.

https://www.wired.com/2013/11/christof-koch-panpsychism-consciousness/

18/06/2024 De la guerre en Ukraine à un conflit nucléaire mondial

Pour Ivan Timofeïev, directeur des programmes du club russe de discussion Valdaï, ce risque augmente de jour en jour. N’ayant pas accès aux sources russes, du fait de l’absurde politiques de sanctions imposée par l’Occident à la Russie, nous nous appuyons sur des informations fournies par Philippe Grasset, sur son site Dededensa. Voir notamment https://www.dedefensa.org/article/risques-nucleaires-et-election-us

«  Une fois de plus est abordée la question, ici scénarisée précisément, d’un affrontement en Ukraine aboutissant à l’utilisation d’une arme nucléaire, puis à un conflit nucléaire mondial et totalement dévastateur. Pour certains théoriciens et philosophes qui ont réfléchi au problème posé par une telle perspective, l’avenir au-delà d’un tel conflit porté au niveau stratégique global où il n’y a pas de gagnant, est tout simplement impensable.

(autrement dit, ce serait la fin de toutes les civilisations).

À proprement parler, les pays de l’OTAN sont impliqués depuis longtemps dans le conflit. Cela revêt plusieurs formes.

Premièrement, les pays occidentaux fournissent à Kiev une aide financière et militaire substantielle, notamment des systèmes d’armes de plus en plus sophistiqués et destructeurs. Comme les stocks d’armes de type soviétique dans les arsenaux des anciens alliés de l’URSS au sein de l’Organisation du pacte de Varsovie ont été épuisés, l’armée ukrainienne reçoit de plus en plus d’armements et de munitions d’origine occidentale.

Jusqu’à présent, les livraisons de masse ont été limitées par les capacités de production de l’industrie de défense occidentale et par la taille des stocks existants. Mais si les hostilités de poursuivent, la capacité industrielle pourrait augmenter. L’augmentation des approvisionnements est également inévitable en cas de trêve, ce qui permettrait à l’Ukraine de se préparer à une nouvelle phase des hostilités.

Moscou paraît se préparer au pire des scénarios, à savoir une augmentation constante de l’aide militaire occidentale à l’Ukraine. Outre la fourniture d’armes et de munitions, cette assistance comprend la formation de personnel, l’aide au développement de l’industrie et des infrastructures militaires, ainsi que le remboursement des dépenses dans d’autres domaines qui permettent à l’Ukraine de concentrer ses ressources sur le secteur de la défense.

Deuxièmement, l’Ukraine jouit d’un large soutien occidental sous forme de renseignements, y compris des données techniques provenant de satellites, de radars, d’avions de reconnaissance, etc. Les informations reçues permettent de mener un large éventail d’opérations, de la délimitation du théâtre d’opérations à l’identification de cibles spécifiques. Les fournisseurs de données peuvent être sélectifs pour en octroyer l’accès à la partie ukrainienne. Mais leur utilisation dans des opérations militaires contre la Russie ne fait aucun doute.

Troisièmement, des spécialistes militaires citoyens de pays de l’OTAN prennent part aux opérations militaires. Leur rôle n’est pas toujours officiel. Il peut s’agir de volontaires ou simplement de mercenaires sur la participation desquels les autorités de leurs pays ferment les yeux. Selon les estimations de la Russie, leur nombre était d’environ 2 000 en octobre 2023. Que cela soit exact ou non, il est clair que des étrangers se battent du côté de l’Ukraine, que leur participation est systématique et non fortuite, et qu’au moins certains d’entre eux sont des citoyens de pays occidentaux. Leur mort pourra être un prétexte à une intervention armée directe.

Un éventuel succès militaire majeur de l’armée russe.

Jusqu’à présent, la situation sur le front reste relativement stable. Mais l’armée de Moscou a déjà remporté d’importantes victoires locales, accru la pression, pris l’initiative, élargi le front offensif et peut-être accumulé des réserves pour des actions plus décisives.

Il n’y a aucun signe de reprise de la contre-offensive ukrainienne de l’année dernière. Kiev serait à court de munitions, bien qu’à l’avenir, ce déficit puisse être comblé par des fournitures extérieures. Des attaques périodiques sur le territoire russe avec des missiles de croisière, des drones et de l’artillerie causent des dégâts et des victimes, mais ne perturbent pas la stabilité du front.

De plus, de telles frappes renforcent la détermination de la Russie à créer des zones tampons, c’est-à-dire des territoires depuis lesquels Kiev ne pourra pas attaquer des cibles dans les régions russes.

Un éventuel effondrement de certains secteurs du front ukrainien et des avancées territoriales importantes des forces russes vers l’ouest deviennent un scénario de plus en plus réaliste.

Le fait qu’aucune avancée ni percée profonde n’ait eu lieu depuis un certain temps ne signifie pas que cela ne sera pas possible à l’avenir. Au contraire, cette probabilité augmente en raison de l’expérience au combat de l’armée russe, des fournitures du complexe militaro-industriel au front, des pertes du côté ukrainien, des retards dans la livraison du matériel occidental, etc.

La capacité de l’armée russe à réaliser de telles avancées et percées augmente également. Une offensive majeure réussi de l’armée russe vers Kharkov, Odessa ou une autre grande ville pourrait devenir le déclencheur d’une intervention occidentale directe.

L’intervention occidentale pourrait prendre plusieurs formes. Elle peut commencer par l’utilisation d’infrastructures, notamment des aérodromes des pays de l’OTAN. Un scénario plus radical consisterait à déployer un contingent issu de certains pays de l’OTAN à la frontière entre l’Ukraine et la Biélorussie. Enfin, une option encore plus radicale serait le déploiement de contingents militaires des pays de l’OTAN sur la ligne de front

Chacun de ces scénarios implique un affrontement direct entre les forces russes et celles de l’OTAN. Une telle situation poserait inévitablement la question d’une implication plus profonde des adversaires et, à plus long terme, d’un transfert du conflit militaire vers d’autres zones de contact avec la Russie, notamment la région baltique. À ce stade, il sera encore plus difficile d’arrêter l’escalade. Plus les pertes seront importantes pour les deux parties, plus le tourbillon des hostilités augmentera et plus elles se rapprocheront du seuil d’utilisation des armes nucléaires. Et alors il n’y aura plus de vainqueurs  » 

NB. Nous avons simplifié la forme mais, espérons le, en en conservant l’esprit