12/08/2023 Le mystère de la langue froide (cold tongue)

Référence A mystery in the Pacific New Scientist 5 august 2023 p.37

On appelle langue froide équatoriale « equatorial cold tongue » une étroite bande de l’océan Pacifique oriental qui n’a cessé de se refroidir depuis 30 ans, contrairement au reste des mers et océans du globe. Elle s’étend vers l’ouest sur des milliers de miles marins à partir des côtes de l’Equateur. Depuis 30 ans cette région n’a cessé de se refroidir d’un demi-degré en moyenne, au contraire du réchauffement observable dans toutes les mers du monde.

La cause du refroidissement n’est pas connue. On a soupçonné les vents alizés qui pourraient emporter l’eau chaude de surface provoquant une remontée de l’eau froide sous marine, Mais les alizées soufflent depuis des siècles sans que ce phénomène ait pu être observé. La fonte des glaciers du pôle sud autour de l’Antarctique pourrait jouer un rôle, mais là encore il faudrait le prouver. Par ailleurs, le phénomène sera-t-il durable ?

Cette question n’est pas sans importance au vu des incendies qui ravagent actuellement la Californie ou l’Australie. Selon Pedro DiNezio, de l’University of Colorado Boulder, il s’agit de la plus importante énigme posée actuellement par la science du climat



Les cerveaux des enfants de paranthropes atteignaient une taille adulte dès l’âge de trois ans

C’est l’une des principales découvertes d’une équipe internationale de paléoanthropologues à partir des fossiles de quatre individus, datant de deux millions d’années environ, retrouvés en Afrique du Sud. Nous publions ci-dessous le résumé et les références de leur article, paru dans Science Advances du 3 mai 2023

Le paranthrope. Information disponible sur Internet

Paranthropus robustus est une espèce éteinte du genre Paranthropus, qui vivait en Afrique australe de 2 à 1,5 million d’années  bp Il a été découvert en 1938 à Kromdraai, en Afrique du Sud. D’autres sites préhistoriques d’Afrique du Sud, tels Swartkrans et Drimolen, ont ensuite livré des restes fossiles de cette espèce

Décrite en 1938 par le sud-africain Robert BroomParanthropus robustus fut la seconde espèce d’hominine définie (après Australopithecus africanus en 1925), et la première du genre Paranthrope. Le fossile TM 1517 trouvé en 1938 à Kromdraai par le collégien Gert Terblanche est l’holotype de l’espèce. Robert Broom découvrit en 1948 à Swartkrans des fossiles plus conséquents qu’il attribua à la même espèce. Il fallut néanmoins attendre 1994 pour trouver à Drimolen le crâne le plus complet de Paranthropus robustus connu à ce jour, DNH 7, dit Eurydice.

Phylogénie des genres actuels et fossiles d’Homininés :

 Homininae   Dryopithecini   † Dryopithecus (les Dryopithèques)
 Gorillini   Gorilla (les Gorilles)
 Hominini   Panina   Pan (les Chimpanzés)
 Hominina 
 † Ardipithecus (Ardi)

 † Sahelanthropus (Toumaï)

 † Australopithecus (Little FootLucy, etc.)

 † Paranthropus (Crâne noir)

 Homo (les Humains)


Les Paranthropes sont caractérisés par des crânes très robustes capables de produire une forte pression masticatoire, et par de grosses dents jugales, couvertes de la plus épaisse couche d’émail connue chez les hominidés. Le volume endocrânien du spécimen SK 1585 est estimé à 476 cm3.

Le squelette post-crânien de Paranthropus robustus est comparable à celui des autres Paranthropes et Australopithèques, et témoigne d’une bipédie, avec un certain degré d’arboricolisme conservé au niveau des membres supérieurs.

Paranthropus robustus présenterait un fort dimorphisme sexuel, avec des mâles sensiblement plus gros et plus robustes que les femelles. Sur la base de 3 spécimens, les mâles auraient eu une taille moyenne de 132 cm et les femelles de 110 cm. Sur un échantillon de 4 spécimens, les mâles auraient pesé en moyenne 42 kg et les femelles 30 kg2.

L’anatomie du squelette de Paranthropus robustus suggère que cette espèce avait un régime végétarien..

Les éclats de pierre et les galets taillés associés aux fossiles de Paranthropus robustus suggèrent que cet hominidé utilisait des outils et était peut-être capable d’en fabriquer .

Article
Hominin fossils from Kromdraai and Drimolen inform Paranthropus robustus craniofacial ontogeny

JOSÉ BRAGA  and others

SCIENCE ADVANCES

3 May 2023

Vol 9, Issue 18

DOI: 10.1126/sciadv.ade7165

  • Abstract

Ontogeny provides critical information about the evolutionary history of early hominin adult morphology. We describe fossils from the southern African sites of Kromdraai and Drimolen that provide insights into early craniofacial development in the Pleistocene robust australopith Paranthropus robustus. We show that while most distinctive robust craniofacial features appear relatively late in ontogeny, a few do not. We also find unexpected evidence of independence in the growth of the premaxillary and maxillary regions. Differential growth results in a proportionately larger and more postero-inferiorly rotated cerebral fossa in P. robustus infants than in the developmentally older Australopithecus africanus juvenile from Taung. The accumulated evidence from these fossils suggests that the iconic SK 54 juvenile calvaria is more likely early Homo than Paranthropus. It is also consistent with the hypothesis that P. robustus is more closely related to Homo than to A. africanus.

11/08/2023 Prochain effondrement de l’AMOC


Le courant nord-atlantique dit AMOC Atlantic meridional overturning circulation devrait selon les simulations de deux océanologues s’arrêter progressivement d’ici le milieu du 21e siècle. Cet arrêt était initialement prévu pour le début du 22e siècle.

L e Gulf Stream qui contribue au réchauffement de l’Atlantique nord, pourrait également s’effondrer. Mais il en résulterait paradoxalement pour l’Europe des hivers glacials.

Cette simulation est contestée par d’autres chercheurs.

Wikipedia https://en.wikipedia.org/wiki/Atlantic_meridional_overturning_circulation

Bigthink https://bigthink.com/strange-maps/gulf-stream-collapse-amoc

Référence

Nature Communications 

volume14, Article number: 4254 (2023) 

Abstract

The Atlantic meridional overturning circulation (AMOC) is a major tipping element in the climate system and a future collapse would have severe impacts on the climate in the North Atlantic region. In recent years weakening in circulation has been reported, but assessments by the Intergovernmental Panel on Climate Change (IPCC), based on the Climate Model Intercomparison Project (CMIP) model simulations suggest that a full collapse is unlikely within the 21st century. Tipping to an undesired state in the climate is, however, a growing concern with increasing greenhouse gas concentrations. Predictions based on observations rely on detecting early-warning signals, primarily an increase in variance (loss of resilience) and increased autocorrelation (critical slowing down), which have recently been reported for the AMOC. Here we provide statistical significance and data-driven estimators for the time of tipping. We estimate a collapse of the AMOC to occur around mid-century under the current scenario of future emissions.

11/08/2023. Nations Unies. World Drug Report.

Ce rapport, diligenté par l’ONU, est présenté chaque année lors d’une Journée spéciale consacré à la lutte contre les abus de stupéfiants et les trafics illicites

https://www.unodc.org/unodc/en/data-and-analysis/world-drug-report-2023.html

  • The 2023 World Drug Report presents the latest global, regional, and subregional estimates and trends in drug demand and drug supply in an interactive online format through interactive graphs, infographics, and maps. Booklet 1 is an executive summary that presents points of special interest and policy implications based on the key findings presented in the online segment and Booklet 2. Booklet 2 focuses on contemporary issues related to drugs, including synthetic drugs, online drug sales, medical cannabis regulation, psychedelic substances, drug crime in the Amazon Basin, substance use disorders among forcibly displaced populations, and innovations and modifications of services for people who use drugs during the COVID-19 pandemic.

10/08/2023 Au Niger, un coup d’Etat américain contre la France

Le récent coup d’Etat au Niger a été conduit par une « junte » d’officiers supérieurs nigériens menée par le Brig. Gen. Moussa Salaou Barmou . Or celui-ci était depuis longtemps, comme vient de le révéler le Wall Street Journal en date du 9 août 2023 un favori de Washington au prétexte de mener la lutte contre les groupes djihadistes nombreux dans la région.

Voir https://www.wsj.com/articles/niger-coup-us-trained-general-65b5ecd6

Il y a deux jours, le général Barmou a reçu à Niamey, accompagné de trois adjoints la sous-secrétaire d’Etat Victoria Nuland. Celle-ci s’était déplacée en urgence pour offrir selon elle sa médiation en vue d’une sortie de crise, la France ayant échoué dans son projet de représailles militaires contre les putschistes.

Le 7 août, à partir de Niamey, Victoria Nuland s’est prêtée à un point de presse dans lequel elle a insisté sur l’importance pour les Etats-Unis de la relation bilatérale avec le Niger et les défis posés à la poursuite de cette coopération par le coup d’Etat du 26 juillet.

Dans ce long compte-rendu disponible en ligne https://www.state.gov/acting-deputy-secretary-of-state-victoria-nuland-on-the-situation-in-niger/ on peut lire

«Le Secrétaire m’a demandé d’entreprendre ce voyage parce que nous voulions parler avec franchise aux personnes responsables de cette contestation de l’ordre démocratique afin de voir si nous pouvions essayer de résoudre ces questions par la diplomatie, si nous pouvions lancer des négociations et aussi pour clarifier au maximum les enjeux de nos relations et de nos appuis dans tous les domaines que nous serons obligés d’interrompre si la démocratie n’est pas restaurée»

Ceci veut-il dire que les Américains interviennent au Niger comme proxies ou relais de la France, afin de laisser celle-ci continuer à s’approvisionner librement en minerai d’uranium. Nous ne le pensons pas. L’ Amérique n’a aucune sympathie pour l’énergie nucléaire française, qui concurrence avec succès son propre pétrole.

Elle n’a pas non plus de sympathie pour ce qui reste de la France-Afrique, que représentaient ses relations avec le Niger d’avant le coup d’Etat. Une Afrique dominée par la CIA, face à une future Afrique que dominera la Russie (groupe Wagner…) ou la Chine, lui convient beaucoup plus que l’ancienne France-Afrique. La France, qu’elle le veuille ou pas, n’a plus sa place en Afrique.

09/08/2023 Dates approximatives d’apparition de la vie complexe

On nomme procaryotes les organisme dont le noyau cellulaire n’est jamais entouré d’une membrane nucléaire, mais est mêlé au cytoplasme. Les procaryotes regroupent les bactéries et les cyanobactéries. Leur matériel génétique est le plus souvent réduit à un chromosome unique annulaire.

On nomme eucaryotes  les organismesunicellulaires ou multicellulaires, qui se caractérisent par la présence d’un noyau et généralement d’organites spécialisés dans la respiration, en particulier mitochondries chez les aérobies mais aussi hydrogénosomes chez certains anaérobies.

Les plus anciens eucaryotes attestés seraient âgés de 1,6 Ga, Ainsi certains acritarches dateraient approximativement de cette époque. Leur origine, toutefois, pourrait être encore plus éloignée. Grypania, vieille de 2,1 Ga, a été rapprochée des algues, et les Gabonionta, dans les formations de schistes noirs du Gabon, aussi anciens, suggèrent qu’une vie organisée faisant penser aux eucaryotes existait déjà. L’apparition des eucaryotes est encore plus ancienne. La présence de stérane, marqueur biochimique des eucaryotes dans des formations schisteuses australiennes suggèrent qu’à l’époque deux lignées s’étaient déjà différenciées il y a 2,7 Ga.

Les eucaryotes sont considérés comme représentatifs de la vie complexe  Or aujourd’hui il est évident que leurs premiers spécimens sont apparus relativement tard dans l’histoire de la vie, au regard de la date présumée d’apparition des premiers procaryotes.

On comparera sur ce point le contenu de deux articles publiés dans Nature, respectivement en 2023 et 2010

——————————————————-

Article 1

Lost world of complex life and the late rise of the eukaryotic crown
  • Nature 
  • volume618
  • pages 767–773 (2023)

Abstract

Eukaryotic life appears to have flourished surprisingly late in the history of our planet. This view is based on the low diversity of diagnostic eukaryotic fossils in marine sediments of mid-Proterozoic age (around 1,600 to 800 million years ago) and an absence of steranes, the molecular fossils of eukaryotic membrane sterols. This scarcity of eukaryotic remains is difficult to reconcile with molecular clocks that suggest that the last eukaryotic common ancestor (LECA) had already emerged between around 1,200 and more than 1,800 million years ago. LECA, in turn, must have been preceded by stem-group eukaryotic forms by several hundred million years3. Here we report the discovery of abundant protosteroids in sedimentary rocks of mid-Proterozoic age. These primordial compounds had previously remained unnoticed because their structures represent early intermediates of the modern sterol biosynthetic pathway, as predicted by Konrad Bloch4. The protosteroids reveal an ecologically prominent ‘protosterol biota’ that was widespread and abundant in aquatic environments from at least 1,640 to around 800 million years ago and that probably comprised ancient protosterol-producing bacteria and deep-branching stem-group eukaryotes. Modern eukaryotes started to appear in the Tonian period (1,000 to 720 million years ago), fuelled by the proliferation of red algae (rhodophytes) by around 800 million years ago. This ‘Tonian transformation’ emerges as one of the most profound ecological turning points in the Earth’s history.

Article 2

Nature Volume 466 Issue 7302, 1 July 2010

Large colonial organisms with coordinated growth in oxygenated environments 2.1 Gyr ago

A series of well preserved centimetre-scale fossils in an extended fossiliferous level within black shales near Franceville, in Gabon, West Africa, may represent the earliest evidence so far reported for cell-to-cell signalling and coordinated growth behaviour on the scale of macroorganisms. Dated at about 2.1 billion years old, a billion and a half years before the rapid expansion in multicellular life forms known as the Cambrian explosion, their shape and regular fabric indicate a multicellular degree of organization.

09/08/2023. Sur les simulations d’univers

 Simuler l’univers ou son fonctionnement dans un but de recherche scientifique paraît relever d’une tâche impossible, puisque l’on ne sait rien de précis dans ces domaines. Le risque est grand d’encourager des erreurs.

Cependant renoncer à des simulations ne conduirait à rien, sinon encourager les approches mythiques. De plus en plus de chercheurs se lancent dans cette aventure. C’est le cas de Germain Rousseaux de l’Institut Pprime à Poitiers, France, ou de Bill Unruh de l’Université de Vancouver, Canada.

Rousseaux étudie entre autres les trous noirs. Il essaie de comprendre comment tout ce qui s’aventure au delà de « l’horizon des événements » d’un trou noir, disparaîtrait et ne pourrait en ressortir.

Il y a plus d’un million de trous noirs dans la galaxie, néanmoins ils demeurent incompris. Dans les années 1970, Stephen Hawking s’était intéressé aux trous noirs dans la perspective de la mécanique quantique. Celle-ci considère le vide des trous noirs comme n’étant pas vide mais empli de particules et d’antiparticules que ce vide comprime. Les particules échappent au trou noir et se manifestent à l’extérieur comme un rayonnement, dit depuis radiation de Hawking. Mais cette radiation n’avaient pas encore été directement observée.

Ceci vient d’être fait par l’intermédiaire d’une simulation de l’horizon d’un trou noir réalisée par un groupe de chercheurs référencé ci-dessous. En utilisant une chaine d’atomes pour simuler l’horizon des événements d’un trou noir, ils ont pu montrer que la radiation de Hawking existe et se comporte telle que prévue par ce dernier. Celui-ci, mort paralysé peu de temps avant, s’en serait sans aucun doute réjoui

Référence

https://journals.aps.org/prresearch/abstract/10.1103/PhysRevResearch.4.043084

Thermalization by a synthetic horizon

Lotte Mertens, Ali G. Moghaddam, Dmitry Chernyavsky, Corentin Morice, Jeroen van den Brink, and Jasper van Wezel
Phys. Rev. Research 4, 043084 – Published 8 November 2022
Abstract

Synthetic horizons in models for quantum matter provide an alternative route to explore fundamental questions of modern gravitational theory. Here we apply these concepts to the problem of emergence of thermal quantum states in the presence of a horizon, by studying ground-state thermalization due to instantaneous horizon creation in a gravitational setting and its condensed matter analog. By a sudden quench to position-dependent hopping amplitudes in a one-dimensional lattice model, we establish the emergence of a thermal state accompanying the formation of a synthetic horizon. The resulting temperature for long chains is shown to be identical to the corresponding Unruh temperature, provided that the postquench Hamiltonian matches the entanglement Hamiltonian of the prequench system. Based on detailed analysis of the outgoing radiation we formulate the conditions required for the synthetic horizon to behave as a purely thermal source, paving a way to explore this interplay of quantum-mechanical and gravitational aspects experimentally.

08/08/2022 L’Otan et la Russie (selon Dmitry Orlov)

Dmitry Orlov (en russe : Дмитрий Орлов), né en 1962, est un ingénieur et écrivain russo-américain. Ses écrits ont pour sujet le déclin et l’effondrement économique, écologique et politique potentiel aux États-Unis.
Merci à DeDefensa qui a fourni cette référence

L’OTAN n’est pas une organisation défensive (n’oubliez pas que l’URSS a disparu depuis plus de 30 ans), ni une organisation offensive (certes, elle a bombardé la Serbie et quelques autres pays relativement sans défense, mais elle ne peut en aucun cas envisager d’affronter la Russie ou tout autre pays bien armé).

L’OTAN est plutôt un club d’acheteurs captifs d’armes fabriquées aux États-Unis. C’est la raison d’être des normes de l’OTAN, auxquelles l’Ukraine doit se conformer avant d’être jugée digne d’être invitée à rejoindre l’OTAN.

Pour se conformer à ces normes, vos armes doivent être principalement fabriquées aux États-Unis. C’est également la raison de toutes les guerres américains précédentes, de la Serbie à l’Irak en passant par l’Afghanistan, la Libye et la Syrie : il s’agissait de projets de démonstration pour les armes américaines, avec l’objectif supplémentaire d’épuiser les stocks d’armes et les munitions afin que le Pentagone et le reste de l’OTAN soient obligés de se rapprovisionner.

Les justifications géopolitiques de ces conflits militaires ne sont que des rationalisations. Par exemple, entre 1964 et 1973, les États-Unis ont largué plus de 2,5 millions de tonnes de bombes sur le Laos au cours de 580 000 sorties de bombardement, soit un avion chargé de bombes toutes les huit minutes, 24 heures sur 24, pendant neuf ans. Quelle était la logique géopolitique ? Personne ne se souvient même s’il y en a eu une. Mais la durée de ces bombes étaient sur le point d’expirer et elles devaient être utilisées et commandées à nouveau pour que l’argent continue de couler.

L’OTAN a été créée le 4 avril 1949 avec la signature du traité de l’Atlantique Nord, plus connu sous le nom de traité de Washington, dans le but supposé de contrecarrer l’Union soviétique en Europe. L’URSS a réagi en créant l’Organisation du traité de Varsovie (également connue sous le nom de Pacte de Varsovie), une alliance politique et militaire établie le 14 mai 1955 entre l’Union soviétique et plusieurs pays d’Europe de l’Est dans le but de les défendre contre l’OTAN.

Le Pacte de Varsovie a été dissous le 1er juillet 1991 et, peu après, le 26 décembre 1991, l’URSS elle-même l’a été, mais l’OTAN a continué à exister. À ce stade, le Pacte de Varsovie existait depuis un peu moins longtemps que l’OTAN, et l’URSS depuis un peu plus longtemps encore. Il est clair que la menace communiste comme justification de l’existence de l’OTAN n’était qu’une ruse, un écran de fumée… un leurre.

Quel était donc le véritable objectif de l’OTAN ? Il existe de nombreuses façons de répondre à cette question, mais la soudaine déchéance de l’Ukraine offre ce qui est peut-être l’explication la plus explicite.

 Était-ce parce que la guerre s’éternisait dans ce pays ? Non, une combustion lente serait exactement ce que le Pentagone a ordonné, afin d’avoir une chance de suivre le rythme effréné des livraisons d’armes et de munitions de la Russie.

 L’Ukraine était-elle en train de perdre la guerre ? Non, l’Ukraine ne perdait pas, elle ne gagnait pas. En particulier, ses attaques contre les lignes de défense russes, que les troupes russes appelaient «attaques de viande» en raison des pertes énormes et inutiles qu’elles entraînaient du côté ukrainien, semblaient plutôt futiles.

 L’Ukraine était-elle sur le point d’être vaincue ? Là encore, non, les Russes étaient heureux d’avancer de quelques kilomètres ici et là, leur principal objectif étant d’établir une zone tampon suffisamment large pour que l’artillerie ukrainienne cesse de bombarder ce que sont aujourd’hui des quartiers civils russes.

 Est-ce parce que l’OTAN n’avait plus d’armes et de munitions à donner aux Ukrainiens ?

La réponse est complexe. Les armes fabriquées aux États-Unis ont tendance à être excessivement compliquées (pour que leurs fabricants puissent faire payer plus cher les fonctions supplémentaires inutiles) et plutôt fragiles (elles n’ont jamais été testées contre un adversaire de taille comparable à la Russie ou la Chine, ni même contre l’Iran), développées lentement (pour épuiser les fonds de R&D), construites lentement ( pourquoi se presser ?) et nécessitant beaucoup d’entretien (pour que les entreprises de défense américaines puissent s’enrichir encore plus en fournissant des pièces de rechange et des services). Ces armes étaient censées être testées de temps à autre face à des adversaires arriérés armés de vieilles kalachnikovs et de RPG.

C’est l’utilité principale de l’Otan

 

07/08/2023 Bonne efficacité d’une version quantique de la méthode dite de Monte-Carlo

Les domaines sont encore rares où des calculs quantiques se révèlent plus efficaces que les mêmes effectués sur de super-ordinateur classiques. La raison en est que les calculateurs quantiques génèrent beaucoup plus d’erreurs que leurs concurrents classiques. Les bits quantiques ou qu-bits qu’ils utilisent sont si sensibles que même la lumière peut provoquer des erreurs de calcul. Plus les ordinateurs quantiques se développent, plus ce problème s’aggrave.

La chose a des conséquences majeures, car les algorithmes quantiques permettant d’exécuter des applications utiles exigent que les taux d’erreur de leurs qubits soient inférieurs à ceux que l’on constate aujourd’hui. Pour combler cet écart, la correction d’erreur quantique est un élément essentiel.

La correction d’erreur quantique protège les informations en les codant sur plusieurs qubits physiques pour former un « qubit logique ». Elle est considérée comme le seul moyen de produire un ordinateur quantique à grande échelle avec des taux d’erreur suffisamment faibles pour des calculs utiles. Au lieu de calculer sur les qubits individuels, l’on calcule sur des qubits logiques. En codant un nombre plus important des qubits physiques d’un processeur quantique en un seul qubit logique, on peut espérer réduire les taux d’erreur. Cette réduction du taux d’erreurs permet d’utiliser des algorithmes quantiques utiles.

Il existe donc aujourd’hui une course pour la production d’algorithmes quantiques utilisables. Ainsi les scientifiques de Google ont publié le 22 février, dans la revue Nature, des recherches attestant le passage d’une étape clé dans leur chemin vers la fabrication d’un calculateur quantique utilisable polyvalent : la mise au point d’un code de correction d’erreur efficace. 

Voir Google’s quantum computer hits key milestone by reducing errors Researchers demonstrate for the first time that using more qubits can lower error rate of quantum calculations. https://www.nature.com/articles/d41586-023-00536-w

Plus récemment, des scientifiques ont publié un article dans Nature, dont on trouve ci-dessous les références et l’abstract. Ils montrent qu’un ordinateur quantique est aussi efficace qu’un ordinateur ordinaire pour utiliser la Méthode Monte-Carlo.

Une méthode de Monte-Carlo, ou méthode Monte-Carlo, est une méthode algorithmique visant à calculer une valeur numérique approchée en employant des procédés aléatoires, c’est-à-dire des techniques probabilistes.

Les méthodes de Monte-Carlo sont particulièrement utilisées pour calculer des intégrales en dimensions plus grandes que 1 (en particulier, pour calculer des surfaces et des volumes). Elles sont également couramment utilisées en physique des particules, où des simulations probabilistes permettent d’estimer la forme d’un signal ou la sensibilité d’un détecteur. La comparaison des données mesurées à ces simulations peut permettre de mettre en évidence des caractéristiques inattendues, par exemple de nouvelles particules.

Les méthodes de Monte-Carlo permettent aussi d’introduire une approche statistique du risque dans une décision financière. Elle consiste à isoler des variables-clés d’un projet, telles que le chiffre d’affaires ou la marge, et à leur affecter une distribution de probabilités. Pour chacun de ces facteurs, un grand nombre de tirages aléatoires est effectué dans les distributions de probabilité déterminées précédemment, afin de trouver la probabilité d’occurrence de chacun des résultats. À titre d’exemple, le choix de mode de gestion d’une collectivité territoriale dans le cadre d’un partenariat public-privé (PPP) s’analyse par la méthode de Monte-Carlo, afin de prendre en compte la répartition des risques entre acteurs publics et privés. On parle alors de « risques valorisés » ou « valeurs à risque ».

Pour en savoir plus, voir

 12 July 2023
Quantum-enhanced Markov chain Monte Carlo

Nature 
volume619
pages 282–287 (2023)

Abstract

Quantum computers promise to solve certain computational problems much faster than classical computers. However, current quantum processors are limited by their modest size and appreciable error rates. Recent efforts to demonstrate quantum speedups have therefore focused on problems that are both classically hard and naturally suited to current quantum hardware, such as sampling from complicated—although not explicitly useful—probability distributions1,2,3. Here we introduce and experimentally demonstrate a quantum algorithm that is similarly well suited to current hardware, but which samples from complicated distributions arising in several applications. The algorithm performs Markov chain Monte Carlo (MCMC), a prominent iterative technique4, to sample from the Boltzmann distribution of classical Ising models. Unlike most near-term quantum algorithms, ours provably converges to the correct distribution, despite being hard to simulate classically. But like most MCMC algorithms, its convergence rate is difficult to establish theoretically, so we instead analysed it through both experiments and simulations. In experiments, our quantum algorithm converged in fewer iterations than common classical MCMC alternatives, suggesting unusual robustness to noise. In simulations, we observed a polynomial speedup between cubic and quartic over such alternatives. This empirical speedup, should it persist to larger scales, could ease computational bottlenecks posed by this sampling problem in machine learning5, statistical physics6 and optimization7. This algorithm therefore opens a new path for quantum computers to solve useful—not merely difficult—sampling problems.

06/08/2023 Comment évaluer l’état de conscience

Ce blessé, ce malade est-il conscient ? Les médecins et soignants se posent régulièrement la question quand ils sont appelés à traiter des personnes en état végétatif. Il est important de savoir si une personne présentant une apparence de perte de conscience conserve un minimum de jugement. La façon dont le personnel de santé se comportera avec elle sera très différente dans un cas ou dans l’autre. La question se pose également face à des délirants non pathologiques, nombreux dans les EPHAD (établissements de retraite) .

Pour répondre à cette question, fondamentale afin de mieux comprendre le fonctionnement du cerveau, le neuroscientifique Giulio Tononi avait en 2004 à l’Université de Madison (Etats-Unis) proposé une Théorie de l’Information Intégrée ou ITT. Celle-ci semble reposer sur une évidence : une entité produit plus d’information (autrement dit en ce cas un plus haut niveau de conscience) quand ses composantes sont intégrées plutôt que lorsqu’elles travaillent indépendamment les unes des autres. Autrement dit, le tout est plus grand que ses parties. Ce principe concernant les cerveaux peut s’appliquer très généralement, que ce soit dans les ordinateurs ou dans les médias d’information.

L’ITT pense pouvoir en conséquence calculer une valeur mathématique définissant le niveau de conscience, dit phi. Mais le faire suppose un grand nombre de calculs et de points d’interaction (nodes).

Aujourd’hui phi serait calculable pour un système ne présentant pas plus que dix nodes. Si les 86 milliards de neurones du cerveau humains étaient considérés chacun comme un node, le calcul serait impossible.

Pour faire face à cette difficulté, des chercheurs de l’Université du Western Ontario (Canada) ont calculé des versions simplifiés de phi s’appliquant à de petites aires du cerveau bien définies considérées comme des nodes. Ceci a été fait chez 17 personnes ayant accepté à l’initiative de Giulio Tononi des scans du cerveau par fMRI et présentant des états de conscience différents, de l’éveil jusqu’au sommeil artificiel.

https://en.wikipedia.org/wiki/Functional_magnetic_resonance_imaging

Comme il fallait s’y attendre, les aires de l’attention fronto pariétales et dorsales montrèrent une activité décroissante depuis l’éveil jusqu’à une anesthésie profonde. Les autres aires ont manifesté des activités variables que l’on pourrait interpréter comme des états de conscience intermittents et plus ou moins prononcés. Ceci confirme la constatation que des flashs de conscience peuvent toujours se produire chez un malade ou un vieillard ayant, selon l’expression, perdu la boule.

Référence

nature  

  1. communications biology  
  2. articles  

An implementation of integrated information theory in resting-state fMRI

An implementation of integrated information theory in resting-state fMRI

Communications Biology 

volume6, Article number: 692 (2023) 

Abstract

Integrated Information Theory was developed to explain and quantify consciousness, arguing that conscious systems consist of elements that are integrated through their causal properties. This study presents an implementation of Integrated Information Theory 3.0, the latest version of this framework, to functional MRI data. Data were acquired from 17 healthy subjects who underwent sedation with propofol, a short-acting anaesthetic. Using the PyPhi software package, we systematically analyze how Φmax, a measure of integrated information, is modulated by the sedative in different resting-state networks. We compare Φmax to other proposed measures of conscious level, including the previous version of integrated information, Granger causality, and correlation-based functional connectivity. Our results indicate that Φmax presents a variety of sedative-induced behaviours for different networks. Notably, changes to Φmax closely reflect changes to subjects’ conscious level in the frontoparietal and dorsal attention networks, which are responsible for higher-order cognitive functions. In conclusion, our findings present important insight into different measures of conscious level that will be useful in future implementations to functional MRI and other forms of neuroimaging.