04/07/2025 La conscience chez les humains relève-t-elle de la physique quantique?

La conscience chez les humains résulte-t-elle de mécanismes quantiques se déroulant dans le cerveau ? Celui-ci est réputé comme l’organe le plus complèxe existant au monde. Pourquoi ne serait-il pas le siège de processus relevant de la physique quantique, qui pour l’essentiel nous demeurent inexplicables

Citons La dualité onde-corpuscule : les notions d’onde et de particule (ou corpuscule), qui sont séparées en mécanique classique, deviennent deux facettes d’un même phénomène, décrit de manière mathématique par sa fonction d’onde. En particulier, l’expérience prouve que la lumière peut se comporter comme des particules (photons, mis en évidence par l’effet photoélectrique) ou comme une onde (rayonnement produisant des interférences) selon le contexte expérimental, les électrons et autres particules pouvant également se comporter de manière ondulatoire ;

  • le principe d’indétermination de Heisenberg : une « indétermination » fondamentale empêche la mesure exacte simultanée de deux grandeurs conjuguées. Il est notamment impossible d’obtenir une grande précision sur la mesure de la vitesse d’une particule sans obtenir une précision médiocre sur sa position, et vice versa. Cette incertitude est structurelle et ne dépend pas du soin que l’expérimentateur prend à ne pas « déranger » le système ; elle constitue une limite à la précision de tout instrument de mesure ;
  • le principe de superposition quantique : si l’évolution d’un système est bel et bien déterministe (par exemple, la fonction d’onde régie par l’équation de Schrödinger), la mesure d’une observable d’un système dans un état donné connu peut donner aléatoirement une valeur prise dans un ensemble de résultats possibles ;
  • l’observation influe sur le système observé : au cours de la mesure d’une observable, un système quantique voit son état — initialement superposé — modifié. Ce phénomène, appelé réduction du paquet d’onde, est inhérent à la mesure et ne dépend pas du soin que l’expérimentateur prend à ne pas « déranger » le système ;
  • la non-localité ou intrication : des systèmes peuvent être intriqués de sorte qu’une interaction en un endroit du système a une répercussion immédiate en d’autres endroits. Ce phénomène contredit en apparence la relativité restreinte pour laquelle il existe une vitesse limite à la propagation de toute information, la vitesse de la lumière ; toutefois, la non-localité ne permet pas de transférer de l’information ;
  • la contrafactualité : des évènements qui auraient pu se produire, mais qui ne
  • explicable en faisant apper à des argumens encore plus inexplicables ne fait pas beaucoup progreer les conaissances

Un test significatif

Cependant l’hypothèse controversée selon laquelle des effets quantiques dans le cerveau pourraient expliquer la consciente a passé récemment un test significatif

Des expérimentations ont montre que la prise de produirs anaestésiques réduisait le temps d’action de petites structures existant dans les cellules cérébrales de l’homme et responsables d’excitations quantiques. Ces structures sont nommées des microtubules. Elles pourraient être le support de notre expérience consciente.

03/07/2025 Qu’est ce que la conscience ?

Aujourd’hui deux nouvelles hypothèses sur cette vieille question sont discutée chéz les chercheurs.

La première est l’ITT, Integrated information theory (IIT) ou Théorie de l’infortmation Intégrée. Elle explique comment l’expérience subjective d’un humain ou d’un animal découle de son activité cérébrale. Proposée par le chercheur italien Giulio Tononi en 2004, elle postule que la conscience peut être expliquée en termes de traitement cohérent de l’information par un système physique (cerveau humain dans le cas de l’Homme).

La seconde est la global neuronal workspace theory (GNWT). Elle identifie cinq traits essentiels de la conscience e tse demande quel système physique peut s’en prévaloir. Pour les partisans de cette hypothèse. la conscience apparaît dans tous systèmes dont les composants échangent de l’information sur une base mathématique qui peut être mesurée en utilisant une unité dite phi

Plus l’information est intégrée, plus phi est élevée  et plus le système est conscient .Le travail se fait dans le cortex préfrontal .

Pour tester ces deux hypothèses, Lucia Melloni du Max Planck Institute for Empirical Aesthetics en Allemagne et ses collaborateurs, qui comprenaient des partisans de l’une ou l’autre de ces deux théories, ont scanné les cerveaux de 250 sujets sur des hypothèses relatives à des figures ou à des lettres dont ils devaient avoir identifié l’origine. L’étude avait duré 7 ans et n’avait pas eu de conclusions évidentes.

Il s’agissait d’examiner quelles régions du cerveau recevaient les images, pendant combien de temps ils les percevaient, pendant combien de temps elles étaient actives et comment elles synchronisaient leur activité.

Les résultats furent d’abord présentés lors d’une conférence en 2023 puis publiés dans Natur.e (voir réfrérences ci-dessous) Ils furent considérés comme contradictoires

Références

Adversarial testing of global neuronal workspace and integrated information theories of consciousness

Nature volume 642, pages 133–142 (2025)

  • Abstract

Different theories explain how subjective experience arises from brain activity1,2. These theories have independently accrued evidence, but have not been directly compared3. Here we present an open science adversarial collaboration directly juxtaposing integrated information theory (IIT)4,5 and global neuronal workspace theory (GNWT)6,7,8,9,10 via a theory-neutral consortium11,12,13. The theory proponents and the consortium developed and preregistered the experimental design, divergent predictions, expected outcomes and interpretation thereof12. Human participants (n = 256) viewed suprathreshold stimuli for variable durations while neural activity was measured with functional magnetic resonance imaging, magnetoencephalography and intracranial electroencephalography. We found information about conscious content in visual, ventrotemporal and inferior frontal corte ly visual areas. These results align with some predictions of IIT and GNWT, while substantially challenging key tenets of both theories. For IIT, a lack of sustained synchronization within the posterior cortex contradicts the claim that network connectivity specifies consciousness. GNWT is challenged by the general lack of ignition at stimulus offset and limited representation of certain conscious dimensions in the prefrontal cortex. These challenges extend to other theories of consciousness that share some of the predictions tested here14,15,16,17. Beyond challenging the theories, we present an alternative approach to advance cognitive neuroscience through principled, theory-driven, collaborative research and highlight the need for a quantitative framework for systematic theory testing and building.

02/07/2025 (2) Part de la France dans les publications scientifiques mondiales

En 2010, la France occupait la 6e place des pays les plus communicants en termes de recherche scientifique, derrière le Japon. Douze ans plus tard, elle occoppe la 13e place, derrière le Brésil. Si ce décrochage a commencé en réalité dès le début des années 2000, il a eu tendance à accélérer ces dernières années.

Pourquoi cette situation ? La réponse à cette question parait simple.

La concurrence est de plus en plus forte.

    Le nombre de publications scientifiques a quasiment doublé entre 2010 et 2022 (+81 %) avec l’arrivée de nouveaux pays comme la Chine et l’Inde, qui ont massivement investi dans leur recherche. La Chine a même pris la place de numéro un mondial aux États-Unis en 2018, et ne l’a plus quittée depuis.

    Ensuite, la France à un problème de langue. Les revues scientifiques internationales sont rédigées en anglais. Or, il semble que les chercheurs français aient toujours des problèmes avec cette langue. Ils ont appris à comprendre, d’ailleurs approximativement, les articles en anglais ; mais ils ont toujours des difficultés à écrire directement des articles en anglais. Ils doivent faire appel à des collaborateurs ou stagiaires anglophnoses pour rédiger directement en anglais, à publier directement en anglais Il y a des progrsè, mais avec encore 5% de ses articles non-anglophones, la France fait toujous partie des mauvais élèves.

    Par ailleurs, la recherche française a un problème d’impact. Alors que nous faisons travailler beaucoup de chercheurs, notre impact sur la recherche internationale reste modéré.

    « Le tassement des indicateurs d’impact scientifique de la France observé depuis le milieu de la décennie 2010 se confirme », indique l’étude de ‘Observatoire des sciences et techniques dans son étude.

    Nos lecteurs ont compris que si nous avons toujours écrit directement en français sur ce site, c’est parce que notre anglais est déplorable. Il n’arrive pas à traduire les subtilisé de notre pensée.

    01/07/2025 Qui s’appropriera les trilliards de dollars de métaux rares récemment découverts sur la Lune

    Plus d’un trillion de dollars de platine et d’autres métaux précieux (palladium, rhodium, irridium, rutherium se trouveraient dans environ 6500 petits cratèrès formés sous à la surface de la Lune.

    Ils y auraient été apportés selon des simulations faites par des chercheurs canadiens par des astéroides métalliques étant entrés en collision avec la Lune depuis des millions d’années.

    (voir l’article référencé ci-dessous.

    Forer sur la Lune à la recherche de métaus serait plus facile que forer sue la Terre vu la moindre gravité de notre satellite. Cependant il s’agirait d’une opération importante.

    De plus, à qui appartiendraient les ressoudes ainsi obtenues ? Le Outer Space Treaty de 1967 prévoit qu’elles ne peuvent faire l’objet d’appropriations nationales. Mais Donald Trump a récemment indiqué qu’il ne tiendrait aucun compte de ce Traité. La Lune fait partie des ressources qu’il compte exploiter

    Référence

    Volume 263, 1 September 2025, 106129
    On ore-bearing asteroid remnants in lunar craters
    ttps://doi.org/10.1016/j.pss.2025.106129

    Planetary and Space Science


    Abstract

    We modify the probabilistic formalism developed by Elvis (2014) to estimate the number of lunar craters that contain ore-bearing asteroid remnants. When we consider craters at or above a threshold diameter of 1 km, we estimate an upper limit of craters with asteroid remnants containing significant amounts of platinum group metals and an upper limit of craters with asteroid remnants that contain significant amounts of water in the form of hydrated minerals. For a more conservative threshold of 5 km, we estimate craters with asteroid remnants that contain significant amounts of platinum group metals. These values are one to two orders of magnitude larger than the number of ore-bearing near-Earth asteroids estimated by Elvis (2014), implying that it may be more advantageous, and hence more profitable, to mine asteroids that have impacted the Moon rather than the ones that are in orbit.

    30/06/2025 Les calculateurs quantiques au cœur de la physique fondamentale




    Les calclateurs quantiques nous aideront à mieuxc comprendre ce qui se passe au cœur du LHC du CERN (Grand Accélérateur-Collisionneur de particules). Ils devraient faire bien mieux, en nous introduisant progressivement au coeur de la physique fondamentale, physique nucléaire et physique des particules.

    Deux groupes de chercheurs, dans deux expériences différentes, dont on trouvera ci-dessous les références et les résumés, en ont apporté la preuve. Il s’agissait de montrer comment des particules chargées donc très énergétiques, se comportaient dans des champs quantiques analogues à ceux que l’on rencontre dans la théorie quantique des champs

    https://fr.wikipedia.org/wiki/Th%C3%A9orie_quantique_des_champs

    Ceux-ci s’étendent à travers l’espace et exercent des forces sur les particules comme sur les astres. L’on commence seulement à découvrir leurs analogues, à une toute autre échelle, dans les accélérateurs.

    Les chercheurs utilisèrent des calculateurs quantiques extrêmement refroidis et commandés par des lasers. Nous n’insisterons pas ici sur ces expériences qui sortent du cadre de cet article. Leurs auteurs estiment que des calculateurs quantiques de plus grande taille pourraient aborder des questions aujourd’hui sans réponses, tant en physique des particules qu’en cosmologie.

    Sources

    Published: 04 June 2025

    Observation of string breaking on a (2 + 1)D Rydberg quantum simulator

    Nature volume 642, pages 321–326 (2025

    Abstract

    Lattice gauge theories (LGTs) describe a broad range of phenomena in condensed matter and particle physics. A prominent example is confinement, responsible for bounding quarks inside hadrons such as protons or neutrons1. When quark–antiquark pairs are separated, the energy stored in the string of gluon fields connecting them grows linearly with their distance, until there is enough energy to create new pairs from the vacuum and break the string. Although these phenomena are ubiquitous in LGTs, simulating the resulting dynamics is a challenging task2. Here we report the observation of string breaking in synthetic quantum matter using a programmable quantum simulator based on neutral atom arrays3,4,5. We show that a (2 + 1)-dimensional LGT with dynamical matter can be efficiently implemented when the atoms are placed on a Kagome geometry6, with a local U(1) symmetry emerging from the Rydberg blockade7. Long-range Rydberg interactions naturally give rise to a linear confining potential for a pair of charges, allowing us to tune both their masses and the string tension. We experimentally probe string breaking in equilibrium by adiabatically preparing the ground state of the atom array in the presence of defects, distinguishing regions within the confined phase dominated by fluctuating strings or by broken string configurations. Finally, by harnessing local control over the atomic detuning, we quench string states and observe string-breaking dynamics exhibiting a many-body resonance phenomenon. Our work provides opportunities for exploring phenomena in high-energy physics using programmable quantum simulators

    Visualizing dynamics of charges and strings in (2 + 1)D lattice gauge theories

    Nature volume 642, pages 315–320 (2025)

    Abstract

    Lattice gauge theories (LGTs)1,2,3,4 can be used to understand a wide range of phenomena, from elementary particle scattering in high-energy physics to effective descriptions of many-body interactions in materials5,6,7. Studying dynamical properties of emergent phases can be challenging, as it requires solving many-body problems that are generally beyond perturbative limits8,9,10. Here we investigate the dynamics of local excitations in a Lattice gauge theories (LGTs)1,2,3,4 can be used to understand a wide range of phenomena, from elementary particle scattering in high-energy physics to effective descriptions of many-body interactions in materials5,6,7. Studying dynamical properties of emergent phases can be challenging, as it requires solving many-body problems that are generally beyond perturbative limits8,9,10. Here we investigate the dynamics of local excitations in a GT using a two-dimensional lattice of superconducting qubits. We first construct a simple variational circuit that prepares low-energy states that have a large overlap with the ground state; then we create charge excitations with local gates and simulate their quantum dynamics by means of a discretized time evolution. As the electric field coupling constant is increased, our measurements show signatures of transitioning from deconfined to confined dynamics. For confined excitations, the electric field induces a tension in the string connecting them. Our method allows us to experimentally image string dynamics in a (2+1)D LGT, from which we uncover two distinct regimes inside the confining phase: for weak confinement, the string fluctuates strongly in the transverse direction, whereas for strong confinement, transverse fluctuations are effectively frozen11,12. We also demonstrate a resonance condition at which dynamical string breaking is facilitated. Our LGT implementation on a quantum processor presents a new set of techniques for investigating emergent excitations and string dynamics.



    30/06/2025 (2) L’informatique Quantique. Tout comprendre en quelques minutes.

    Nour republions ici, en la remerciant, un article de Isabelle Dunné
    L’ordinateur quantique : tout comprendre en 15 minutes

    • Les qubits peuvent représenter à la fois 0 et 1, contrairement aux ordinateurs classiques. Ils effectuent plusieurs calculs en même temps grâce à leur état superposé, accélérant la résolution de problèmes complexes.
    • À l’heure actuelle, un processeur quantique est encore au stade exploratoire : il prend beaucoup de place et l’optique sophistiquée nécessaire pour contrôler les qubits se compose de lasers, de lentilles et de miroirs.
    • Pour qu’un ordinateur quantique fonctionne, il doit être capable de corriger les erreurs dues à la nature imparfaite du matériel actuel et qui empêchent d’arriver au résultat final du calcul.
    • L’ordinateur quantique ne remplacera pas l’ordinateur personnel ou le smartphone, les premiers clients seront certainement les gouvernements et les grandes entreprises plutôt que le grand public.

    Les ordinateurs quantiques fonctionnent avec des bits quantiques, ou qubits, qui, contrairement aux bits informatiques standard ayant une valeur de soit 0 soit 1, peuvent être à la fois 0 et 1. Cette caractéristique signifie que les ordinateurs quantiques pourraient être beaucoup plus rapides que les ordinateurs classiques pour de nombreuses tâches. Ils pourraient également être utilisés pour résoudre certains problèmes qu’un ordinateur classique ne peut pas résoudre. 

    « Un ordinateur quantique manipulera de nombreux qubits dans un état massivement superposé : 0000 plus 1111, par exemple, explique Landry Bretheau. Dans cet état “intriqué”, plusieurs calculs peuvent être effectués en parallèle. Un exemple concret : imaginez que le calcul, le problème, soit de sortir d’un labyrinthe. Comment s’y prendre ? Un être humain ou un programme informatique va tester différents chemins. À chaque fois, il arrivera à une impasse, puis revendra sur ses pas. Il testera ainsi tous les chemins jusqu’à ce qu’il sorte du labyrinthe. Mais un système quantique peut être dans une superposition d’états, c’est-à-dire qu’il peut se trouver à plusieurs endroits en même temps. Il peut donc essayer d’explorer les différents chemins en parallèle et sortir du labyrinthe plus rapidement. »

    Les qubits peuvent être fabriqués à partir de différentes plateformes ou briques de base matérielles, telles que les qubits supraconducteurs, les particules élémentaires ou les ions piégés. D’autres méthodes en devenir sont les processeurs quantiques photoniques qui utilisent la lumière. « Nous utilisons le terme d’ordinateur quantique, mais il serait préférable de parler de processeur quantique, car l’intégralité d’un calcul ne peut pas être implémentée sur un ordinateur quantique, seulement une petite partie, explique Loïc Henriet. Nous aurons toujours besoin d’un processeur classique pour orchestrer l’ensemble des taches de calcul. »

    À l’heure actuelle, un processeur quantique est encore au stade exploratoire : il prend beaucoup de place — par exemple, celui sur lequel travaille l’équipe de Loïc Henriet occupe une grosse boîte de 3 mètres sur 2 mètres sur 2 mètres. Un vide très poussé, de 10-11 mbar, est également nécessaire pour placer les qubits dans des positions bien définies dans l’espace. Cela correspond à peu près à la pression à la surface de la lune.

    L’optique sophistiquée nécessaire pour contrôler les qubits se compose de lasers, de lentilles et de miroirs. Pour coordonner le fonctionnement de chacun de ces différents équipements (qui constituent le matériel ou hardware) et de les synchroniser, un logiciel embarqué est nécessaire. Ce logiciel correspond au système d’exploitation du processeur quantique.

    Applications potentielles

    Il existe de nombreux domaines dans lesquels un ordinateur quantique pourrait s’avérer plus utile qu’un ordinateur conventionnel, que ce soit en termes de temps de calcul ou de qualité des résultats obtenus. L’exemple le plus connu est l’algorithme de Shor, qui permet de factoriser efficacement un grand nombre en facteurs premiers, pour des applications en cryptographie et en sécurité informatique, par exemple. Les ordinateurs quantiques seront également très performants dans l’utilisation d’algorithmes spéciaux pour résoudre des problèmes d’optimisation complexes, tels que ceux liés à l’ordonnancement, au routage et à la logistique. Ces problèmes consistent à trouver la solution optimale parmi un grand nombre de possibilités — le plus célèbre étant le problème du « voyageur de commerce », qui doit trouver l’itinéraire le plus court possible entre plusieurs villes. Les entreprises de livraison et de logistique voudront certainement de ce fait adopter la technologie quantique.

    Les problèmes liés à la réactivité des molécules en bénéficieront également. « Il y a beaucoup de recherches dans ce domaine, explique Loïc Henriet. Avec un processeur quantique, nous pourrons effectuer des calculs beaucoup plus efficaces pour déterminer la réactivité de certaines protéines, par exemple, ce qui aura d’énormes applications pour l’industrie pharmaceutique et la synthèse de nouveaux médicaments. Nous pourrons également calculer les propriétés de nouveaux matériaux qui présentent un intérêt dans de nombreux domaines technologiques. »

    L’apprentissage automatique et l’intelligence artificielle sont également des domaines d’application importants, car les ordinateurs quantiques devraient être en mesure d’améliorer les algorithmes d’apprentissage automatique — potentiellement de manière spectaculaire — en fournissant des routines d’optimisation plus rapides et plus efficaces ou en explorant de nouveaux modèles et de nouvelles architectures. Il pourrait s’agir d’un nouveau marché massif, mais il dépendra de la construction d’ordinateurs quantiques pratiques à grande échelle et du développement d’algorithmes et d’applications capables de tirer parti de leurs capacités uniques.

    Vers l’universalité

    Pour qu’un ordinateur quantique fonctionne, il doit être « universel », c’est-à-dire qu’il doit être capable de corriger les erreurs dues à la nature imparfaite du matériel actuel et qui empêchent d’arriver au résultat final du calcul. La cause principale de ces erreurs est la décohérence des qubits eux-mêmes, qui détruit le caractère quantique des qubits et les ramène à l’état de bits classiques. La décohérence est provoquée par l’interaction des qubits avec leur environnement. 

    La véritable difficulté consiste donc à isoler efficacement le système. Pour ce faire, les qubits doivent généralement fonctionner à une température proche de 0 K, tout en étant protégés les uns des autres et de l’environnement. En plus de cela, des techniques de correction d’erreurs quantiques (QEC) peuvent être utilisées dans le but d’atteindre une « informatique quantique tolérante aux pannes ». Ces techniques consistent à utiliser un grand nombre de qubits pour créer un « qubit logique » beaucoup moins sujet aux erreurs. Selon les experts, un véritable « avantage », ou « suprématie » quantique ne pourra être atteint que lorsque les ordinateurs quantiques fonctionneront avec un million de qubits. Et comme le record actuel est encore inférieur à 100 qubits, il reste encore beaucoup de chemin à parcourir.

    Les défis importants

    Si, en théorie, rien n’empêche la création d’ordinateurs quantiques à grande échelle, il faut d’abord résoudre certains problèmes d’ingénierie d’envergure. « Les entreprises considèrent l’informatique quantique comme un investissement stratégique et ne veulent pas rater le virage, explique Loïc Henriet. Ce n’est plus maintenant une question de si, mais plutôt une question de quand le processeur quantique fera partie intégrante des solutions informatiques. »

    Nous sommes actuellement à l’aube d’une transformation technologique et, en France, nous avons les moyens d’être au cœur de cette révolution, tant au niveau académique qu’au niveau des entreprises et des start-ups. Bien sûr, les clients en bout de chemin et les entreprises doivent aussi être de la partie.

    Depuis environ cinq ans, nous assistons à une véritable montée en puissance 

    « Cela dit, un ordinateur quantique, universel ou non, ne remplacera pas votre ordinateur personnel ou votre smartphone de sitôt et les premiers clients seront certainement les gouvernements et les grandes entreprises plutôt que le grand public, ajoute Landry Bretheau. Les scientifiques eux-mêmes seront également les premiers utilisateurs et c’est pourquoi le monde de l’informatique quantique intéresse autant de disciplines : la chimie, la science des matériaux, la biologie et la physique. Chacune de ces disciplines va proposer un algorithme qui permettrait de résoudre une question bien précise. »

    « Depuis environ cinq ans, nous assistons à une véritable montée en puissance », explique-t-il. Certains parlent de « boum quantique » avec la création de nombreuses start-ups et des levées de fonds importantes.

    PsiQuantum et IonQ, qui ont levé respectivement 600 et 400 millions d’euros, en sont deux exemples marquants. « En France, nous avons le Plan Quantum, annoncé par le président Macron début 2021, et la start-up qui a le plus de vent en poupe d’un point de vue financier en France à l’heure actuelle est Pasqal, qui vient de lever 100 millions d’euros. »

    Bien que nous ne parviendrons probablement pas à fabriquer un ordinateur entièrement opérationnel et tolérant aux pannes dans les dix prochaines années, nous pouvons être sûrs que nous ferons en cours de route des découvertes insoupçonnées qui seront potentiellement utiles et changeront peut-être même le visage de la société, tout comme l’informatique classique l’a fait au cours des 50 dernières années et, plus récemment, l’Internet.

    « C’est une très belle période pour travailler dans ce domaine, déclare Landry Bretheau. Il y a beaucoup d’excitation et le secteur évolue très vite. »

    Isabelle Dumé

    30/06/2025 De nouveaux processeurs quantiques chez IBM

    Il avait été dit lors de la décennie précédente que celui qui dominera l’informatique quantique dominera le mone . Est-ce l’espoir d’IBM qui vient d’annoncer deux nouvaux processurs quantiques. En décembre 2023

    , lors de l’IBM Quantum Summit annuel à New York, IBM a présenté l’« IBM Quantum Heron », le premier d’une nouvelle série de processeurs permettant un calcul quantique utile, dont l’architecture a été conçue au cours des quatre dernières années afin d’ offrir les indicateurs de performance les plus élevés et les taux d’erreur les plus bas de tous les processeurs IBM Quantum à ce jour.

    IBM a également dévoilé l’IBM Quantum System Two, le premier ordinateur quantique modulaire de la compagnie et la pierre angulaire de l’architecture du superordinateur quantique d’IBM. Le premier IBM Quantum System Two, situé à Yorktown Heights, New York, a commencé à fonctionner avec trois processeurs IBM Heron et l’électronique de commande associée.

    Ce socle essentiel étant désormais en place, ainsi que d’autres percées dans le domaine du matériel, de la théorie et des logiciels quantiques, la compagnie étend sa feuille de route de développement IBM Quantum, avec de nouveaux objectifs visant à faire progresser de manière significative la qualité des opérations des portes quantiques. Cela devrait augmenter la taille des circuits quantiques pouvant être exécutés et contribuer à réaliser le plein potentiel de l’informatique quantique à grande échelle.

    « Nous sommes résolument entrés dans l’ère où les ordinateurs quantiques sont utilisés comme outil pour explorer les nouvelles frontières de la science », a déclaré Dario Gil, IBM SVP and Director of Research. « En continuant à faire progresser la manière dont les systèmes quantiques peuvent évoluer et apporter de la valeur grâce à des architectures modulaires, nous augmenterons encore la qualité d’une pile de technologies quantiques utiles – et la mettrons entre les mains de nos utilisateurs et partenaires qui repousseront les limites de problèmes plus complexes. »

    Comme l’a démontré IBM au début de l’année sur un processeur « IBM Quantum Eagle » de 127 qubits, les systèmes IBM Quantum peuvent désormais servir d’outil scientifique pour explorer des classes de problèmes utiles en chimie, en physique et en matériaux au-delà de la simulation classique brute de la mécanique quantique.

    Depuis cette démonstration, d’éminents chercheurs, scientifiques et ingénieurs d’organisations telles que le laboratoire national Argonne du ministère américain de l’énergie, l’université de Tokyo, l’université de Washington, l’université de Cologne, l’Université de Harvard, Qedma, Algorithmiq, l’Université de Berkeley, Q-CTRL, la Fondation Ikerbasque, le centre international de physique de Donostia et l’université du Pays basque, ainsi qu’IBM, ont multiplié les démonstrations de calcul quantique de taille utile, afin de confirmer sa valeur dans l’exploration de territoires informatiques inexplorés.

    Il s’agit notamment d’expériences déjà réalisées sur le nouveau processeur Quantum Heron de 133 qubits, qu’IBM met aujourd’hui à la disposition des utilisateurs via le Cloud. Le processeur IBM Heron est le premier de la nouvelle classe de processeurs performants d’IBM dont les taux d’erreur ont été considérablement améliorés, offrant une amélioration cinq fois supérieure par rapport aux précédents records établis par le processeur IBM Eagle. D’autres processeurs IBM Heron rejoindront la flotte de systèmes utiles, leader du secteur, d’IBM au cours de l’année prochaine.

    L’IBM Quantum System Two constitue le socle de l’architecture du système informatique quantique de nouvelle génération d’IBM. Il combine une infrastructure cryogénique évolutive et des serveurs d’exécution classiques avec une électronique modulaire de contrôle des qubits. Le nouveau système est un élément constitutif de la vision d’IBM d’un superordinateur quantique. Cette architecture combine la communication et le calcul quantiques, assistés par des ressources de calcul classiques, et s’appuie sur une couche middleware pour intégrer de manière appropriée les flux de travail quantiques et classiques.

    Dans le cadre de la nouvelle feuille de route de développement IBM Quantum sur dix ans, IBM prévoit que ce système hébergera également les futures générations de processeurs quantiques d’IBM. Toujours dans le cadre de cette feuille de route, ces futurs processeurs sont destinés à améliorer progressivement la qualité des opérations qu’ils peuvent exécuter afin d’étendre de manière significative la complexité et la taille des applications qu’ils sont capables de gérer.

    Aujourd’hui, IBM détaille également les plans d’une nouvelle génération de sa pile logicielle, au sein de laquelle Qiskit 1.0 sera un point pivot défini par la stabilité et la vitesse. En outre, dans le but de démocratiser le développement dans le domaine de l’informatique quantique, IBM annonce Qiskit Patterns.

    Qiskit Patterns servira de mécanisme pour permettre aux développeurs quantiques de créer plus facilement du code. Il est basé sur une collection d’outils permettant de cartographier de façon simple des problèmes classiques, de les optimiser en circuits quantiques à l’aide de Qiskit, d’exécuter ces circuits à l’aide de Qiskit Runtime, puis de post-traiter les résultats. Avec Qiskit Patterns, combiné à Quantum Serverless, les utilisateurs pourront concevoir, déployer et exécuter des flux de travail intégrant l’informatique classique et quantique dans différents environnements, tels que des scénarios Cloud ou sur site. Tous ces outils fourniront des éléments de base permettant aux utilisateurs de concevoir et d’exécuter plus facilement des algorithmes quantiques.

    De plus, IBM est pionnier dans l’utilisation de l’IA générative pour la programmation de code quantique par le biais de watsonx, la plateforme d’IA d’entreprise d’IBM. IBM intégrera l’IA générative disponible via watsonx pour aider à automatiser le développement du code quantique pour Qiskit. Cet objectif sera atteint grâce à l’ajustement du modèle IBM Granite.

    « L’IA générative et l’informatique quantique atteignent toutes deux un point d’inflexion, ce qui nous donne l’occasion d’utiliser le cadre du modèle de fondation de confiance de watsonx pour simplifier la façon dont les algorithmes quantiques peuvent être construits pour l’exploration utile », a déclaré Jay Gambetta, Vice President and IBM Fellow chez IBM. « Il s’agit d’une étape importante vers l’élargissement de l’accès à l’informatique quantique et sa mise à la disposition des utilisateurs en tant qu’instrument d’exploration scientifique. »

    Grâce au matériel avancé de la flotte mondiale d’IBM, qui compte des systèmes de plus de 100 qubits, ainsi qu’au logiciel facile à utiliser qu’IBM lance dans Qiskit, les utilisateurs et les spécialistes en science informatique peuvent désormais obtenir des résultats de plus en plus fiables à partir des systèmes quantiques lorsqu’ils transposent des problèmes de plus en plus vastes et complexes sur des circuits quantiques.

    https://fr.newsroohttps://fr.newsroom.ibm.com/IBM-presente-un-processeur-quantique-de-nouvelle-generation-ainsi-que-lIBM-Quantum-System-Two-et-etend-sa-feuille-de-route-pour-faire-progresser-lere-dun-calcul-quantique-utiletps://fr.newsroom.ibm.com/IBM-presente-un-processeur-quantique-de-nouvelle-generation-ainsi-que-lIBM-Quantum-System-Two-et-etend-sa-feuille-de-route-pour-faire-progresser-lere-dun-calcul-quantique-utile

    29/06/2025 Le Materials Discovery Research Institute (MDRI)

    Il est connu que l’air le plus sec, tel que celui que l’on trouve dans les parties désertiques du Sahare, comporte assez de vapeur d’eau, pour satisfaire les besoins en eau ds nombreuses plantes.

    Le Sahara compte environ 1 200 espèces de plantes vasculaires. Elles ne poussent pas selement dans le lit des oueds

    Voir https://www.lamiduvent.fr/flore-et-vegetation-du-sahara/du-sahara/

    Aux Etats-Unis, dans l’Illinois, Timur Islamoglu, Directeur de recherche au Materials Discovery Research Institute (MDRI), s’efforce depuis quelques années de mettre au point des substances qui extrairaient de l’air sec du désert assez d’eau o pour en faire une source durable d’eau potable. Ceci devrai permettre de faire face à l’aridité prévue en conséquence du réchauffement climatique. Il vise des régions dont l’humidité relative serait inférieure à moins 30 pour cent , qui seront les premières victimes du réchauffement

    Inaguré en 20222, le MDRI, nouvelle division au sein du UL Research Institutes (ULRI) a mis en place un laboratoire doté de techniques avancées en septembre 2024. Outre fournir de l’eau potable et extraire les exces de CO2,e laboratoire sera chargé de produire de l’hydrogène en remplacement du gazoil. La combustion de l’hydrogène ne libère que de l ethylènz , beaucoup moins toxique

    https://fr.wikipedia.org/wiki/%C3%89thyl%C3%A8ne

    Pour extraire l’eau de l’air dans les régions arides, le labotoire vise à produire des substances poreuses semblables à des éponges adaptées à l’humidité relative.

    Le proche avenir dira ce qu’il en sera de ces objectifs

    28/06/2025 Vers un calculateur qui produirait de l’information en utilisant la gravité


    L’espace-temps est-il en expansion infinie ou peut-il etre complexifié de façon à ce qu’il affecte un signal le traversant. La réponse est négative selon la théorie de la relativité spéciale de Einstein, mais la théorie de la relativité générale révelle quelque chose de différent. Les objets massifs déforment et courbent l’espace comme lorsque une balle lancée sur une toile tendue la déforme. Ceci change un e signal voyageant à proximité.

    Eleftherios-Ermis de l’école polytechnique de Bruxelles et Ämin Baumeler, de l’université de Lugano en Italie ont mis au point un test mathématique précisant si l’espace-temps dans n’importe quelle région du monde étudiéeest fixe ou déformable

    Ils ont développé un scénario dans lequel 3 ou plus de personne échangent de l’information par message. Ils se sont demandé quant il était possible de savoir si l’une de ces personne, Alice, Bob ou Charlie pouvait changer le voyage de l’information en courbant l’espace temps proche.

    Les chercheurs Treskelis et Baumeler ont proposé une équation permettant à Alice, Bob et Chaalie de savoir quand ces situations étaient possibles et quand elles ne l’étaient pas .Après plusieurs envois de message, ils pouvaient compter qui avait eu le message et quand. Ensuite ils introduire ces données dans l’équation.

    Mais cette nouvelle théorie pourrait elle permettre d’obtenir des calculateurs utilisant les effets de la gravité pour être plus plus rigoureux. En déplaçant des masses autour d’eux et en déformant l’espace-temps, pourraient ils mettre à l’épreuve les fondements de la relativité générale? La réponse semble négative.

    Plusieurs travaux théoriques récents étudient les effets de la gravité sur des systèmes quantiques, en particulier aux abords des trous noirs. L es trous noirs sont des corps célestes tellement denses qu’ils piègent matière et information qui passent à proximité.

    Des physiciens pensent avoir réussi à prédire que les effets de gravité au bord d’un trou noir empêchent la réalisation d’une téléportation quantique dans cet espace.

    Référence

    Gravity produces notoriously weak signals for objects that aren’t extremely massive, which is why you never feel the effect of space-time warping around a pencil on your desk. Still, some devices, such as clocks made from extremely cold atoms, can detect these effects. Future development of such devices – combined with advances in theories connecting gravity and information – could lead to more practical applications of Tselentis and Baumeler’s work.

    [Submitted on 23 Dec 2024 (v1), last revised 13 Feb 2025 (this version, v2)]

    No quantum advantage for violating fixed-order inequalities?

    Veronika Baumann, Ämin Baumeler, Eleftherios-Ermis Tselentis

    In standard quantum theory, the causal relations between operations are fixed. One can relax this notion by allowing for dynamical arrangements, where operations may influence the causal relations of future operations, as certified by violation of fixed-order inequalities, e.g., the k-cycle inequalities. Another, non-causal, departure further relaxes these limitations, and is certified by violations of causal inequalities. In this paper, we explore the interplay between dynamic and indefinite causality. We study the k-cycle inequalities and show that the quantum switch violates these inequalities without exploiting its indefinite nature. We further introduce non-adaptive strategies, which effectively remove the dynamical aspect of any process, and show that the k-cycle inequalities become ovel causal inequalities; violating k-cycle inequalities under the restriction of non-adaptive strategies requires non-causal setups. The quantum switch is known to be incapable of violating causal inequalities, and it is believed that a device-independent certification of its causal indefiniteness requires extended setups incorporating spacelike separation. This work reopens the possibility for a device-independent certification of the quantum switch in isolation via fixed-order inequalities instead of causal inequalities. The inequalities we study here, however, turn out to be unsuitable for such a device-independent certification.

    Comments:10 pages, 3 figures, 2 pages appendix, improved presentation, references added
    Subjects:Quantum Physics (quant-ph)
    Cite as:arXiv:2412.17551

    (or arXiv:2412.17551v2 [quant-ph] for this version)