10/07/2023 Vers un calculateur quantique pouvant calculer avec un taux d’erreur acceptable

Il a souvent été dit – avec peut-être un rien d’optimisme exagéré – que le pays ou l’organisation qui maîtrisera l’ordinateur quantique dominera le monde. Aujourd’hui, que ce soit dans les modèles destinés à simuler des problèmes scientifiques de plus en plus complexes ou dans l’utilisation d’engins militaire sans pilotage humain, tout repose non seulement sur la puissance de calcul des ordinateurs quantiques, mais dans leurs capacités à détecter et réparer rapidement leurs erreurs. Or dans ces domaines, ils s’étaient montrés jusqu’au présent décevants

Or Google vient d’annoncer, notamment dans un article de Nature dont on trouve ci-dessous les références et le résumé, qu’une méthode de correction d’erreurs dans les calculateurs quantique qu’il vient d’expérimenter, pourrait être utilisée à grande échelle .

Comme l’on sait, les ordinateurs quantiques utilisent des bits quantiques ou qubits. Le bit ou binary digit est l’unité d’information en matière de calcul et de communication. Il représente un état logique avec deux valeurs possible, le zero et le un. Le bit quantique peut prendre une infinité de valeurs entre ces deux limites. Autrement dit le calculateur quantique peut faire une infinité d’erreurs. Il n’est pas contrôlable ni corrigible avec les méthodes ordinaires.

Cependant, une filiale de Google spécialisée dans le calcul quantique, Google Quantum AI, vient d’annoncer être en mesure de le faire. A cette fin, elle a accru la taille des qubit logiques jusqu’à ce que cette augmentation de taille entraîne, après l’avoir augmenté, une diminution du taux d’erreurs, de 3,02 pour cent à 2,9 pour cent. Logiquement ce taux d’erreurs devrait continuer à diminuer avec l’augmentation de la taille. Google reste très discret concernant les raisons de cette amélioration des performances

Le calculateur utilisé pour ces mesures est un Sycomore de la 3e génération de 53 qubits,

Référence

Suppressing quantum errors by scaling a surface code logical qubit

https://www.nature.com/ahttps://www.nature.com/articles/s41586-022-05434-1rticles/s41586-022-05434-1

Nature  volume614
pages 676–681 (2023)

  • Practical quantum computing will require error rates well below those achievable with physical qubits. Quantum error correction offers a path to algorithmically relevant error rates by encoding logical qubits within many physical qubits, for which increasing the number of physical qubits enhances protection against physical errors. However, introducing more qubits also increases the number of error sources, so the density of errors must be sufficiently low for logical performance to improve with increasing code size. Here we report the measurement of logical qubit performance scaling across several code sizes, and demonstrate that our system of superconducting qubits has sufficient performance to overcome the additional errors from increasing qubit number. We find that our distance-5 surface code logical qubit modestly outperforms an ensemble of distance-3 logical qubits on average, in terms of both logical error probability over 25 cycles and logical error per cycle ((2.914 ± 0.016)% compared to (3.028 ± 0.023)%). To investigate damaging, low-probability error sources, we run a distance-25 repetition code and observe a 1.7 × 10−6 logical error per cycle floor set by a single high-energy event (1.6 × 10−7 excluding this event). We accurately model our experiment, extracting error budgets that highlight the biggest challenges for future systems. These results mark an experimental demonstration in which quantum error correction begins to improve performance with increasing qubit number, illuminating the path to reaching the logical error rates required for computation.

Laisser un commentaire