07/09/2024. Sur l’indispensable correction des erreurs quantiques

Dans l’article précédent nous avions signalé l’étape importante que représente la correction des erreurs quantiques dans la dernière annonce faite par Google (Quantum AI), une start-up financé par Google dans le domaine de l’informatique quantique.

Voici pourquoi c’est une étape importante. Les ordinateurs quantiques fonctionnent en manipulant des qubits d’une manière coordonnée, fondée sur des algorithmes quantiques. Le défi vient du fait que les qubits sont si sensibles que même la lumière du jour peut provoquer des erreurs de calcul.

Plus les ordinateurs quantiques se développent, plus ce problème s’aggrave. Il en résulte des conséquences majeures, car les meilleurs algorithmes quantiques connus pour exécuter des opérations utiles exigent que les taux d’erreur des qubits soient très inférieurs à ceux constatés aujourd’hui. Pour combler cet écart, la correction d’erreur quantique est un élément essentiel.

La correction d’erreur quantique protège les informations en les codant sur plusieurs qubits physiques pour former un « qubit logique ». Elle est considérée comme le seul moyen de produire un ordinateur quantique à grande échelle avec des taux d’erreur suffisamment faibles pour des calculs utiles.

Au lieu de calculer sur les qubits individuels eux-mêmes, l’ordinateur calcule sur des qubits logiques. En codant un nombre plus important de qubits physiques sur un seul des qubits logiques du processeur quantique, il devrait être possible de réduire suffisamment les taux d’erreur pour activer des applications utiles dans la société d’aujourd’hui.

Mais la route est encore longue permettant d’obtenir des systèmes utilisant des milliers de qubits logiques avec de faibles taux d’erreur.

Plusieurs composants de la technologie devront être améliorés, de la cryogénie à l’électronique de contrôle en passant par la conception et la
réalisation des matériaux dont sont faits les qubits. Avec de tels
progrès, la possibilité d’obtenir les ordinateurs quantiques à grande échelle apparait plus clairement.

Le développement de processeurs quantiques sera aussi un excellent banc d’essai pour l’ingénierie assistée par l’IA et dans l’utilisation du Machine Learning afin d’améliorer les ordinateurs quantiques eux-mêmes.

Qu’est ce que la correction d’erreurs quantiques.

Il s’agit d’un ensemble de techniques utilisées pour protéger les informations stockées dans les qubits des erreurs et de la décohérence causées par le bruit.

Les ordinateurs quantiques actuels ont des taux d’erreur élevés : environ 1 erreur se produit sur 1 000 opérations avant de tomber en panne. Pour que ces ordinateurs soient utiles, les taux d’erreur doivent être aussi bas que possible, soit 1 sur mille milliards environs. Une amélioration considérable des performances est donc nécessaire, mais des progrès avérés sont déjà en cours

Mais pourquoi la correction des erreurs quantiques est-elle un défi si difficile à résoudre ?

Les qubits, les éléments constitutifs des ordinateurs quantiques, sont extrêmement sensibles aux perturbations environnementales. Le moindre changement de température ou toute interaction avec les molécules environnantes peut entraîner la perte d’informations par un qubit. De plus, des millions de qubits sont nécessaires pour effectuer des calculs utiles.

Des décodeurs puissants sont donc nécessaires pour détecter et corriger les erreurs avec une précision totale et à des vitesses considérables.

Le décodage en temps réel est un défi considérable pour les ordinateurs quantiques rapides, car un million de séries de résultats de mesure sont produites chaque seconde. Si l’on ne décode pas assez vite, l’on se trouve face à un retard exponentiellement croissant dans le traitement des données. Pour que l’informatique quantique soit utile, il faut donc pousser l’échelle du décodeur jusqu’à des vitesses de décodage dites Teraquop .   


Laisser un commentaire