10/12/2024 Une prochaine révolution dans le calcul quantique

Jusqu’à présent les gains de productivité apportés par le recours aux calculateurs quantiques, tels que la vitesse d’exécution, étaient compensés par des contraintes spécifiques à ces appareils. On citera notamment la taille à leur donner pour les rendre capables de réduire leurs erreurs, erreurs spécifiques dues notamment au fait que les qubits peuvent avoir une infinité de valeurs, au contraire des bits ordinaires dont la valeur ne peut être que un ou zéro.

Cependant récemment IBM, Microsoft et Atom Computers ont annoncé que leurs machines bénéficiaient désormais de progrès décisifs.

IBM

IBM a annoncé deux nouvelles puces quantiques, Condor et Heron, avec respectivement 1121 et 133 qubits2La puce R2 Heron intègre 156 qubits dans une structure unique, disposés dans un réseau hexagonal pour une exécution rapide des calculs

Après avoir introduit les processeurs quantiques Eagle en 2021 (127 qubits) et Osprey (433 qubits) en 2022, IBM annonce maintenant l’arrivée de ses nouvelles puces baptisées Condor et Heron, avec respectivement 1121 et 133 qubits. Ces nouveaux processeurs ont notamment permis de démontrer que le nombre de qubits ne reflète pas forcément la performance globale.

IBM considère que le calcul quantique jouera un rôle central dans le développement des systèmes informatiques de haute performance

Lors du dernier IBM Quantum Summit, l’entreprise a annoncé des avancées significatives qui la rapprochent de cette vision. Elle a révélé deux nouveaux processeurs, Heron et Condor.

Le processeur Condor se démarque par une quantité record de qubits : 1121. Il est doté d’une technologie de porte à résonance croisée. Il s’agit d’une méthode permettant d’obtenir des interactions entre qubits dans un circuit quantique. Elle est cruciale pour effectuer des opérations quantiques complexes. Dans ce nouveau processeur, IBM a réussi à augmenter de 50% la densité en qubits, une prouesse technique notable.

En contrepartie IBM souligne l’ampleur de l’infrastructure nécessaire pour gérer le Condor. En effet, plus de 1,6 kilomètre de câblage cryogénique haute densité est nécessaire. Ce dernier est essentiel pour maintenir les qubits à des températures extrêmement basses nécessaires à leur bon fonctionnement.

Malgré son nombre de qubits élevé, IBM note que les performances du Condor sont comparables à celles de l’Osprey, qui possède 433 qubits. Néanmoins, il est décrit comme une « étape majeure » en matière d’innovation, car il permettra d’influencer la conception hardware future. Autrement dit, les avancées réalisées avec Condor pourraient conduire à de nouvelles générations de processeurs quantiques, qui devraient être beaucoup plus performants.

IBM annonce également l’arrivée de Heron, une autre puce cette fois-ci dotée de « seulement » 133 qubits. Ce processeur possède malgré cela une caractéristique importante, un taux d’autocorrection d’erreurs élevé. Par exemple, comparé à Eagle (127 qubits), il est entre 3 à 5 fois plus performant sur ce plan.

Heron a aussi l’avantage d’être modulaire, ce qui signifie qu’il est possible de combiner plusieurs puces pour augmenter la capacité de traitement quantique globale. Par ailleurs, IBM a également présenté le Quantum System Two, un système composé de trois puces Heron. Déjà opérationnel dans un laboratoire à New York, il est conçu pour effectuer des exécutions de circuits parallèles, une fonction essentielle pour le supercalcul quantique.

Pendant plusieurs années, IBM a adopté une stratégie de développement qui visait à augmenter chaque année le nombre de qubits de ses processeurs chaque année. Mais dans son annonce, la firme semble maintenant vouloir se concentrer sur d’autres critères de performance, notamment la résistance aux erreurs.

Rappelons que les qubits sont extrêmement sensibles aux interférences extérieures, ce qui conduit à des erreurs de calcul. C’est pourquoi le développement de techniques de correction d’erreurs est crucial pour rendre les ordinateurs quantiques pratiques et fiables. Pour surmonter ce problème, les physiciens d’IBM ont développé une approche dans laquelle plusieurs qubits physiques sont rassemblés pour créer un seul « qubit logique ». Cette stratégie permettrait d’améliorer la précision et la fiabilité des calculs.

IBM a annoncé son intention de disposer d’un « nombre utile » de qubits logiques d’ici la fin de la décennie. Cette initiative s’inscrit dans sa feuille de route visant à développer davantage sa technologie de correction d’erreurs, essentielle pour réaliser des calculs quantiques plus avancés.

Microsoft

En avril, Microsoft et Quantinuum annonçaient des « qubits logiques les plus fiables jamais enregistrés ». Les deux partenaires utilisaient une technique bien connue dans le monde du quantique : associer des qubits physiques entre eux pour former des qubits logiques avec un taux d’erreur plus faible.

Un qubit n’est en effet pas l’élément le plus stablets « utiles » pour les calculs. Il faut d’ailleurs faire attention à cette distinction quand un fabricant annonce une machine avec xx qubits : sont-ils logiques ou physiques ? Multiplier le nombre de qubits physiques pour un seul qubit logique permet de limiter les erreurs, mais assembler et faire fonctionner de concert de nombreux qubits physiques est compliqué à mettre en œuvre. Il faut donc trouver un juste milieu.

Pour être complet, il manque néanmoins le nombre de portes quantiques que peut tenir la machine et/ou la durée d’utilisation des qubits pour des calculs. Ce sont également des paramètres importants pour cerner les capacités de l’ordinateur.

En informatique classique, les bits peuvent tenir dans le temps sans aucun problème, on peut donc réaliser de très longues opérations passant à travers énormément de portes logiques. En quantique, ce n’est pas aussi simple.

Microsoft n’est pas encore au bout du chemin, loin de là. La société est confrontée à un probléme : « le bruit reste notre plus grand obstacle », d’autant plus quand le nombre de qubits physiques augmente. Elle rappelle « à quel point l’augmentation du nombre de qubits physiques ne suffit pas à elle seule à rendre possible une correction d’erreur quantique robuste […] Cela sera possible grâce aux progrès matériels et logiciels qui, ensemble, permettront d’exécuter des applications quantiques plus longues et plus fiables ».

En guise de conclusion, Microsoft se montre pragmatique : « Un véritable changement de paradigme sur le calcul nécessite de se concentrer sur des applications pratiques et commercialement pertinentes ». Une manière de dire qu’empiler des qubits sans pouvoir l’exploiter derrière ne sert pas à grand-chose. L’informatique quantique est une réalité, elle fonctionne. Microsoft veut maintenant appliquer la théorie dans le monde réel.

Atom Computing

Contrairement à d’autres entreprises qui travaillent avec des ions, Atom Computing utilise des atomes neutres d’ytterbium, organisés dans une matrice et manipulés grâce à des lasers. La firme avait déjà annoncé avoir réussi à atteindre un temps de cohérence pour ses qubits de 40 secondes, ainsi que la capacité de mesurer l’état de qubits spécifiques pendant les calculs et ainsi détecter certaines erreurs, sans perturber les autres qubits.

Atom Computing a indiqué qu’il mettrait son ordinateur quantique au service des entreprises, des universités et des administrations dès 2024.

Laisser un commentaire