Przełom w obliczeniach kwantowych: chip krzemowy osiąga rekordową dokładność

4

Naukowcy z Silicon Quantum Computing (SQC) zaprezentowali nowy układ obliczeń kwantowych, który charakteryzuje się niespotykaną precyzją, co stanowi znaczący krok w kierunku praktycznych obliczeń kwantowych. Osiągnięcie opiera się na nowej architekturze krzemowej o nazwie „14/15”, która wykorzystuje unikalne właściwości atomów fosforu osadzonych w płytkach krzemowych. Takie podejście pozwala uniknąć problemów napotykanych przez inne platformy kwantowe, takie jak nadprzewodnictwo czy pułapki jonowe, minimalizując błędy na podstawowym poziomie kubitu.

Architektura 14/15: Nowe podejście do stabilności Qubitu

Główna innowacja polega na precyzji wykonania tych kubitów. W odróżnieniu od tradycyjnej produkcji chipów krzemowych, w procesie SQC powstają kubity w skali atomowej – o rozmiarach elementów tak małych jak 0,13 nanometra. Ten poziom precyzji znacznie zmniejsza niestabilność i błędy, które nękają inne systemy, w których kubity są bardziej podatne na wpływy zewnętrzne.

Kluczową korzyścią jest wydajność: ponieważ występuje mniej błędów, do ich naprawienia potrzeba mniej zasobów. Dzięki temu system jest bardziej zoptymalizowany i skalowalny.

Wskaźniki wiarygodności rekordów

Układ SQC wykazał wskaźniki niezawodności w zakresie od 99,5% do 99,99% w dziewięciordzeniowym i dwuatomowym komputerze kubitowym. Wyniki te, opublikowane 17 grudnia w czasopiśmie Nature, stanowią pierwszy udany dowód obliczeń kwantowych na atomowym krzemie w poszczególnych klastrach. Metryki niezawodności mierzą skuteczność technik korekcji błędów, a liczby SQC są najnowocześniejsze ze względu na swoją architekturę.

Podczas gdy inne projekty mogą pochwalić się dużą liczbą kubitów, podejście SQC koncentruje się na jakości, a nie na ilości. Dzieje się tak, ponieważ projekt jest wbudowany w projekt: architektura 14/15 teoretycznie pozwala na użycie milionów kubitów funkcjonalnych bez wykładniczego wzrostu błędów obserwowanego na konkurencyjnych platformach.

Dlaczego to ma znaczenie: wyścig do odporności na błędy

Obliczenia kwantowe polegają na utrzymywaniu delikatnych stanów kwantowych (superpozycji) wystarczająco długo, aby możliwe było wykonanie obliczeń. Błędy nieuchronnie powstają z powodu szumu zewnętrznego, co prowadzi do zniszczenia kubitów i utraty informacji. Dlatego właśnie korekcja błędów ma kluczowe znaczenie, ale wiąże się z kosztami: przydzielaniem dodatkowych kubitów w celu sprawdzania i poprawiania błędów.

Architektura SQC minimalizuje te błędy u źródła, zmniejszając potrzebę rozległej korekcji błędów. To zmienia zasady gry, ponieważ wraz ze wzrostem liczby kubitów rosną również koszty wymagane do korekcji błędów. Obniżając podstawowy poziom błędów, SQC zmniejsza to obciążenie, czyniąc wielkoskalowe komputery kwantowe bardziej wykonalnymi.

Doskonały test porównawczy: algorytm Grovera

Branżowym standardem testowania wydajności obliczeń kwantowych jest algorytm Grover, funkcja wyszukiwania zaprojektowana w celu wykazania przewagi kwantowej nad klasycznymi komputerami. SQC osiągnęło niezawodność algorytmu Grovera na poziomie 98,9% bez korekcji błędów, co pobiło wyniki IBM i Google, które w dalszym ciągu polegają na ograniczaniu błędów, nawet przy większej liczbie kubitów.

Oznacza to, że kubity SQC są z natury bardziej stabilne i wymagają mniejszej mocy obliczeniowej do utrzymania spójności. Chociaż wyzwania związane z infrastrukturą nadal istnieją, zespół uważa, że ​​ich platforma jest gotowa do skalowania do milionów kubitów przy jednoczesnej minimalizacji zużycia energii i rozmiaru systemu fizycznego.

Opracowanie tego chipa jest krytycznym krokiem w kierunku przekształcenia obliczeń kwantowych z teoretycznej możliwości w rzeczywistość. Stawiając na pierwszym miejscu precyzję, a nie prymitywne skalowanie liczby kubitów, SQC toruje drogę odpornym na awarie procesorom QPU, które mogą zrewolucjonizować dziedziny takie jak medycyna, materiałoznawstwo i sztuczna inteligencja.