
Wstęp
W tym tygodniu firma Microsoft trafiła na pierwsze strony gazet za sprawą premiery przełomowego kwantowego układu komputerowego Majorana 1. Ten innowacyjny układ, na tyle kompaktowy, że mieści się na dłoni, wykorzystuje topologiczne kubity — koncepcję, która, choć złożona, oferuje znaczące korzyści pod względem odporności na błędy.
Obecnie Majorana 1 ma 8 kubitów, ale Microsoft planuje zwiększyć tę liczbę do imponującego 1 miliona kubitów w przyszłości. Ten postęp zmienia oś czasu dla praktycznych komputerów kwantowych, skracając oczekiwanie z dekad do zaledwie kilku lat.
W tym artykule redakcyjnym przyjrzymy się potencjałowi transformacyjnemu komputerów kwantowych, przeanalizujemy ich kontekst historyczny, zagłębimy się w szczegóły misji Majorana 1 i ocenimy prognozy branży dotyczące harmonogramu rozwoju komputerów kwantowych.

Zalety komputerów kwantowych
Komputery kwantowe są od lat modnym słowem, ale wielu uważa ten temat za przerażający. Kluczowym wnioskiem jest to, że po pełnym zrealizowaniu komputery kwantowe przewyższą klasyczne systemy w rozwiązywaniu konkretnych problemów, znacznie przyspieszając przetwarzanie złożonych danych.
Klasyczne obliczenia opierają się na bitach, które reprezentują wartości binarne 0 lub 1. Bity te stanowią podstawowe jednostki obliczeń w mikrochipach, które często zawierają miliardy tranzystorów pełniących funkcję bramek logicznych dla operacji takich jak AND, OR i NOT. To sekwencyjne przetwarzanie, choć skuteczne, z natury ogranicza szybkość obliczeń.
W przeciwieństwie do tego komputery kwantowe wykorzystują kubity, które posiadają unikalne właściwości pozwalające im reprezentować 0, 1 lub oba jednocześnie — zjawisko znane jako superpozycja. Ta zdolność umożliwia systemom kwantowym przetwarzanie informacji równolegle, co znacznie zwiększa wydajność.
Innym potężnym aspektem obliczeń kwantowych jest splątanie, w którym kubity łączą się ze sobą w taki sposób, że stan jednego bezpośrednio wpływa na drugi, niezależnie od odległości. Ta relacja zwiększa szybkość przetwarzania informacji i ułatwia rozwiązywanie złożonych problemów.
Inną podstawową zasadą w obliczeniach kwantowych jest interferencja, która pomaga udoskonalić wyniki obliczeniowe. Wzmacniając pożądane wyniki, a jednocześnie minimalizując inne, interferencja optymalizuje wydajność obliczeń.
Komputery kwantowe wykorzystują bramki kwantowe, uzupełniając bramki logiczne stosowane w komputerach klasycznych, do wykonywania algorytmów kwantowych, takich jak algorytm Shora do faktoryzacji dużych liczb i algorytm Grovera do przyspieszania przeszukiwania baz danych. Ta możliwość pozwala maszynom kwantowym rozwiązywać problemy, których klasyczne systemy nie potrafią skutecznie rozwiązać.
Realizacja praktycznych obliczeń kwantowych może zrewolucjonizować wiele dziedzin, w tym kryptografię, farmaceutykę, sztuczną inteligencję, usługi finansowe, modelowanie klimatu i wiele innych. Na przykład, podczas gdy komputery kwantowe stanowią zagrożenie dla obecnych metod szyfrowania, mogą również utorować drogę dla bezpieczniejszych systemów kryptograficznych.
Co więcej, komputery kwantowe mają ogromny potencjał w zakresie przyspieszenia odkryć leków i udoskonalenia nauki o materiałach. Dzięki nim będziemy mogli symulować oddziaływania molekularne z niespotykaną dotąd dokładnością.
W finansach obliczenia kwantowe umożliwią bardziej wyrafinowane strategie inwestycyjne poprzez ocenę wielu scenariuszy jednocześnie. Branże od opieki zdrowotnej po telekomunikację i produkcję mogą znacznie zyskać na efektywności, jaką obliczenia kwantowe mogą odblokować, co prawdopodobnie doprowadzi do oszczędności kosztów, z których skorzystają konsumenci.
Krótki przegląd historii komputerów kwantowych
Koncepcje leżące u podstaw obliczeń kwantowych pojawiły się w latach 80., choć jasna historia ich pochodzenia jest nieuchwytna. Amerykański fizyk Paul Benioff był jednym z pierwszych, którzy opisali kwantowo-mechaniczny model obliczeń, podczas gdy Richard Feynman zasugerował wykorzystanie obliczeń kwantowych do symulacji systemów fizycznych, których klasyczne komputery nie potrafiły skutecznie modelować.
Brytyjski fizyk David Deutsch dokonał przełomowych odkryć, m.in.stworzył kwantową maszynę Turinga i opracował zasady kwantowej korekcji błędów, które przygotowały grunt pod przyszłe postępy.
W latach 90. XX wieku wprowadzono kluczowe algorytmy kwantowe, takie jak algorytmy Shora i Grovera, a także pierwsze prototypy komputerów kwantowych w instytucjach takich jak IBM i MIT.
Na początku XXI wieku Microsoft rozpoczął eksplorację topologicznej teorii kwantowej, co położyło podwaliny pod układ Majorana 1. Przełomowy D-Wave One stał się medialny w 2011 roku jako pierwszy komercyjny komputer kwantowy, a następnie Sycamore firmy Google osiągnął supremację kwantową w 2019 roku, rozwiązując złożony problem wykładniczo szybciej niż klasyczne systemy.
Wkraczając w lata dwudzieste XXI wieku, duże firmy technologiczne, takie jak IBM, Google i Microsoft, wyłoniły się jako liderzy w wyścigu o praktyczne komputery kwantowe, wyznaczając ambitne kamienie milowe w rozwoju, których celem jest osiągnięcie przełomowych rozwiązań do roku 2035.
Uznając krytyczną potrzebę rozwoju oprogramowania w celu uzupełnienia postępów w zakresie sprzętu, Microsoft wprowadził język programowania Q#, oferujący składnię wysokiego poziomu do implementacji algorytmów kwantowych w swoim ekosystemie. Podobnie, OpenQASM firmy IBM i struktura Cirq firmy Google umożliwiają programistom tworzenie aplikacji kwantowych, często wykorzystując symulatory przed wdrożeniem na sprzęcie kwantowym.
Mapa drogowa komputerów kwantowych firmy Microsoft i Majorana 1
19 lutego 2025 r. Microsoft zaprezentował swój układ kwantowy Majorana 1, początkowo wyposażony w 8 topologicznych kubitów, ale zaprojektowany z myślą o skalowalności do 1 miliona. Ta innowacja wyróżnia się na tle konkurencji dzięki wyższej odporności na błędy oferowanej przez topologiczne kubity, co jest cechą niezbędną do pokonania typowych wyzwań w obliczeniach kwantowych.
Odporność na błędy jest najważniejsza, ponieważ stany kwantowe są notorycznie kruche. W miarę jak Microsoft stopniowo zwiększa liczbę kubitów, zalety kubitów topologicznych w minimalizowaniu błędów staną się coraz bardziej widoczne.

Nazwa układu Majorana 1 jest hołdem dla włoskiego fizyka Ettore Majorany, który stworzył teorię cząstek Majorany — unikalnych bytów, które wnoszą podstawowe właściwości do kubitów topologicznych. Wrodzona odporność tych kubitów na błędy wynika z unikalnej cechy cząstek Majorany, polegającej na byciu ich antycząstkami, co ułatwia bardziej stabilne kodowanie danych.
Chip Majorana 1 firmy Microsoft oznacza drugą fazę w sześcioetapowej kompleksowej mapie drogowej w kierunku tworzenia praktycznych systemów kwantowych. Etapy mapy drogowej obejmują:
KAMIEŃ MILOWY 01: Tworzenie i kontrolowanie Majoran
Stworzenie urządzeń umożliwiających indukcję i manipulację topologiczną fazą materii pozwoliło na opracowanie nowego typu kubitu.
KAMIEŃ MILOWY 02: Sprzętowo chroniony kubit
W tym kroku wprowadzono chroniony kubit z wbudowaną ochroną przed błędami, co oznacza przejście technologii kubitowej ze sterowania analogowego na cyfrowe.
KAMIEŃ MILOWY 03: Wysokiej jakości sprzętowo chronione kubity
Celem jest skalowanie operacji przy jednoczesnej minimalizacji błędów poprzez splątanie i splatanie wysokiej jakości kubitów sterowanych cyfrowo.
KAMIEŃ MILOWY 04: System wielokubitowy
Wieloaspektowa jednostka przetwarzania kwantowego (QPU) umożliwia realizację szeregu algorytmów kwantowych poprzez połączone operacje na kubitach.
KAMIEŃ MILOWY 05: Odporny system kwantowy
Osiągnięcie przewagi operacyjnej dzięki prawdziwym kubitom logicznym stanowi podstawę niezawodnych operacji kwantowych i tworzy podwaliny pod superkomputery kwantowe.
KAMIEŃ MILOWY 06: Superkomputer kwantowy
Superkomputer kwantowy prześcignie klasyczne systemy, początkowo rozwiązując problemy obliczeniowe przy 1 milionie niezawodnych rQOPS/sec i współczynniku błędu mniejszym niż jeden na bilion, a w przypadku zaawansowanych problemów naukowych skalowalność wyniesie 100 milionów.
Postęp od pierwszego do drugiego kamienia milowego zajął Microsoftowi 18 miesięcy, przy mocnym zobowiązaniu do osiągnięcia kolejnych kamieni milowych w podobnych ramach czasowych. Ta optymistyczna perspektywa sugeruje, że Microsoft może zrealizować swój ostateczny cel już w 2031 r., chociaż cele mogą sięgać 2035 r.w zależności od złożoności każdej fazy.
Praca Microsoftu nad chipem Majorana 1 wzbudziła duże zainteresowanie, zwłaszcza ze strony Defense Advanced Research Projects Agency (DARPA).Microsoft jest jedną z dwóch firm, które postępują w ramach inicjatywy DARPA Underexplored Systems for Utility-Scale Quantum Computing (US2QC), której celem jest opracowanie pierwszego, odpornego na błędy komputera kwantowego na skalę użytkową.
Przyszłość komputerów kwantowych: jak blisko jesteśmy?
Określenie dokładnego harmonogramu przybycia w pełni funkcjonalnych komputerów kwantowych pozostaje wyzwaniem. Obecnie systemy z setkami kubitów są operacyjne, ale osiągnięcie miliona stabilnych kubitów jest nadal odległym celem. Kwestie techniczne, takie jak redukcja błędów i potrzeba ekstremalnego chłodzenia, są stałymi przeszkodami.
Podążając podobnym modelem co Microsoft, Google nakreśliło sześcioetapowy plan działania, osiągając swoje początkowe dwa kamienie milowe odpowiednio w 2019 i 2023 roku. Na tym ostatnim etapie Google ujawniło komputer kwantowy wyposażony w 100 fizycznych kubitów, aspirując do osiągnięcia 1000, 10 000, 100 000 i ostatecznie 1 miliona fizycznych kubitów poprzez kolejne kamienie milowe.

Jeśli Google utrzyma obecne tempo rozwoju, kamienie milowe 3, 4, 5 i 6 mogą zostać osiągnięte odpowiednio do 2027, 2031, 2035 i 2039 roku, co będzie ściśle zgodne z przewidywaniami Microsoftu.
IBM prognozuje, że do 2033 r.komputer kwantowy będzie w stanie obsługiwać tysiące kubitów logicznych. To podejście koncentruje się na kodowaniu kubitów logicznych w wielu kubitach fizycznych w celu zminimalizowania błędów. Podczas gdy IBM i Google realizują podobne strategie, podejście Microsoftu wykorzystujące kubity topologiczne może zapewnić przewagę konkurencyjną ze względu na ich z natury stabilną konstrukcję.
Zanim praktyczne komputery kwantowe staną się powszechne, należy pokonać liczne wyzwania — w tym minimalizację współczynników błędów, rozwiązanie problemu dekoherencji i przezwyciężenie problemów ze skalowalnością. Obecnie działające systemy kwantowe mają ograniczoną liczbę kubitów, a zwiększanie ich liczby zwiększa złożoność.
Aby obliczenia kwantowe mogły przejść z teorii do praktycznego zastosowania, kluczowe są postępy w materiałach, w tym półprzewodnikach i izolatorach topologicznych. Materiały te muszą być stabilne, niedrogie i powtarzalne, aby obsługiwać systemy kwantowe na dużą skalę.
Koszty operacyjne i wymagania dotyczące chłodzenia ograniczają obecnie wykorzystanie komputerów kwantowych w rządach i dużych firmach technologicznych. Wymaga to innowacji umożliwiających miniaturyzację i funkcjonalność w wyższych temperaturach.
Wreszcie brak standaryzacji w różnych systemach stanowi długoterminowe wyzwanie. Ponieważ różne firmy technologiczne dążą do unikalnych podejść, ujednolicony standard jest niezbędny do szerszej integracji w przyszłości.
Wniosek
W artykule redakcyjnym przedstawiono liczne zalety komputerów kwantowych, przedstawiono zwięzłą historię ich ewolucji oraz znaczenie układu Majorana 1 firmy Microsoft na tle obecnych ram czasowych dla praktycznych obliczeń kwantowych.
Ogłoszenie Majorany 1 oznacza znaczący krok naprzód, pokazując postęp Microsoftu w rozwiązywaniu kluczowych wyzwań związanych ze współczynnikami błędów, a jednocześnie wyznaczając ścieżkę ku przyszłości z milionem kubitów. Twierdzenie giganta technologicznego, że komputery kwantowe nie są już odległe o dekady, jest śmiałą i ekscytującą narracją.
Implikacje obliczeń kwantowych są ogromne, obiecujące postępy w sektorach takich jak opieka zdrowotna, materiałoznawstwo i modelowanie klimatu. Tak jak technologie AI, takie jak ChatGPT, otworzyły nowe horyzonty możliwości, przyszłość obliczeń kwantowych niewątpliwie ma podobny potencjał transformacyjny dla całego społeczeństwa.
Dodaj komentarz ▼