Czy komputery kwantowe zakłócą działanie kluczowej infrastruktury?
Dwadzieścia pięć lat temu programiści komputerowi ścigali się, aby naprawić błąd milenijny* w obawie, że spowoduje on awarię systemów bankowych i przyczyni się do katastrof lotniczych. Ku wielkiej uldze wszystkich, jego wpływ okazał się minimalny.

Wiele organizacji rozwija obecnie komputery kwantowe Zdjęcie: Google
Obecnie niektórzy obawiają się, że pojawiło się nowe krytyczne zagrożenie dla światowej infrastruktury cyfrowej. Jednak tym razem nie możemy dokładnie przewidzieć, kiedy teoria stanie się rzeczywistością, a wszechobecność technologii cyfrowej oznacza, że rozwiązanie problemu jest jeszcze bardziej skomplikowane. Dzieje się tak dlatego, że pojawienie się obliczeń kwantowych oznacza, że wiele algorytmów szyfrowania, które stanowią podstawę i zabezpieczają nasz naszpikowany technologią świat, będzie banalnie łatwych do złamania.
Obliczenia kwantowe radykalnie różnią się od stosowanych obecnie obliczeń „klasycznych”. Zamiast przetwarzać bity binarne, które istnieją w jednym z dwóch stanów – jeden (włączony) lub zero (wyłączony) – nowe metody obliczeniowe wykorzystują kubity, które mogą istnieć w wielu stanach, czyli superpozycjach.
„Powodem tak dużej mocy algorytmu jest to, że wszystkie możliwe obliczenia wykonuje się jednocześnie” – wyjaśnia profesor Nishanth Sastry, dyrektor ds. badań w dziedzinie informatyki na Uniwersytecie Surrey. Oznacza to, że jest „znacznie wydajniejszy oraz o wiele potężniejszy”. Oznacza to, że systemy kwantowe oferują możliwość rozwiązywania kluczowych problemów wykraczających poza możliwości klasycznych komputerów, jeśli chodzi o dziedziny takie jak badania medyczne, inżynieria materiałowa czy rozwiązywanie szczególnie złożonych problemów matematycznych.
Problem polega na tym, że te same problemy matematyczne leżą u podstaw algorytmów szyfrowania, które pomagają zagwarantować zaufanie, poufność i prywatność we współczesnych sieciach komputerowych. Złamanie obecnych standardów szyfrowania, takich jak RSA, zajęłoby dzisiejszym komputerom tysiące, a nawet miliony lat. Odpowiednio mocny komputer kwantowy mógłby teoretycznie wykonać to zadanie w ciągu kilku minut. Ma to konsekwencje dla wszystkiego, od płatności elektronicznych i handlu elektronicznego po komunikację satelitarną.
„Wszystko, co jest chronione przez coś, co jest podatne na ataki, staje się obiektem napaści dla osób mających dostęp do komputerów kwantowych” – mówi Jon France, dyrektor ds. bezpieczeństwa informacji w organizacji non-profit ISC2 zajmującej się bezpieczeństwem cybernetycznym. Uważa się, że komputery kwantowe zdolne do złamania szyfrowania asymetrycznego pojawią się dopiero za kilka lat.
Jednak postęp jest zauważalny
W grudniu Google poinformował, że jego nowy chip kwantowy zawiera kluczowe „rozwiązania” i „otwiera drogę do wytworzenia komputera kwantowego na dużą skalę”.
Niektóre szacunki mówią, że urządzenie kwantowe zdolne do złamania obecnego szyfrowania wymagałoby 10 000 kubitów, podczas gdy inne mówią, że potrzebne byłyby miliony. Dzisiejsze systemy mają ich najwyżej kilkaset. Jednak firmy i rządy stoją obecnie przed problemem, ponieważ napastnicy mogą przechwycić zaszyfrowane informacje i odszyfrować je później, gdy uzyskają dostęp do odpowiednio wydajnych urządzeń.
Google twierdzi, że ich nowy chip komputerowy przybliża nas do komputera kwantowego Zdjęcie: Google
Dobra wiadomość jest taka, że naukowcy i przemysł technologiczny pracują nad rozwiązaniami tego problemu. W sierpniu, Narodowy Instytut Standardów i Technologii w USA opublikował trzy standardy szyfrowania postkwantowego.
Agencja stwierdziła, że „zabezpieczą one szeroki zakres informacji elektronicznych, od poufnych wiadomości e-mail po transakcje e-commerce, które napędzają nowoczesną gospodarkę”. Firma zachęca administratorów systemów komputerowych do jak najszybszego przejścia na nowe standardy i stwierdza, że kolejnych 18 algorytmów jest traktowanych jako środki zapasowe.
Infrastruktura krytyczna, taka jak stacje uzdatniania wody, będzie wymagała poprawy bezpieczeństwa Zdjęcie: Getty Images
Problem w tym, że oznacza to masowy proces aktualizacji dotyczący praktycznie całej naszej infrastruktury technologicznej. „Jeśli pomyślisz o liczbie obiektów z szyfrowaniem asymetrycznym, są to miliardy rzeczy. Stoimy przed naprawdę poważnym problemem związanym ze zmianami” – mówi France. Modernizacja części infrastruktury cyfrowej będzie stosunkowo łatwa. Na przykład Twoja przeglądarka po prostu otrzyma aktualizację od dostawcy, mówi pan France.
„Wyzwanie tak naprawdę wiąże się z przenośnymi urządzeniami i Internetem rzeczy (IOT)” – kontynuuje. Mogą być trudne do wyśledzenia i niedostępne geograficznie. Niektóre urządzenia – na przykład starsze urządzenia, w szczególnie ważnej dla kraju infrastrukturze, takie jak systemy wodociągowe – mogą nie być wystarczająco wydajne, aby obsłużyć nowe standardy szyfrowania. Wetmore twierdzi, że w przeszłości branża radziła sobie ze zmianami w zakresie szyfrowania, ale „ten dłuższy czas bez żadnych zmian, sprawił że to zagrożenie jest teraz poważniejsze”. Dlatego stara się pomóc klientom budować „elastyczność kryptograficzną”, ustalając zasady już teraz i wykorzystując automatyzację do identyfikacji ich zasobów kryptograficznych i zarządzania nimi. „Na tym polega sekret tego, aby to przejście było uporządkowane, a nie chaotyczne”.
Wyzwanie dotyczy także przestrzeni kosmicznej. Profesor Sastry twierdzi, że aktualizacja wielu satelitów – np. sieci Starlink – powinna być stosunkowo prosta, nawet jeśli oznacza to chwilowe wyłączenie danego urządzenia z sieci.
„W dowolnym momencie, szczególnie w przypadku satelitów LEO (niska orbita okołoziemska), nad głową masz od 10 do 20 satelitów” – mówi profesor Sastry. „Więc jeśli któraś nie może działać, to cóż z tego? Jest dziewięć innych, które mogą ci służyć”. Jego zdaniem większym wyzwaniem są satelity „teledetekcyjne”, które obejmują te wykorzystywane do celów geograficznych lub wywiadowczych.
Mają one na pokładzie znacznie większą moc obliczeniową i zazwyczaj zawierają jakiś bezpieczny moduł obliczeniowy. Aktualizacja sprzętu w praktyce oznacza wymianę całego urządzenia. Jednakże, jak mówi prof. Sastry, obecnie stanowi to mniejszy problem dzięki częstszym i tańszym wystrzeleniom satelitów.
Chociaż wpływ błędu milenijnego mógł być minimalny w pierwszych dniach 2000 r., dzieje się tak dlatego, że w jego naprawienie przed wyznaczonym terminem włożono ogromną ilość pracy, mówi François Dupressoir, profesor nadzwyczajny kryptografii na Uniwersytecie w Bristolu. Dodaje natomiast, że nie można przewidzieć, kiedy obecne szyfrowanie stanie się podatne na ataki.
„W przypadku kryptografii” – mówi Dupressoir. „Jeśli ktoś złamie Twój algorytm, dowiesz się o tym dopiero, gdy zdobędzie Twoje dane”.
* Problem roku 2000 (inaczej Y2K) polegał na tym, że komputery mogły zinterpretować zapis „00” jako rok 1900.
Dział: Informatyka
Autor:
Joe Fay | Tłumaczenie: Andrzej Wachnicki - praktykant fundacji: https://fundacjaglosmlodych.org/praktyki/