CyberbezpieczeństwoPolecane tematy

Perspektywa powstania komputerów kwantowych zmienia całkowicie obraz obecnego cyberbezpieczeństwa

Z prof. Konradem Banaszkiem, dyrektorem Centrum Optycznych Technologii Kwantowych na Uniwersytecie Warszawskim, rozmawiamy o początkach i podstawach technologii kwantowych; o inicjatywie dotyczącej koordynacji działań na rzecz rozwoju polskich badań kwantowych; prowadzonych obecnie w Polsce badaniach naukowych z tego zakresu; zainteresowaniu nimi ze strony biznesu; o korzyściach społeczno-technologicznych, które może nam przynieść zastosowanie różnorodnych technologii kwantowych; o wyzwaniach występujących przy budowie komputerów kwantowych; szansach i zagrożeniach, które są z nimi związane; o tym jak się przygotować – w kontekście komputerów kwantowych – na zagrożenia związane z cyberbezpieczeństwem oraz o tym czy jest szansa, że będziemy mieli w przyszłości, w którymś centrum superkomputerowym w Polsce taki komputer.

Perspektywa powstania komputerów kwantowych zmienia całkowicie obraz obecnego cyberbezpieczeństwa
(Archiwum FNP, fot. One HD)

Najważniejsze informacje

  • Jeśli powstałby komputer kwantowy, to bezpieczeństwo łączności – takie, jakie znamy dotychczas - stałoby się problematyczne. Pojawiłaby się możliwość przełamania bardzo szerokiej klasy szyfrów opartych na kluczu publicznym. Zatem jeśli chodzi o cyberbezpieczeństwo to sprawa jest bardzo poważna.
  • Problem z komputerami kwantowymi, który dostrzegam, jest też taki, że nie ma jeszcze standardowych technik, aby scharakteryzować ich jakość. Można przecież triumfalnie ogłosić – mamy 1000 kubitów! Ale co z tego, jeśli one nam się szybko „psują” czy zachowują w niestabilny sposób? Nie liczy się zatem tylko liczba, ale i jakość.
  • Poza tym, trzeba jeszcze wyraźnie powiedzieć, że komputery kwantowe najprawdopodobniej nie będą urządzeniami uniwersalnymi. To nie jest tak, że mamy dowolny problem obliczeniowy i jak go „wrzucimy” na komputer kwantowy, to on nam go rozwiąże szybciej.
  • Jeżeli interesuje nas długoterminowe bezpieczeństwo danych, to używane obecnie algorytmy nie gwarantują nam tego, że za 5 czy 10 lat te dane nadal pozostaną poufne. I to jest istotne zagrożenie ze strony komputerów kwantowych, nawet jeżeli fizycznie wciąż ich jeszcze nie ma. Natomiast ta perspektywa - że kiedyś będą - zmienia całkowicie obraz obecnego cyberbezpieczeństwa.
  • To, co nas zabezpieczy przed komputerami kwantowymi, to pewna kombinacja tych dwóch wspomnianych możliwości – a więc algorytmy postkwantowe plus zabezpieczenie transmisji danych w warstwie fizycznej. Trzeba jednak pamiętać o tym, że nawet jeśli ktoś zbuduje komputer kwantowy, który będzie mógł łamać obecnie używane szyfry, to niekoniecznie się tym publicznie pochwali…

Panie Profesorze, zanim zaczniemy na dobre naszą rozmowę, poprosiłbym, tytułem wprowadzenia do tematu, o krótki rys dotyczący technologii kwantowych. Kiedy zaczęto badania, jak one przebiegały, z jakimi przełomowych odkryciami się wiązały itd.?

Badania z dziedziny, którą nazywamy informatyką kwantową – czy szerzej technologiami kwantowymi – zaczęły się w latach 90-tych XX wieku. Prowadzone były dwutorowo. Z jednej strony, fizycy zapanowali nad pojedynczymi mikroskopowymi układami fizycznymi dużo lepiej niż wcześniej, kiedy cała fizyka kwantowa opierała się wyłącznie na doświadczeniach na dużych zespołach cząstek, takich jak atomy czy fotony. Natomiast pod koniec XX wieku udało się np. złapać pojedynczy jon i wykonywać na nim eksperymenty. Z drugiej strony, pomimo że mechanika kwantowa zaczęła swoje życie już na początku XX wieku, to fizycy wciąż mieli problemy koncepcyjne z interpretacją aparatu matematycznego mechaniki kwantowej, zwłaszcza w odniesieniu do pojedynczych cząstek. Przez dziesięciolecia wyłącznie spekulowano na ten temat. A gdy okazało się jednak, że można zacząć robić doświadczenia z pojedynczymi układami fizycznymi, to doprowadziło do wniosków, że takie pojedyncze układy fizyczne mogą mieć nowe zastosowania w technologiach. Przełomowym wydarzeniem było opracowanie algorytmu rozkładu na czynniki pierwsze przez Petera Shore’a. Okazało się, że jeżeli weźmiemy dużo pojedynczych układów kwantowych np. elektronów czy atomów, to można dzięki nim zrealizować algorytm obliczeniowy, który pewne zagadnienia rozwiąże dużo szybciej niż jest to możliwe na komputerach klasycznych.

Z kolei faktoryzacja, czyli rozkład na czynniki pierwsze dużych liczb naturalnych, jest kluczowym tematem w bezpieczeństwie szyfrów opartych na kluczu publicznym. Ich bezpieczeństwo opiera się na tym, że łatwo jest pomnożyć przez siebie dwie liczby pierwsze, ale jeśli ktoś nam da pewną liczbę naturalną i każe ją rozłożyć na czynniki pierwsze, to już wymaga bardzo dużego wysiłku obliczeniowego. Na tym obecnie zasadza się właśnie bezpieczeństwo wielu szyfrów typu RSA. Dlatego jeśli powstałby komputer kwantowy, to bezpieczeństwo łączności – takie, jakie znamy dotychczas – stałoby się problematyczne. Pojawiłaby się możliwość przełamania bardzo szerokiej klasy szyfrów opartych na kluczu publicznym. Zatem jeśli chodzi o cyberbezpieczeństwo to sprawa jest bardzo poważna.

Równolegle z ideą komputerów kwantowych powstały pomysły na kryptografię kwantową. A więc na to, aby użyć pojedynczych układów kwantowych, np. fotonów, do bezpiecznej łączności w taki sposób, że nawet jeśli przeciwnik przejąłby po drodze nasz sygnał i mógł dowolnie nim manipulować, to takie działania bylibyśmy w stanie wykryć po detekcji sygnału. Każda próba podsłuchu w łączności kwantowej oznacza bowiem wprowadzenie zakłóceń. Więc jeżeli tych zakłóceń nie mamy to możemy stwierdzić, że nie było próby podsłuchu. W tym sensie fizyka kwantowa też istotnie zmienia obraz cyberbezpieczeństwa.

Czyli technologia kwantowa stwarza duże możliwości, ale jednocześnie duże zagrożenia?

Dokładnie tak należy ją rozumieć.

Do tego oczywiście jeszcze wrócimy, ale wpierw chciałbym zapytać o to jaki jest cel podpisanego niedawno, m.in. przez Uniwersytet Warszawski, listu intencyjnego dotyczącego koordynacji działań na rzecz rozwoju polskich badań kwantowych?

W Polsce mamy bardzo dobry punkt startowy do rozwoju badań kwantowych. Po pierwsze, mamy – prowadzone cały czas – znakomite prace teoretyczne w tym zakresie. A po drugie, w ciągu ostatnich 20 lat dokonaliśmy potężnego postępu, jeśli chodzi o infrastrukturę laboratoryjną. Dlatego jeśli chodzi o wyniki badań naukowych, to absolutnie nie mamy czego się wstydzić na arenie międzynarodowej. Nasze środowisko naukowe publikuje w bardzo dobrych czasopismach zagranicznych, a wiele z tych prac jest często cytowanych. Jesteśmy też na świecie rozpoznawani. Wielu polskich naukowców otrzymało prestiżowe nagrody międzynarodowe.

Potrzebujemy jednak wykonać kolejny krok, który „stawia” obecnie praktycznie cały świat. Trzeba stworzyć pewną strukturę organizacyjną i mechanizm, aby te badania przełożyć na konkretne zastosowania. To właśnie dzieje się na całym świecie – w Stanach Zjednoczonych mamy National Quantum Initiative, w Europie zaś European Quantum Technologies Flagship. Chiny również prowadzą gigantyczny program kwantowy. Na poziomie europejskim dużo inicjatyw pojawia się także w poszczególnych krajach. Utworzenie takich narodowych programów zapowiadają – lub już je utworzyły – Niemcy, Francja czy Wielka Brytania. My powinniśmy się odnaleźć w takim działaniu. Mamy potencjał naukowy. Jest infrastruktura laboratoryjna. Są zainteresowani partnerzy przemysłowi, jak np. Exatel. Mamy więc wszystkie elementy układanki i teraz powinniśmy je ze sobą połączyć.

Jakie obecnie prowadzone są w Polsce badania naukowe z zakresu technologii kwantowych?

Obecnie realizowanych jest kilka dużych projektów. Dwa z nich, w ramach programu Międzynarodowe Agendy Badawcze, finansowane są przez Fundację na rzecz Nauki Polskiej. Ich ideą jest stworzenie centrów badawczych. Jedno z nich znajduje się w Gdańsku, a jego szefem jest prof. Marek Żukowski. Skupia się ono na teorii technologii kwantowych. Szefem drugiego mam zaszczyt być ja i jest to Centrum Optycznych Technologii Kwantowych, które znajduje się na Uniwersytecie Warszawskim. Na utworzenie tych dwóch centrów wspomniana fundacja przeznaczyła – w skali 5 lat – w sumie ok. 70 mln zł. Dodam, że projekty te są już w realizowane od niemal 3 lat. Trzeci projekt jest finansowany w ramach programu TEAM-NET Fundacji na rzecz Nauki Polskiej i jest poświęcony komputerom kwantowym, a jego koordynatorem jest prof. Marek Kuś z Centrum Fizyki Teoretycznej PAN.

Jakie są oczekiwania wobec tych programów ze strony instytucji finansującej?

Poza prowadzonymi pracami badawczymi oczekuje się od nas, że będziemy generować własność intelektualną, np. w postaci patentów. I to też robimy. Mamy już zgłoszenia patentowe z zakresu łączności optycznej oraz kryptografii kwantowej. Poszukujemy też kontaktów z przemysłem, z konkretnymi podmiotami gospodarczymi, które byłyby zainteresowane dalszym rozwojem tej technologii, a docelowo jej wdrożeniami.

Czy poza Exatelem są jakieś firmy, z którymi Państwo współpracujecie?

Dużo z tej tematyki kwantowej pojawia się w układach fotonicznych, dlatego naszym naturalnym partnerem do rozmów jest właśnie ten sektor. Mamy kontakt z Polską Platformą Technologii Fotonicznej, której szefem jest Adam Piotrowski, jednocześnie prezes firmy Vigo System produkującej detektory, szczególnie w obszarze podczerwieni. Prowadzimy rozmowy ze spółką Syderal Polska z Gdańska, która zajmuje się produkcją elektroniki satelitarnej oraz z firmą Fibrain z Podkarpacia, produkującą światłowody. Trochę tych kontaktów udało się więc już nawiązać.

Na jakim etapie zaawansowania są te rozwiązania? Czy można by je już wdrażać?

To właśnie próbujemy obecnie ustalić. Nie mamy jeszcze konkretnego produktu, który chcielibyśmy sprzedawać. Jest też trochę tak, że nie jesteśmy jedynymi podmiotami na świecie, które się takimi technologiami zajmują, więc przede wszystkim staramy się zidentyfikować nisze rynkowe i obszary, w których możemy uzyskać przewagę konkurencyjną.

Jakie korzyści społeczno-technologiczne może przynieść zastosowanie technologii kwantowych?

Jeśli chodzi o łączność kwantową to jest to kwestia cyberbezpieczeństwa, która jest obecnie absolutnie fundamentalna. Z nią blisko łączy się także kwestia suwerenności technologicznej. Jeżeli chodzi np. o interes państwa, to trzeba by opierać się na rozwiązaniach, do których ma się pełne zaufanie. Nie są to rzeczy, które można ot tak zaimportować. Należy ustalić do jakiego stopnia te urządzenia są dla nas bezpieczne, a najlepiej mieć pod kontrolą ich budowę lub mieć własne rozwiązania w tym zakresie.

Drugi obszar, o którym nie wspominałem do tej pory, ale o którym trzeba by powiedzieć to metrologia kwantowa i sensory kwantowe. Koledzy z Uniwersytetu Mikołaja Kopernika w Toruniu z dużym powodzeniem pracują obecnie nad zegarami atomowymi. Są to urządzenia, które pozwalają mierzyć czas dużo bardziej precyzyjnie niż do tej pory.

Jakie mogłyby być ich zastosowanie?

Przykładowo w badaniach fizycznych, gdzie można by mierzyć dużo bardziej subtelne efekty dzięki temu, że ma się dużo bardziej precyzyjną „podziałkę” czasową. Precyzyjne zegary umożliwiają także synchronizację oddalonych od siebie urządzeń pomiarowych.

Mowi się także o wykorzystaniu takich zegarów w kontekście rynków finansowych, do tzw. High-Frequency Trading, czyli zawierania wielu transakcji giełdowych w jak najkrótszym czasie. Transakcje finansowe miałby wtedy bardzo precyzyjne oznaczenia czasowe.

A sensory kwantowe?

Jeżeli potrafilibyśmy mierzyć prościej lub dokładniej różne wielkości fizyczne, jak np. pole magnetyczne, to dzięki nim otwierają się nowe możliwości w diagnostyce medycznej. Obecnie badanie rezonansem magnetycznym jest długie i kosztowne, ponieważ potrzebujemy potężnego magnesu nadprzewodzącego, w którym umieszcza się pacjenta. Gdyby udało się stworzyć prostsze urządzenie, wówczas te metody diagnostyczne byłyby, nie tylko mniej uciążliwe, ale i tańsze, bardziej dostępne.

Ciekawe rzeczy dzieją się także w spektroskopii. Trwają np. prace nad tym, aby dużo dokładniej mierzyć ilości różnych substancji w wydychanym powietrzu. To jest też rodzaj diagnostyki medycznej, potrafiący powiedzieć lekarzowi, że coś złego dzieje się w organizmie pacjenta na podstawie śladowych ilości tych wychwyconych substancji. Pomiary śladowych ilości substancji chemicznych są także istotne w ochronie środowiska. Otrzymujemy wtedy pełniejszy obraz zanieczyszczeń. Potencjalnych zastosowań jest naprawdę sporo. Trzeba by ustalić tylko, które kierunki są najbardziej obiecujące, czym warto się zająć oraz zdecydować się na konkretne zastosowania.

Kieruje Pan Centrum Optycznych Technologii Kwantowych na Uniwersytecie Warszawskim, jakie są więc możliwe zastosowania optyki kwantowej?

W tej dziedzinie zastosowań również jest dużo. W zasadzie cała tematyka łączności kwantowej wyrasta właśnie z optyki kwantowej. W optyce kwantowej opracowano pierwsze źródła tzw. splątanych par fotonów. W Polsce takie źródła konstruujemy z powodzeniem już od kilkunastu lat. Splątane fotony wykazują bardzo silne korelacje między swoimi własnościami. Cechę tę wykorzystuje się w szerokiej klasie protokołów kryptografii kwantowej. Obecnie trwają prace, aby źródła splątanych fotonów – które na początku służyły właśnie do obserwacji samego splątania – umieścić na satelicie, który będzie fotony z jednej pary wysyłał do dwóch różnych stacji naziemnych, a detekcja fotonów z jednej pary będzie służyła generacji klucza kryptograficznego.

Łączność kwantowa wiąże się więc również z przemysłem kosmicznym. Jeden ze scenariuszy, który wydaje się obiecujący i mający uzasadnienie technologiczne, dotyczy dystrybucji par fotonów z satelity do dwóch różnych stacji naziemnych. Umożliwiłoby to np. generację klucza kryptograficznego pomiędzy dwoma stacjami naziemnymi. W ten sposób, można by uniknąć budowy całej infrastruktury naziemnej. Jeżeli chcielibyśmy np. zapewnić bezpieczeństwo łączności pomiędzy Ministerstwem Spraw Zagranicznych, a ambasadami, to przecież trudno sobie wyobrazić, że będziemy kładli na całym świecie specjalne łącza do tego celu. Satelita generujący taki klucz załatwiałby sprawę. My sami prowadzimy nad tym badania, opracowując np. różne protokoły kwantowej dystrybucji klucza kryptograficznego.

Generalnie więc są to zastosowania w komunikacji i cyberbezpieczeństwie?

Tak, ale nie tylko. Moi koledzy z Centrum Optycznych Technologii Kwantowych pracują też nad pamięciami kwantowymi. To są układy fizyczne, które pozwalają przechowywać nie tylko podstawowe stany logiczne 0 i 1, do których jesteśmy przyzwyczajeni z konwencjonalnej informatyki, ale też tzw. superpozycje kwantowe stanów 0 i 1. Osiągnęli oni już duży sukces, jeśli chodzi o to, ile takiej informacji kwantowej można w ich pamięci przechować.

Chodzi o to, że tak jak w zwykłych komputerach wystarczy, że przechowamy dwa rozróżnialne stany logiczne, 0 albo 1, tak komputery kwantowe operują na tzw. superpozycjach stanów logicznych. Jest to rodzaj ciągłego przejścia między logicznym 0, a logiczną 1. Pamięć kwantowa powinna być w stanie przechować dowolny stan logiczny z tego kontinuum między 0 a 1. I to jest dużo, dużo trudniejsze do osiągnięcia, bo przechowywanie takiej superpozycji jest dużo bardziej podatne na zakłócenia oraz na to, że takie stany superponowane mogą łatwo ulec niepożądanej modyfikacji lub zniszczeniu.

Zbudowanie urządzenia, które uchwyci całość fenomenów mechaniki kwantowej okazuje się jednym z najtrudniejszych procesów naszych czasów. Dlaczego?

Jak tylko pojawił się wspomniany przez ze mnie wcześniej algorytm Shore’a dotyczący rozkładu liczby naturalnych na czynniki pierwsze, to od razu było jasne, że w związku z tym, iż komputery kwantowe operują na tych superpozycjach stanów logicznych, będą bardzo trudne do zbudowania. Nie było nawet oczywiste czy one będą się zachowywały w wiarygodny sposób. Zatem pierwsze pytanie, na które należałoby sobie odpowiedzieć, to czy można w nich używać techniki korekcji błędów, które są podstawowe, aby zapewnić stabilne działanie. Wyniki teoretyczne w tym zakresie były i nadal są obiecujące, ale też wyzwania technologiczne z tym związane są faktycznie gigantyczne.

Skąd te wyzwania się biorą? Co jest ich podstawą?

Jeżeli chcemy zobrazować tylko dwa stany logicznie – 0 oraz 1 – to można sobie wyobrazić kawałek jakiegoś materiału magnetycznego, w którym wszystkie spiny w górę oznaczają 0, a wszystkie spiny w dół 1. Taką zwykłą, klasyczną informację można replikować i to ją uodparnia na zakłócenia. Nawet, gdy jeden z tych spinów zmieni kierunek, to wtedy patrzymy na orientację większości spinów i wszystko jest ok. Natomiast jeśli chodzi o informacje kwantową, to aby te superpozycje – a więc stany pośrednie między logicznym 0 a logiczną 1 – wychwycić, trzeba sobie z kolei wyobrazić, że mamy taki spin, który pokazuje kierunek w dowolną stronę. I tego już niestety, nie da się zreplikować. Trzeba mieć pojedynczy układ fizyczny, który będzie mógł realizować te wszystkie możliwości. Taki pojedynczy układ fizyczny jest dużo bardziej wrażliwy na zakłócenia wewnętrzne, więc trzeba go jakoś ochronić, zwłaszcza jeżeli my tych logicznych kubitów, czyli kwantowych bitów chcemy mieć więcej.

Zatem jeżeli spojrzy się na prototypowe komputery kwantowe, które rozwijają obecnie takie firmy jak IBM, Google czy Microsoft, to są to bardzo skomplikowane urządzenia, pracujące w bardzo niskich, kriogenicznych temperaturach, po to, aby zminimalizować wpływ szumów z zewnątrz. To jest to gigantyczne wyzwanie technologiczne – jak radzić sobie z zakłóceniami wprowadzanymi przez środowisko zewnętrzne? I tu sprawa cały czas pozostaje otwarta. Jeżeli popatrzeć jak te prototypowe komputery działają, to niestety cały czas widać wpływ tych szumów i zakłóceń na ich pracę.

IBM opracował nawet mapę drogową rozwijania komputerów kwantowych, która zakłada m.in. osiągnięcie w 2023 roku procesorów, w których dostępne będzie ponad 1000 nadprzewodnikowych kubitów, ale z tego co Pan mówi, liczba kubitów chyba nie jest kluczowa…

Plan IBM jest zapewne do zrealizowania, tylko jak Pan słusznie zauważył, pojawia się zasadnicze pytanie – jaka będzie jakość tych kubitów? Jak bardzo będą one stabilne i odporne na zakłócenia z zewnątrz? Problem z komputerami kwantowymi, który dostrzegam, jest też taki, że nie ma jeszcze standardowych technik, aby scharakteryzować ich jakość. Można przecież triumfalnie ogłosić – mamy 1000 kubitów! Ale co z tego, jeśli one nam się szybko „psują” czy zachowują w niestabilny sposób? Nie liczy się zatem tylko liczba, ale i jakość. Nie ma jeszcze obecnie jednoznacznych i ogólnych kryteriów, które powiedziałyby nam czy np. 1000 gorszej jakości kubitów, równoważy nam 500 tych trochę lepszej jakości. I to jest na pewno kwestia do uporządkowania.

Poza tym, trzeba jeszcze wyraźnie powiedzieć, że komputery kwantowe najprawdopodobniej nie będą urządzeniami uniwersalnymi. To nie jest tak, że mamy dowolny problem obliczeniowy i jak go „wrzucimy” na komputer kwantowy, to on nam go rozwiąże szybciej.

Obecnie znamy bardzo niewiele problemów obliczeniowych, które komputery kwantowe mogą nam szybciej rozwiązać. Na ogół też te problemy obliczeniowe wymagają zupełnie innego algorytmu niż w wypadku klasycznym. Trzeba więc zacząć od jakiegoś konkretnego problemu rzeczywistego o którym wiemy, że charakteryzuje się wysoką złożonością tzn. im skala tego problemu robi się większa tym bardziej wydłuża się czas rozwiązania go na klasycznym komputerze. Wtedy trzeba dopiero zastanowić się czy na komputerze kwantowym można zaimplementować algorytm, który będzie szybciej to zagadnienie rozwiązywał. To jest zagadnienie oprogramowania kwantowego czy algorytmów kwantowych, bardzo trudne, bo najczęściej wymaga „zaatakowania” problemu obliczeniowego z zupełnie innego kierunku niż opracowane algorytmy klasyczne. Natomiast niektóre problemy, co do których to wiadomo, są rzeczywiście bardzo istotne z praktycznego punktu widzenia. Choćby wspomniane już przeze mnie szyfry oparte na kluczu publicznym. Na komputerze klasycznym bardzo trudno jest rozłożyć duże liczby naturalne na czynniki pierwsze.

Do jakich zatem zastosowań budowane są obecnie komputery kwantowe?

Mówi się np. o rozwiązywaniu różnych problemów optymalizacyjnych. Takim najbardziej podręcznikowym jest np. problem komiwojażera, czyli jak zminimalizować drogę pomiędzy pewną liczbą punktów na mapie. Mówi się też o tym, że komputery kwantowe mogą symulować inne układy fizyczne, które trudno byłoby zbudować. Prościej byłoby bowiem mieć taką symulację na komputerze kwantowym, która pozwalałaby w łatwy sposób zmieniać parametry takiego układu, niż budować wiele jego wersji. Tu też sprawa jest cały czas otwarta.

Kolejna ważna rzecz, o której należy pamiętać w kontekście cyberbezpieczeństwa, jest taka, że w wielu obszarach interesuje nas długoterminowe bezpieczeństwo przesyłania danych. Przykładowo nie bez powodu korespondencje dyplomatyczną ujawnia się po kilkudziesięciu latach, albo i dłużej. Jest pewien teoretyczny scenariusz, który trzeba mieć na uwadze. A mianowicie, wyobraźmy sobie taką sytuację, że przeciwnik wykonuje kopię zaszyfrowanych danych przesyłanych obecnymi sieciami teleinformatycznymi i odszyfrowuje je dopiero za 10 lat, kiedy będzie już miał do dyspozycji komputer kwantowy. Zatem jeżeli interesuje nas długoterminowe bezpieczeństwo danych, to używane obecnie algorytmy nie gwarantują nam tego, że za 5 czy 10 lat te dane nadal pozostaną poufne. I to jest istotne zagrożenie ze strony komputerów kwantowych, nawet jeżeli fizycznie wciąż ich jeszcze nie ma. Natomiast ta perspektywa – że kiedyś będą – zmienia całkowicie obraz obecnego cyberbezpieczeństwa.

W jaki sposób możemy się na to zagrożenie przygotować? Rozwijając łączność kwantową, o której Pan wspominał?

To na pewno. Jedną z możliwości mogą być właśnie techniki łączności kwantowej, nad którymi obecnie pracujemy. Chciałbym jednak zaznaczyć, że łączność kwantowa nie jest żadną magiczną różdżką, dotknięcie której rozwiąże wszystkie problemy cyberbezpieczeństwa, ale wprowadza ona element zabezpieczenia w warstwie fizycznej. Obecnie budżety mocy łączy optycznych są takie, że gdy ukradniemy 10% sygnału to odbiorca w ogóle tego nie zauważy, a te 10% w wielu sytuacjach całkowicie wystarczy nam do tego, aby skopiować informację przesyłaną łączem optycznym. Kryptografia kwantowa natomiast może nas przed taką możliwością uchronić i z tego względu jest ona po prostu bardzo cennym dopełnieniem.

Drugi kierunek, który jest istotny i jest aktualnie badany ma na celu zastąpienie obecnie występujących metod szyfrowania algorytmami klasy postkwantowej, które biorą już pod uwagę możliwość ataku przy użyciu komputera kwantowego. Wtedy nawet gdy ktoś ma do dyspozycji komputer kwantowy, to tych postkwantowych szyfrów nie będzie w stanie złamać.

Osobiście obstawiam, że to, co nas zabezpieczy przed komputerami kwantowymi, to pewna kombinacja tych dwóch wspomnianych możliwości – a więc algorytmy postkwantowe plus zabezpieczenie transmisji danych w warstwie fizycznej. Trzeba jednak pamiętać o tym, że nawet jeśli ktoś zbuduje komputer kwantowy, który będzie mógł łamać obecnie używane szyfry, to niekoniecznie się tym publicznie pochwali…

Z drugiej strony są też firmy, które nagłaśniają praktycznie każdy najmniejszy postęp w swoich pracach nad komputerami kwantowymi…

Rzeczywiście tak jest, ale to wynika z tego, że firmy te – nawet gdy ich komputery kwantowe wciąż nie są jeszcze doskonałe – chcą już zacząć sprzedawać ich czas obliczeniowy. Trochę to wygląda w ten sposób, że my do końca nie wiemy jeszcze jak to działa, ale jeśli chcecie zacząć zdobywać doświadczenie na naszych maszynach to proszę bardzo, tylko nam za to zapłaćcie. Natomiast w kwestiach cyberbezpieczeństwa mamy państwowe i niepaństwowe podmioty, które mogą być żywo zainteresowane przesyłanymi danymi, ale też nie będą się chwaliły tym, że mają do nich dostęp. Po prostu nie będą chcieć ujawnić tego co wiedzą.

Czy Polscy naukowcy kontaktują się w kwestii współpracy w tym zakresie np. z IBM lub Google? Czy jest jakakolwiek szansa, że będziemy mieli w przyszłości w którymś centrum superkomputerowym komputer kwantowy?

Osobiście nie jestem w takie działania bezpośrednio zaangażowany, ale wiem, że zostały nawiązane takie kontakty. Co do drugiej części Pana pytania to pewnie taka szansa jest, natomiast pojawia się pytanie czy i pod jakimi warunkami warto? Czy warto kupować komputer, który już w momencie instalacji może należeć do drugiej ligi, czy nie lepiej korzystać raczej z dostępu to komputerów kwantowych, które będą znajdować się w jakiś innych instytucjach. Trzeba to starannie rozważyć.

Trzeba też zaznaczyć, że nie są to jeszcze urządzenia komercyjne. To znaczy niektórzy próbują już sprzedawać komputery kwantowe, ale myślę, że trzeba zachować dużą ostrożność przed ewentualnym podjęciem takiej decyzji. Lepiej zastanowić się jak najefektywniej wykorzystywać środki, które mamy, aby np. rozwijać oprogramowanie na komputery kwantowe. Sądzę bowiem, że mamy bardzo dobre podstawy ku temu. Jako kraj jesteśmy przecież programistyczną potęgą. Mamy wiele znakomitych przykładów firm działających z potężnymi sukcesami w obszarze oprogramowania.

A czy w ogóle szkolimy już inżynierów/programistów, którzy będą mogli wykorzystać możliwości jakie oferuje Quantum Computing?

To się już zaczyna. Do niedawna jeszcze cała informatyka kwantowa była jednak głównie domeną fizyków. Ale widać coraz większe zainteresowanie koleżanek i kolegów z kierunków informatycznych. Od pewnego czasu organizowane są wspólne seminaria. Tematyka ta wchodzi też pomału do programów studiów informatycznych.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *