Realne stało się obecnie budowanie superkomputerów, które mogą realizować trylion operacji zmiennoprzecinkowych na sekundę. Otwiera to drogę do zupełnie nowych zastosowań naukowych i biznesowych. Za sprawą superkomputerów klasy eksaskalarnej w nową fazę wchodzi też globalny wyścig w obszarze klastrów obliczeniowych wysokiej wydajności.
W ostatnich latach byliśmy świadkami niezwykłej zmiany w sposobie wdrażania technologii cyfrowych, takich jak wydajne klastry obliczeniowe (HPC), analityka Big Data, sztuczna inteligencja (AI) czy uczenie maszynowe (ML). Historycznie wysokie zapotrzebowanie uczelni na to, aby przyspieszyć badania naukowe, zbiega się z presją konkurencji, która zmusza do coraz szybszego opracowywania nowych produktów i coraz szybszego podejmowania decyzji na rynku biznesowym.
Superkomputery, które zwane są także klastrami obliczeniowymi, przetwarzają złożone symulacje poprzez dzielenie problemów obliczeniowych na mniejsze zadania, nad którymi można równocześnie pracować na wielu serwerach połączonych jedną szybką siecią. Stosunek ceny do wydajności tych systemów stale się poprawia, co czyni HPC bardziej przystępnym. Problem komputerowy, który tygodniami rozwiązywany byłby przez maszynę za wiele milionów Euro dwadzieścia lat temu, teraz przepracowany może być przez kilka godzin na pojedynczym serwerze wyposażonym w akceleratory GPU.
Można oczekiwać, że, podobnie jak model chmury obliczeniowej stworzył nowe sposoby interakcji biznesu z klientami, możliwości rozwoju biznesu, czy sposoby wykonywania pracy, tak też następnej generacji superkomputery otworzą nowe możliwości przed badaniami i nauką przyspieszając o rząd wielkości czas opracowywania nowych i przełomowych produktów oraz rozwiązań.
O ile w przeszłości systemy HPC były dostępne tylko dla instytucji naukowych czy większych korporacji, tak obecnie stały się dużo bardziej przystępne, ponieważ publicznie dostępne usługi w chmurze i centra danych umożliwiają także i mniejszym organizacjom zarezerwowanie sobie możliwości obliczeniowych dostępnych w formie usługi i rozliczanej według obciążenia rdzeni. Zastosowań biznesowych wysoce wydajnych komputerów nie brakuje. Pozwalają one bowiem na rozwiązywanie szerokiego spektrum złożonych problemów m.in. w takich obszarach, takich jak: optymalizacje produktowe, projektowanie elektroniki, analityka kredytowa, wykrywanie oszustw finansowych, badania nad lekami i medycyna, analiza złóż gazu i ropy, badania nad klimatem, prognozowanie zmian pogody, rendering złożonych obrazów, czy produkcja i post produkcja wideo.
Jednocześnie, architektura sprzętowa dzisiejszych systemów HPC w szeroki sposób wykorzystuje akceleratory GPU, co sprawia, że istnieje wiele podobieństw względem implementacji systemów przeznaczonych bo obsługi algorytmów sztucznej inteligencji i uczenia maszynowego. Co więcej, takie przenikanie się technologii pozwala wprowadzać coraz bardziej zaawansowane algorytmy sztucznej inteligencji na rynek masowy. Jednocześnie HPC potencjalnie może tworzyć modele uczenia algorytmów sztucznej inteligencji przy wykorzystaniu coraz szerszych zbiorów danych. Można więc oczekiwać, że, podobnie jak model chmury obliczeniowej stworzył nowe sposoby interakcji biznesu z klientami, możliwości rozwoju biznesu, czy sposoby wykonywania pracy, tak też następnej generacji superkomputery otworzą nowe możliwości przed badaniami i nauką przyspieszając o rząd wielkości czas opracowywania nowych i przełomowych produktów oraz rozwiązań.
Nowa era superkomputerów
Między 2002 a 2009 rokiem wydajność superkomputerów podwajała się niemal co 12 miesięcy, ale w latach 2009 – 2019 średni okres dwukrotnego wzrostu wydajności najszybszych superkomputerów wzrósł do 2-3 lat. Zmiana ta była efektem tylko czynników, w tym spowolnienia Prawa Moore’a czy ograniczeń technicznych wynikających, przykładowo, ze skalowania Dennarda 1.
Udało się jednak znaleźć innowacje, które pozwalają przezwyciężyć te trudności. Dzięki ich zastosowaniu wchodzimy w etap, który określany jest jako “eksaskalarna era komputeryzacji”. Realne stało się budowanie superkomputerów, które mogą realizować trylion operacji zmiennoprzecinkowych na sekundę (FLOPS). To miliard miliardów albo 1 000 000 000 000 000 000, a zatem eksaskalarne maszyny mogą rozwiązywać równania pięć razy szybciej niż obecnie najszybsze superkomputery. Mogą też tworzyć i obsługiwać bardziej złożone modele analityczne z większą precyzją. Osiągnięcie takiej wydajności stało się możliwe dzięki nowemu, heterogenicznemu podejściu do rozwoju superkomputerów. Uwzględnia ono integrację procesorów CPU, układów graficznych GPU oraz optymalizacji iteracyjnej zarówno sprzętu, jak i oprogramowania. Dzięki temu ten dużo wyższy poziom mocy obliczeniowej i efektywności energetycznej idzie w parze z obniżeniem kosztu przypadającego na 1 FLOPS.
Nie ma lepszego miejsca do zaprezentowania tych korzyści jak superkomputer „Frontier”, który powstaje w Oak Ridge Leadership Computing Facility w Stanach Zjednoczonych. Jest to maszyna, która w momencie uruchomienia – czyli jeszcze w 2022 roku – zapisze się w historii jako pierwszy na świecie operacyjny superkomputer eksaskalarny. Za sprawą ogromnej mocy obliczeniowej system ten pozwoli na przyspieszenie projektów badawczych, pozwoli na nowe postępy naukowo-technologiczne i pomoże Stanom Zjednoczonym utrzymać prym w dziedzinie superkomputerów i sztucznej inteligencji dzięki zastosowaniu procesorów AMD EPYC i akceleratorów AMD Instinct, które zapewnią ponad 1,5 EksaFLOPS szczytowej mocy obliczeniowej. W drodze jest też kolejny, jeszcze mocniejszy system, który nazywany jest „El Capitan” i powinien powstać w 2023 roku w Lawrence Livermore National Labs w Stanach Zjednoczonych.
Warto jednak dodać, że to Japonia była pierwsza na rynku ze swoim superkomputerem FUGAKU, który uzyskuje 1,42 EksaFLOPS szczytowej mocy, a Chiny wykorzystują mniej znany system Sunway „Oceanlite” o szczytowej mocy 1,32 EksaFLOPS. Gdzie jednak w tym wyścigu znajduje się Europa?
Eksaskalarna misja Europy
Europa jest znana z tego, że podąża własnymi ścieżkami w niemal każdej dziedzinie. Tak samo jest także z superkomputerami. Gdy Chiny i Stany Zjednoczone starają się zostać liderami w świecie superkomputerów, Europa przyjmuje podejście, które bazuje na współpracy. Dlatego rządy finansują inicjatywę EuroHPC (European High-Performance Computing Joint Undertaking), która została zapoczątkowana i jest rozwijana przez organizację PRACE (Partnership for Advanced Computing in Europe). Tak połączone zasoby pozwalają sfinansować światowej klasy europejską infrastrukturę HPC i wesprzeć innowacyjny ekosystem superkomputerowy. Dobrym przykładem jest tu inicjatywa „Horizon Europe”. Ten siedmioletni projekt badań naukowych Unii Europejskiej zakłada inwestycje rzędu 80 miliardów euro w badania, w tym w rozwój eksaskalarnych maszyn w Europie. To unikalne podejście przyczyniło się do szeregu przełomowych rozwiązań na europejskim rynku superkomputerów, ponieważ pozwoliło naukowcom z całego kontynentu sprostać wyzwaniom, które wcześniej były poza zasięgiem.
Zainstalowany na Uniwersytecie Stuttgarckim superkomputer „Hawk” to dobry przykład efektu takich działań. Obecnie jest to 24 system na liście najszybszych superkomputerów na świecie TOP500. Maszyna ta wykorzystuje system HPE Apollo 9000 z 5632 węzłami serwerowymi umieszczonymi w 44 szafach. Każdy z tych węzłów ma w sobie procesory AMD EPYC zapewniające razem 26 PetaFLOPS szczytowej mocy obliczeniowej, które umożliwiają placówkom edukacyjnym i klientom przeprowadzanie przełomowych badań w szerokim spektrum dziedzin. Superkomputer ten jest wykorzystywany m.in. w przemyśle. Przykładowo, firmy motoryzacyjne wykorzystują możliwości systemu „Hawk” na potrzeby analiz strukturalnych i symulacji z zakresu dynamiki płynów. Kolejnym przykłdem jest „Lumi”, czyli przed-eksaskalarna maszyna z CSC (IT Centre for Science) w fińskim Kajaani. System ten prezentuje jednak możliwości kolejnej ery superkomputerów. „Lumi” wykorzystuje zbliżoną technologię do Frontier, czyli specjalny procesor AMD EPYC „Trento” i cztery akceleratory AMD Instinct MI250X w jednym węźle serwerowym. Dysponuje on mocą 375 PetaFLOPS, a teoretyczna moc szczytowa to aż 550 PetaFLOPS. Za sprawą wielkiej mocy obliczeniowej maszyna ta, znajduje się w gronie najszybszych na świecie i umożliwia naukowcom europejskim rozwiązywanie problemów z szeregu dziedzin: od prognozowania pogody i cyberbezpieczeństwa, po badania nad nowymi lekami czy spersonalizowaną medycynę. „Lumi” pozwala też tworzyć wysokiej rozdzielczości modele klimatyczne, które dostarczają lepszej wiedzy o zmianach klimatu.
To, co czyni przed-eksasklarne i eksaskalarne maszyny szczególnie interesującymi, to koherencja pamięci. Technologia zapewnia dostępność jednej porcji danych zarówno dla procesora jak i układu graficznego bez potrzeby przechowywania oddzielnych kopii dla każdego z tych układów. To z kolei redukuje niepotrzebne programowanie, zwiększa wydajność i zwalnia zasoby, a więc przekłada się na dodatkowy wzrost efektywności. Co ważne, technologia ta nie jest jeszcze swobodnie dostępna na rynku. Kolejnym innowacyjnym rozwiązaniem spotykanym w nowoczesnych superkomputerach, jak „Lumi”, jest technologia swobodnego chłodzenia, która pozwala wykorzystywać ciepło w sieci cieplnej dzielnicy Kajaani i tym samym obniżać koszty i ślad węglowy. Szacuje się, że dzięki tej technologii ślad węglowy całego miasta w ciągu roku obniży się o 13 500 ton, czyli tyle, ile wytwarza 4000 samochodów 2.
Europa poszukuje obecnie sprzętu, który przewyższy wydajność superkomputera Fugaku w Japonii. To ambitny i złożony projekt, który potrzebuje czasu, a jednocześnie pokazuje, dlaczego demokratyzacja w superkomputerach jest tak istotna. Dzięki dostępowi do technologii, która jest używana w niektórych spośród najszybszych maszyn na świecie, jak i do szeregu otwartych narzędzi programistycznych, Europa może już teraz rozwiązywać złożone problemy czerpiąc korzyści z eksaskalarnej komputeryzacji. Konieczne są jednak dalsze inwestycje krajów europejskich, które pozwolą opracować lokalne narzędzia pomagające stworzyć własne, europejskie systemy klasy eksaskalarnej.
Roger Benson, starszy dyrektor ds. sprzedaży rozwiązań komercyjnych w regionie EMEA w AMD
1 https://www.financialexpress.com/industry/technology/new-frontier-the-dawn-of-exascale-computing-era/2372600/
2 https://www.lumi-supercomputer.eu/lumi-nominated-in-hpcwires-readers-choice-awards-vote-now/