CIO

Na co komu rozwiązania High Performance Computing

Dzisiaj po kilkunastu latach zauważyć można drugą młodość rozwiązań klasy HPC, albo raczej zjawisko wkradania się tego modelu przetwarzania do biznesu a nawet zastosowań domowych.

Na co komu rozwiązania High Performance Computing

Pierwszą pracę podjąłem jeszcze w czasie studiów we Wrocławskim Centrum Sieciowo Superkomputerowym (WCSS) Politechniki Wrocławskiej. Był to fenomenalny czas na rozwój w dziedzinie IT. Dzięki Komitetowi Badań Naukowych na WCSS naprawdę było co oglądać i na czym się uczyć. Komputery dużej mocy były na porządku dziennym. Do dzisiaj pamiętam olbrzymie maszyny Silicon Graphics i HP. Majestatyczne – budzące szacunek każdego niemal gościa serwerowni – superkomputery były w pewnym sensie perłą w koronie ośrodka. Jednak jak się okazało po bliższym poznaniu dla wielu były po prostu… NUDNE.

Od zaawansowanych badań naukowych…

Wszystko dlatego, że w zasadzie z punktu widzenia administracyjnego były to kolejne systemy klasy UNIX – dla wielu wtedy nie zrozumiałe – a użytkownikami tych kolosów byli naukowcy, fizycy czy chemicy. Maszyny te były bowiem w stanie prowadzić nawet kilkutygodniowe obliczenia dające odpowiedzi badaczom na pytania tak dalece specjalistyczne, że przeciętny człowiek nie rozumiał ani zadanego zadania ani otrzymanego wyniku. Być może jednym z atrakcyjnych wyników pracy takiej maszyny dla osoby niewtajemniczonej była bardzo dokładnie zasymulowana i zwizualizowana reakcja chemicza na poziomie pojedynczych cząsteczek. Przynajmniej wizualnie robiło to wrażenie.

Podsumowując, HPC był obszarem technologii kierowanych do bardzo sprofilowanych, specyficznych zastosowań, głównie naukowo-badawczych. Z czasem wielkie maszyny zastępowane były ogromnymi skupiskami komputerów PC. Działały one pod kontrolą systemów klasy UNIX/Linux, dobieranych w zależności od konkretnych potrzeb. Techniki algorytmów rozproszonego przetwarzania danych umożliwiały równoległe realizowanie zadań na poszczególnych węzłach klastra złożonego z kilku czy kilkudziesięciu komputerów.

Skąd powrót do powszechnego stosowania rozwiązań High Performance Computing? Żyjemy w świecie informacji których przyrost jest delikatnie mówiąc „bardzo dynamiczny”. Potrzeby analizy tych danych wykreowały wiele mechanizmów rozproszonego ich przetwarzania, który często umieszczamy w jednej szufladzie z podpisem BigData. Do tego dochodzą ogromne ilości algorytmów związanych ze sztuczną inteligencją, które rozwija już niemal każda duża firma oferująca oprogramowanie.

Tytułem dygresji zachęcam serdecznie do zapoznania się z projektem SETI@home, bardzo popularnym w tamtych czasach. Cytując Wikipedię: „Uczestnicy programu ściągają ze strony internetowej projektu program klienta, który pobiera porcje szumu kosmicznego rejestrowanego przez radioteleskop w Arecibo. Następnie klient analizuje szum pod kątem cech, które mogą świadczyć o tym, że sygnał został nadany przez pozaziemską inteligencję. Program działa jako wygaszacz ekranu lub aplet. W celu analizy sygnału wykorzystujący moce obliczeniowe procesora oraz karty graficznej komputera domowego. Standardowo program będzie wykorzystywał tylko wolną moc obliczeniową maszyny.”

…do systemów wspierających procesy biznesowe

Dziś za odnowieniem trendu wykorzystania rozwiązań klasy High Performance Computing stoją tacy potentaci, jak Google czy Facebook, którzy budowali centra danych na bazie ogromnej ilości komputerów PC. Ale także małe przedsiębiorstwa i gospodarstwa domowe mogły wykorzystać dużą moc maszyn do realizacji niektórych celów. Niech za przykład posłużą – montowane w zwykłych komputerach PC – karty graficzne dużej mocy wykorzystywane do produkcji Bitcoin’ów lub łamania haseł metodą BruteForce. Dlaczego jednak – przeglądając katalogi wielkich korporacji, takich jak Dell, HP, Huawei czy IBM – znajdujemy w nich mniej lub bardziej zaawansowane rozwiązania dedykowane do HPC?

Myślę, że odpowiedź jest relatywnie prosta. Żyjemy w świecie informacji których przyrost jest delikatnie mówiąc „bardzo dynamiczny”. Potrzeby analizy tych danych wykreowały wiele mechanizmów rozproszonego ich przetwarzania, który często umieszczamy w jednej szufladzie z podpisem BigData. Do tego dochodzą ogromne ilości algorytmów związanych ze sztuczną inteligencją, które rozwija już niemal każda duża firma oferująca oprogramowanie. Jako przykład polecam do rozpoznania rozwiązania Azure Cognitive Services i tu odsyłam na strony Microsoft. W uproszczeniu jest to szereg API do silników obliczeniowych umożliwiających np. rozpoznawanie emocji na podstawie fotografii człowieka.

Moc obliczeniowa potrzebna do realizacji takiej usługi w szczycie zapotrzebowania jest ogromna. Przez pozostały czas zaś jej utrzymanie pozostaje jedynie kosztem. Chmura publiczna idealnie konsoliduje te zasoby współdzieląc je między użytkowników. Jednak wtedy, kiedy podobne analizy chce prowadzić np. bank, który w pewnych obszarach obsługi klienta prezentuje mu zaawansowany awatar, musi przewidzieć budowę takiej infrastruktury we własnym centrum danych. Zapewne jest to jeden z powodów, dla których HPC jest w coraz większym stopniu stosowane poza nauką i badaniami.

Krzysztof Waszkiewicz jest architektem, dyrektorem ds. rozwoju biznesu w net-o-logy.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *