SprzętInfrastruktura

Edge Computing: przetwarzanie brzegowe na potrzeby IoT

Dzisiejszy świat IT to nie tylko serwery czy komputery, to także internet rzeczy (IoT). Coraz więcej czujników, kamer a nawet żarówek łączy się z siecią w ten czy inny sposób. Często też gromadzi i przesyła dane do analizy, w wielu przypadkach do chmury. Problem zaczyna się, gdy tych danych jest dużo, a wyniki potrzebne są szybko. Jak poradzić sobie z takim wyzwaniem?

Edge Computing: przetwarzanie brzegowe na potrzeby IoT

Sam czas transmisji może być już przeszkodą, aby skutecznie wykorzystywać informacje. A co w przypadku, gdy w danej lokalizacji łącza mają za małą przepustowość do tego typu działań? Odpowiedzią na tego typu problemy jest właśnie przetwarzanie brzegowe.

Potencjalne zastosowania Edge Computing w projektach IoT

Po co wysyłać gigabajty danych do chmury, skoro można uzyskać wynik na miejscu? Przecież często okazuje się, że nawet 70% danych przesłanych do chmury nie jest – z różnych względów – używana do analizy. Informacje mogą być przecież uszkodzone bądź niepełne i nie nadają się do użycia. Warto wtedy wstępnie je przygotować, a nawet poddać analizie na miejscu, aby transmisji podlegały tylko te dane, które są wartościowe. Przykładem przetwarzania brzegowego w nauce są satelity fotografujące Ziemię. Te nowoczesne, wysłane niedawno, wyposażono w mechanizmy sztucznej inteligencji, które potrafią wybrać do transmisji tylko te wartościowe fotografie. Po co zajmować czas i marnować energię na przesyłanie nieostrych zdjęć?

Nauka nie jest oczywiście jedynym polem, na którym z powodzeniem można wykorzystać przetwarzanie brzegowe. Infrastruktura miast, sklepy, nadzór środowiska czy firmy produkcyjne. Wszędzie tam można zastosować przetwarzanie brzegowe Edge Computing. W niektórych przypadkach będzie to nawet konieczność, bo lawinowo rosnącemu strumieniowi danych nie sprosta nawet sieć 5G. Dotyczy to choćby danych na temat ruchu ulicznego pozwalających na inteligentne nim zarządzanie. Przecież nie można czekać kilku godzin na wyniki analizy aktualnego ruchu i informację, jak sterować światłami!

Przetwarzanie brzegowe to również okazja dla medycyny. Szybka i dokładna analiza danych na miejscu, wsparta sztuczną inteligencją, pozwoli sprawnie i skutecznie wskazywać choćby przypadki raka, które mogą umknąć człowiekowi. Dodatkowo unika się wysyłania danych medycznych do chmury, co nie zawsze może być możliwe ze względu na obowiązujące regulacje prawne.

Sklepy korzystające z tych rozwiązań mogą błyskawicznie reagować na postępowanie klientów i dzięki przetwarzaniu brzegowemu serwować im odpowiednie reklamy kontekstowe bez potrzeby łączenia się z centralą i przesyłania ogromnych pakietów danych. Mogą też – również niezależnie od centrali – analizować stany magazynowe i proponować odpowiednie towary do zamówienia. Ma to uzasadnienie, bo preferencje zakupowe uzależnione są też od położenia sklepu.

Sposób na budowę inteligentnych, rozporoszonych magazynów danych

Przetwarzanie brzegowe to też inteligentne, rozproszone magazyny danych. Skoro nie trzeba przesyłać danych do centrali w celu ich analizy, równie dobrze można je też przechowywać na brzegu sieci. O ich spójność zadbają np. – zaszyte w system Windows Server Datacenter – mechanizmy Storage Spaces Direct (S2D).

Ważne są też prywatność i bezpieczeństwo danych. Ponieważ przesyłane do centrali lub chmury dane są już wcześniej poddane analizie i odpowiednio przygotowane. Dzięki temu jest ich nie tylko mniej, ale trudniej je wykorzystać w sytuacji przechwycenia transmisji. Dane mogą być przecież odpowiednio zanonimizowane, zanim opuszczą urządzenia brzegowe. Tego nie da się zrobić, przesyłając dane bezpośrednio z urządzeń IoT do chmury obliczeniowej.

Technologie wspierające przetwarzanie brzegowe

Nvidia już dostrzegła ten rynek i wprowadza procesory przeznaczone do zadań związanych ze sztuczną inteligencją i szybką analizą danych. Przykładem takiego rozwiązania jest karta graficzna Nvidia Tesla T4. Przeznaczona jest ona do akceleracji przetwarzania w chmurze, uczenia maszynowego i tworzenia sieci neuronowych. Ponieważ jest to procesor specjalizowany do takich zadań, pozwala na olbrzymie ich przyspieszenie i dzięki temu znakomicie sprawdza się w rozwiązaniach przeznaczonych do przetwarzania brzegowego.

Intel nie zostaje w tyle i nowa seria procesorów Xeon D-2100 jest bardziej energooszczędna niż klasyczne rozwiązania serwerowe. Są też lepiej przygotowane do pracy w niesprzyjających warunkach, a ich architektura jest specjalnie zaprojektowana do przetwarzania dużych ilości danych przesyłanych przez urządzenia IoT.

Problemem jest niestety niezbyt przyjazne dla serwerów środowisko pracy. Stawianie serwerowni na hali produkcyjnej, w małej filii biura czy w sklepie jest niezbyt dobrym pomysłem z uwagi na koszty utrzymania oraz przestrzeni, jaka jest do tego potrzebna. Rozwiązania dla przetwarzania brzegowego są więc narażone na pył i wibracje oraz wysokie temperatury. Muszą też być małe i nie emitować zbyt dużego hałasu. Kto nie słyszał, jak głośne potrafią być serwery obciążone pracą, niech posłucha startujących z lotniska samolotów. To mniej więcej ten dźwięk i natężenie. Warto też, aby można je było zamontować w praktycznie dowolnym miejscu. Nawet na ścianie czy suficie.

Dedykowane serwery do zastosowań Edge Computing

Wychodząc naprzeciw takiemu zapotrzebowaniu, Lenovo włączyło do oferty nową serię maszyn. Serwer Lenovo ThinkAgile MX1021 jest odporny na pył i wibracje, a także może pracować w zakresie temperatur od 0oC do 55oC. Dzięki uniwersalnym sposobom montażu można go umieścić praktycznie wszędzie, a poziom hałasu, jaki emituje, porównywalny jest do zwykłego komputera biurowego. Ze spokojnym sumieniem można wiec umieścić go też w kontenerze biurowym na terenie budowy czy magazynie sklepu.

Lenovo ThinkAgile MX1021 to serwery wyposażone w procesory Xeon D-2100. Obsługują do 256 GB pamięci RAM i do 16 TB powierzchni dyskowej budowanej w oparciu o konstrukcje NVMe lub SATA SSD. Połączenie dwóch takich maszyn w klaster HCI (Hyper-Converged Infrastructure) zapewni nam nie tylko wydajne przetwarzanie danych, ale też odporność na awarie. W przypadku, gdy sama moc obliczeniowa procesorów okaże się niewystarczająca, w każdej z maszyn można umieścić kartę Nvidia Tesla T4. Natomiast jeśli zajdzie konieczność, serwery można wyposażyć w łączność LTE i nie martwić się brakiem stałego łącza.

Dzięki temu, że serwery pracują pod kontrolą systemu Windows Server Datacenter, administratorzy dostają możliwość kontrolowania całej infrastruktury z jednego miejsca. Jest nim konsola Windows Admin Center (WAC), którą dodatkowo zintegrowano z Lenovo XClarity. Dzięki temu zapewnia ona też nadzór nad działaniem samego sprzętu.

W opcji z 8-rdzeniowym procesorem możemy zakupić taką maszynę już za 10 tys. USD. Wraz z maszyną dostajemy specjalnie przygotowaną licencję Windows Server Datacenter oraz gwarancję, że serwer posiada certyfikat dla rozwiązań Azure Stack HCI. Dzięki współpracy inżynierów Lenovo i Microsoft, maszyny z serii ThinkAgile MX są doskonale przygotowane i dostosowane do pracy właśnie przy przetwarzaniu brzegowym w infrastrukturze hiperkonwergentnej.

Warto też wspomnieć, że dzięki temu, że administracja odbywa się z jednego panelu i może być realizowana zdalnie z jednego punktu, firma nie musi utrzymywać działu IT na miejscu instalacji samej maszyny. Dostępność usług zapewnia nie tylko infrastruktura HCI, ale też jakość samych urządzeń. Warto podkreślić, że serwery Lenovo klasy x86 od 7 lat zajmują pierwsze miejsce w badaniach ITIC poświęconym niezawodności i dostępności usług.

Podsumowanie

Jak widać, budowa infrastruktury hiperkonwergentnej służącej do przetwarzania brzegowego nie musi być droga. Na dodatek, dzięki prostocie administrowania systemem, można ją błyskawicznie modyfikować i rozbudowywać o następne węzły w przypadku zwiększonego zapotrzebowania na moc obliczeniową czy przestrzeń dyskową.

Przetwarzanie brzegowe nie zastąpi chmury w takim pojęciu, w jakim znamy ją dziś. Uzupełni jednak infrastrukturę IT tam, gdzie nie zachodzi potrzeba przesyłania dużych ilości danych do centrali, lub tam, gdzie jest to po prostu niemożliwe. Dzięki rozwiązaniom brzegowym, infrastruktura cloud computing będzie mniej scentralizowana, a jednocześnie spadnie obciążenie sieci. W części rozwiązań – tam, gdzie czas reakcji na zmieniające się dane naprawdę się liczy – przetwarzanie brzegowe to zasadniczo jedyna możliwa przyszłość.

Więcej można dowiedzieć się odwiedzając stronę Lenovo poświęconą infrastrukturze HCI. 

Łukasz Borkowski Lenovo Data Center Group – Technical Sales, BI Infrastructure

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *