AnalitykaInfrastrukturaPolecane tematy
Jak Edge Computing zmieni sposób zbierania i analizowania danych
Firmy telekomunikacyjne wciąż zastanawiają się, jak wdrożyć technologię 5G i utrzymać rentowność. Jednocześnie dużo uwagi poświęca się zwiększaniu szybkości oraz przepustowości sieci i mocy obliczeniowej na jej brzegu, daleko od scentralizowanego centrum danych, a bliżej użytkowników, którzy dane te tworzą. W jaki sposób odpowiedzieć na te wyzwania? Z jakich elementów powinna składać się infrastruktura działająca na brzegu sieci?
Według danych MarketsandMarkets, rynek rozwiązań działających na brzegu sieci wzrośnie do roku 2024 do 9 mld USD (z 2,8 mld USD w roku 2019). Oznacza to – w ciągu najbliższych 5 lat – wzrost na poziomie 26,5%. Największy wpływ na jego rozwój będzie miało zastosowanie w wielu różnych sektorach czujników IoT, popyt na rozwiązania wymagające bardzo niskich opóźnień (np. w związku z wprowadzeniem autonomicznych samochodów), czy zautomatyzowane rozwiązania do podejmowania decyzji w czasie rzeczywistym.
Co zrobić z ogromną ilością danych generowanych na brzegu sieci?
Z punktu widzenia operatorów najważniejsze jest to, aby przezwyciężyć prognozowany, wykładniczy wzrost ruchu sieciowego i ilości przesyłanych w internecie danych. Pojawiająca się potrzeba lekkich ram i systemów do zwiększenia wydajności rozwiązań obliczeniowych na krawędzi sieci tworzy szerokie możliwości dla dostawców rozwiązań Edge Computing. Największy zaś udział w tym rynku, jak prognozują analitycy MarketsandMarkets, będzie miał w najbliższych 5 latach sprzęt, w tym serwery i systemy pamięci masowych.
Coraz więcej danych jest generowanych na brzegu sieci, np. w dużych sieciach handlowych na temat transakcji dokonywanych przez klientów. Korzystając z serwerów Edge Computing można je wstępnie przeanalizować w sklepie i dopiero w dalszej kolejności, przetworzone już informacje wysłać do systemu IT w centrali. Dedykowane do tego celu maszyny Lenovo ThinkSystem Server Edge 350 nie wymagają specjalnych warunków, można je ukryć za monitorem, postawić na biurku jak zwykły komputer PC, albo nawet powiesić na ścianie.
Łukasz Borkowski, Solutions Sales Executive w Lenovo Technology w Polsce
Szybka adopcja rozwiązań Edge Computing ma mieć związek z coraz większą ilością generowanych danych. Przykładowo duże firmy produkcyjne muszą skorelować z informacjami historycznymi obszerne dane generowane z czujników IoT i urządzeń wykonawczych podłączonych do ich fizycznych aktywów, takich jak maszyny, turbiny czy fabryki. Pomaga im to wykryć lub przewidzieć awarie w możliwie najkrótszym czasie, aby uniknąć przestojów i strat w produkcji. Jednocześnie migracja do chmury dla całej infrastruktury IT stwarza problemy związane z opóźnieniami oraz zasadnością ekonomiczną takich decyzji. Na popularność Edge Computing wpływa również rosnące zapotrzebowanie pracowników na powszechny dostęp do zasobów i aplikacji obliczeniowych, przy jednoczesnym zapewnieniu właściwego przechowywania danych.
„Coraz więcej danych jest tworzonych na brzegu sieci, np. w dużych sieciach handlowych na temat transakcji dokonywanych przez klientów. Korzystając z serwerów Edge Computing, można je wstępnie przeanalizować w sklepie i dopiero w dalszej kolejności, przetworzone już informacje, wysłać do systemu IT w centrali. Przeznaczone do tego celu maszyny Lenovo ThinkSystem Server Edge 350 nie wymagają specjalnych warunków, można je ukryć za monitorem, postawić na biurku jak zwykły komputer PC lub powiesić na ścianie. Można więc serwer ten zainstalować gdziekolwiek – w sklepie, magazynie czy na hali produkcyjnej” – wyjaśnia Łukasz Borkowski, Solutions Sales Executive w Lenovo Technology w Polsce. „Lenovo ThinkSystem SE 350 nie musi też mieć dostępu do szybkiej sieci światłowodowej. Można go podłączyć do internetu na trzy sposoby: za pomocą sieci kablowej, modułu Wi-Fi lub LTE. Co ważne, w lokalizacji ‘brzegowej’ możemy też stworzyć klaster redundantnych serwerów” – dodaje.
Jakie są potencjalne zastosowania rozwiązań Edge Computing?
Korzystanie z aplikacji wykorzystujących przetwarzanie brzegowe – które wymagają wysokiej przepustowości i niskiego poziomu opóźnień – umożliwia architektura sieciowa Multi-Access Edge Computing (MEC). Ze względu na fakt, że platforma MEC może bezpośrednio wchodzić w interakcję z radiową siecią dostępową (RAN), może to skutkować zmniejszeniem przeciążenia pasma transmisji. Zapewni to lepszą wydajność aplikacji wymagających wysokiej przepustowości, takich jak rzeczywistość rozszerzona (Augmented Reality), lokalna dystrybucja treści i praktycznie wszystko, co przyczynia się do szybkiego rozwoju internetu rzeczy (IoT). Architektura MEC udostępnia też nowe rynki deweloperom oraz programistom, którzy tworzą innowacyjne aplikacje i usługi działające w ramach rozwiązań brzegowych.
„Multi-Access Edge Computing pozwala na wyniesienie serwera Lenovo ThinkSystem SE 350 na skraj sieci. Możliwych zastosowań jest bardzo dużo. Mogą to być np. autostrady, na których działają systemy poboru opłat, takie jak polski viaTOLL. Nasz serwer może być zamontowany na tej samej kratownicy co czujniki tego systemu” – opowiada Łukasz Borkowski. „Zastosowanie rozwiązań Edge Computing sprawdza się wszędzie tam, gdzie rejestrowana jest ogromna ilość drobnych zdarzeń. Dzięki temu, że informacja o każdym z nich nie jest przesyłana bezpośrednio do centrali, przeciwdziałamy gwałtownemu wzrostowi ruchu w sieciach telekomunikacyjnych. Przesyłamy bowiem nie cały ‘szum’ powstający m.in. w ponad 14 mld czujników IoT, ale jedynie 5–10% przetworzonych wstępnie danych” – dodaje. Obecnie klienci w Polsce dopiero badają możliwości infrastruktury Edge Computing. Sprawdzają, w jaki sposób zastosować tego typu rozwiązania i jakie korzyści one przyniosą. „W naszym kraju największe zainteresowanie widać dziś wśród operatorów i właścicieli dużych sieci handlowych. Te ostatnie firmy zaczynają już pierwsze testy” – wyjaśnia Łukasz Borkowski.
9 mld USD
(2,8 mld USD w roku 2019) będzie wart rynek rozwiązań Edge Computing w roku 2024 – wg analityków MarketsandMarkets. Oznacza to – w ciągu najbliższych 5 lat – wzrost na poziomie 26,5%.
Jak ograniczyć wykładniczy wzrost ruchu w sieciach telekomunikacyjnych?
Zapewne niedługo, zwłaszcza w kontekście budowy sieci 5G, znacząco wzrośnie zapotrzebowanie na infrastrukturę Edge Computing wśród operatorów sieci komórkowych. „Komercyjne uruchomienie sieci 5G spowoduje lawinowy wzrost ilości przetwarzanych danych, a w związku z tym, tak samo szybko będzie rósł ruch generowany w sieciach komórkowych. Obecna przepustowość sieci może mu nie sprostać. Widać to teraz, gdy dzieci i ich rodzice zaczęli masowo uczyć się i pracować w domu” – mówi Łukasz Borkowski.
Orange Polska już kilka lat temu wspominał o konieczności budowy kilkunastu tzw. Distributed Data Center. Miały być rozlokowane np. w referencyjnych miejscach w Polsce, tam gdzie jest najwięcej klientów tej sieci. Ich celem było przejęcie większości lokalnego ruchu związanego z przesyłaniem danych. „W przyszłości żaden operator nie będzie w stanie tego zrobić w modelu scentralizowanym. Ograniczeniem są bowiem przepustowość łączy i rosnące wraz ze zwiększającym się ruchem opóźnienia. Dlatego największą część ruchu musimy przetwarzać lokalnie” – pisał już 4 lata temu na łamach „ITwiz” Tomasz Matuła, niezależny ekspert z ponad 20-letnim doświadczeniem w branży IT, ICT i telekomunikacyjnej, w latach 2015–2018 dyrektor Infrastruktury ICT i Cyberbezpieczeństwa w Orange Polska.
Wszystkie wspomniane wyżej działania prowadzą do zwiększenia presji wobec firm telekomunikacyjnych, aby przyspieszyły budowę infrastruktury brzegowej opartej na rozwiązaniach chmurowych. Sukcesy usługodawców telekomunikacyjnych będą zależały od stworzenia sposobu na wykorzystanie nowej infrastruktury tak, aby zaoszczędzić środki finansowe i wygenerować nowe źródła przychodów.
W jaki sposób zarządzać infrastrukturą Edge Computing?
„Zarządzanie zdecentralizowanym przetwarzaniem danych na brzegu sieci stanowi duże wyzwanie dla firm telekomunikacyjnych. Lenovo mierzy się z nim bezpośrednio, oferując pojedynczą platformę i architekturę do wdrażania i automatyzacji rozwiązań do przetwarzania danych na brzegu sieci oraz zarządzania nimi z jednego miejsca. Zrealizowaliśmy już takie projekty na świecie. Przykładowo, T-Systems – największa firma z branży usług IT w Niemczech – posiada 30 centrów danych na świecie i 65 000 maszyn wirtualnych, na których działają aplikacje o fundamentalnym znaczeniu dla klientów z sektora dużych przedsiębiorstw. Zastosowanie rozwiązania Lenovo Open Cloud Automation (LOC-A) umożliwiło skrócenie czasu kompleksowego prowizjonowania całego systemu z kilku tygodni do zaledwie kilku godzin. Była to niezwykle korzystna zmiana nie tylko dla T-Systems, lecz także klientów tej firmy, którzy mogą teraz o wiele szybciej konfigurować i wykorzystać chmury prywatne” – wyjaśnia Charles Ferland, wiceprezes i dyrektor generalny ds. usługodawców rozwiązań sieciowych i telekomunikacyjnych w Lenovo.
LOC-A jest kompleksową platformą automatyzacji w chmurze, która umożliwia planowanie, wdrażanie, zarządzanie procesami oraz porównywanie wydajności rozproszonej infrastruktury chmurowej. Rozwiązanie to działa z platformami Kubernetes, Red Hat OpenShift, OpenStack oraz VMware Cloud Foundation. „Platforma LOC-A zmniejszyła nakłady operacyjne ponoszone przez T-Systems o 40%. Łączy ona zalety chmury publicznej, takie jak szybkie skalowanie, elastyczność i szybkie udostępnianie usług, z takimi atutami chmury prywatnej, jak ochrona danych i zabezpieczenia. Ta płynna integracja korzyści umożliwia wykorzystanie pełnego potencjału łączności 5G” – mówi Charles Ferland.
T-Systems może dziś błyskawicznie wdrażać zróżnicowane środowiska dla nowych klientów dzięki temu, że oprogramowanie Lenovo Open Cloud Automation usprawnia ten proces i upraszcza operacje wykonywane w różnych chmurach. Klienci skracają współczynnik Time-to-Market, korzystając z automatycznego wdrożenia platform Red Hat OpenStack, OpenShift, VMware Cloud Foundation i Kubernetes. „5G może stawiać branży telekomunikacyjnej nowe wyzwania, ale niesie też nowe szanse. Lenovo ma odpowiednie zasoby i rozwiązania, aby pomagać klientom w wykorzystaniu możliwości stwarzanych przez nową epokę telekomunikacji, dbając o niezawodne wdrożenie, rozbudowę i utrzymanie infrastruktury sieciowej” – podsumowuje Charles Ferland.