InfrastrukturaRynekPolecane tematy
Powstał standard definiujący kluczowe elementy architektury fog computing
Organizacja OpenFog Consortium oficjalnie udostępniła standard IEE 1934, który definiuje i opisuje kluczowe elementy infrastruktury “mgły obliczeniowej”. Prace nad nowym standardem zintensyfikowano w ciągu ostatnich 24 miesięcy, a wśród firm znalazły się m.in. ARM, Cisco, Dell, Intel oraz Microsoft.
Twórcy standardu opisują fog computing jako systemową architekturę horyzontalną, która dystrybuuje zasoby i usługi obliczeniowe, zasoby pamięci masowej, zasoby sieciowe oraz mechanizmy kontrolne w bardzo rozproszony sposób. Fog computing pozwala na dostarczanie usług i aplikacji w bezpośrednim sąsiedztwie zasobów generujących dane i może rozciągać się na inne środowiska za pośrednictwem wielu różnych protokołów.
Koncepcję przetwarzania mgłowego opracowano już przed kilku laty, jednak dopiero teraz, wraz z postępującą w błyskawicznym tempie popularyzacją rozwiązań z zakresu Internetu Rzeczy oraz sztucznej inteligencji szybko zyskuje ona na znaczeniu. Fog computing idealnie sprawdza się bowiem właśnie w rozproszonych środowiskach, w których funkcjonuje wiele urządzeń dostarczających dane, jak sensory i kamery wykorzystywane w systemach IoT. Przetwarzanie mgłowe świetnie wpisuje się też w potrzeby środowisk, w których kluczowe jest błyskawicznie gromadzenie i wstępne przetwarzanie – często cząstkowych – danych, a następnie przekazywanie ich dalej, na potrzeby przetwarzania centralnego. W takich zastosowaniach nie do końca sprawdza się model, w którym wszystkie dane przetwarzane są w jednym centralnym punkcie sieci – znacznie efektywniejszy i wygodniejszy jest tu właśnie fog computing, w którym za obsługę danych mogą odpowiadać, przykładowo, aplikacje instalowane w rozproszonych po całej sieci routerach.
“Od teraz mamy stworzony i wspierany przez branżę standard, który powinien znacząco przyspieszyć tworzenie nowych aplikacji i modeli biznesowych, bazujących na fog computing” – napisał w wydanym z okazji publikacji standardu oświadczeniu Helder Antunes, prezes OpenFog Consortium, a jednocześnie jeden z dyrektorów Cisco – firmy, która przed kilku laty prezentowała koncepcję nowej technologii.
Przedstawiciele OpenFog Consortium wyjaśniają, że opracowanie standardu było niezbędne, ponieważ istniejące obecnie modele infrastruktury nie będą w stanie odpowiednio skutecznie obsłużyć coraz większej ilości danych generowanych lub przetwarzanych przez współczesne systemy IoT, systemy oparte na sztucznej inteligencji czy sieci 5G. Przesunięcie zadań związanych z przetwarzaniem danych z centrum na obrzeża sieci ma umożliwić bardziej efektywne wykorzystanie zasobów, szybsze przetwarzanie danych, a także – wyższą niezawodność takich systemów i niższe koszty ich utrzymania.
Więcej informacji nt. nowego standardu znaleźć można na stronie OpenFog Consortium:
https://www.openfogconsortium.org/news/ieee-adopts-openfog-reference-architecture-as-official-standard-for-fog-computing/