InfrastrukturaRynekPolecane tematy

Powstał standard definiujący kluczowe elementy architektury fog computing

Organizacja OpenFog Consortium oficjalnie udostępniła standard IEE 1934, który definiuje i opisuje kluczowe elementy infrastruktury “mgły obliczeniowej”. Prace nad nowym standardem zintensyfikowano w ciągu ostatnich 24 miesięcy, a wśród firm znalazły się m.in. ARM, Cisco, Dell, Intel oraz Microsoft.

Powstał standard definiujący kluczowe elementy architektury fog computing

Twórcy standardu opisują fog computing jako systemową architekturę horyzontalną, która dystrybuuje zasoby i usługi obliczeniowe, zasoby pamięci masowej, zasoby sieciowe oraz mechanizmy kontrolne w bardzo rozproszony sposób. Fog computing pozwala na dostarczanie usług i aplikacji w bezpośrednim sąsiedztwie zasobów generujących dane i może rozciągać się na inne środowiska za pośrednictwem wielu różnych protokołów.

Koncepcję przetwarzania mgłowego opracowano już przed kilku laty, jednak dopiero teraz, wraz z postępującą w błyskawicznym tempie popularyzacją rozwiązań z zakresu Internetu Rzeczy oraz sztucznej inteligencji szybko zyskuje ona na znaczeniu. Fog computing idealnie sprawdza się bowiem właśnie w rozproszonych środowiskach, w których funkcjonuje wiele urządzeń dostarczających dane, jak sensory i kamery wykorzystywane w systemach IoT. Przetwarzanie mgłowe świetnie wpisuje się też w potrzeby środowisk, w których kluczowe jest błyskawicznie gromadzenie i wstępne przetwarzanie – często cząstkowych – danych, a następnie przekazywanie ich dalej, na potrzeby przetwarzania centralnego. W takich zastosowaniach nie do końca sprawdza się model, w którym wszystkie dane przetwarzane są w jednym centralnym punkcie sieci – znacznie efektywniejszy i wygodniejszy jest tu właśnie fog computing, w którym za obsługę danych mogą odpowiadać, przykładowo, aplikacje instalowane w rozproszonych po całej sieci routerach.

“Od teraz mamy stworzony i wspierany przez branżę standard, który powinien znacząco przyspieszyć tworzenie nowych aplikacji i modeli biznesowych, bazujących na fog computing” – napisał w wydanym z okazji publikacji standardu oświadczeniu Helder Antunes, prezes OpenFog Consortium, a jednocześnie jeden z dyrektorów Cisco – firmy, która przed kilku laty prezentowała koncepcję nowej technologii.

Przedstawiciele OpenFog Consortium wyjaśniają, że opracowanie standardu było niezbędne, ponieważ istniejące obecnie modele infrastruktury nie będą w stanie odpowiednio skutecznie obsłużyć coraz większej ilości danych generowanych lub przetwarzanych przez współczesne systemy IoT, systemy oparte na sztucznej inteligencji czy sieci 5G. Przesunięcie zadań związanych z przetwarzaniem danych z centrum na obrzeża sieci ma umożliwić bardziej efektywne wykorzystanie zasobów, szybsze przetwarzanie danych, a także – wyższą niezawodność takich systemów i niższe koszty ich utrzymania.

Więcej informacji nt. nowego standardu znaleźć można na stronie OpenFog Consortium:
https://www.openfogconsortium.org/news/ieee-adopts-openfog-reference-architecture-as-official-standard-for-fog-computing/

Tagi

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *