InfrastrukturaCyberbezpieczeństwoSztuczna inteligencjaCIOPREZENTACJA PARTNERA

Sieci przyszłości: prognoza na 5 i 10 lat

Executive ViewPoint

Z Marcinem Kubitem, Head of Connectivity Products w T-Mobile Polska rozmawiam, o tym jak w perspektywie kolejnych lat zmienią się sieci: jakie aspekty funkcjonowania warstwy sieciowej przejmą rozwiązania autonomiczne, czy pojawi się jedna dynamicznie morficzna supersieć, a także o tym jak zmieni się paradygmat i architektura sieci oraz profil i zadania zespołów odpowiedzialnych za ich rozwój oraz utrzymanie.

Sieci przyszłości: prognoza na 5 i 10 lat

Dokąd zmierza rozwój sieci korporacyjnych i jakie czynniki ten rozwój napędzają?

Jednym z głównych motorów rozwoju technologii sieciowych jest dynamika biznesu. Niezależnie od branży, biznes zmienia się bardzo szybko. Nowe technologie, z których firmy i instytucje korzystają zarówno do pracy, jak i do współpracy z innymi podmiotami, rosnąca skala wykorzystania chmury obliczeniowej, potrzeba szybkości działania – wszystko to powoduje, że potrzeby zmieniają coraz szybciej, a sieci muszą być w stanie tym zmianom sprostać.

Nie możemy sobie już pozwolić na to, żeby zmiany w środowisku sieciowym trwały tygodniami czy miesiącami. Mówimy o konieczności wprowadzania zmian w ciągu dni, czasami nawet godzin. Mówimy też o konieczności szybkiego budowania środowisk testowych – „proof of concept” – które pozwolą zweryfikować jakąś tezę, zanim będzie wykorzystana na szerszą skalę.

Drugi czynnik to bezpieczeństwo. Sieci muszą być coraz bardziej odporne, i to nie tylko w tradycyjnym układzie: oddział – centrala – centrum danych. Chodzi także o chmurę i zdalnego użytkownika. Coraz częściej musimy zabezpieczać nie tylko ruch z tradycyjnych routerów, które do tej pory kojarzyły się z siecią WAN, ale również z różnych peryferii: urządzeń IoT oraz tych wykorzystywanych przez pracowników zdalnych.

Kolejnym czynnikiem rozwoju sieci jest automatyzacja. Poszczególne zadania coraz częściej wykonywane są przez roboty, autonomiczne pojazdy, czy w ogóle z wykorzystaniem urządzeń IoT. To również wpływa na konieczność uelastycznienia sieci.

Ostatni element to AI, które jest dzisiaj wszechobecne. W wielu zastosowaniach AI wspiera klasyczną automatyzację, zaczynają się jednak pojawiać także rozwiązania umożliwiające inteligentny monitoring, weryfikację poprawności konfiguracji, a także usuwania awarii. Infrastruktura sieciowa musi za tymi nowościami nadążać.

Na pewno przy rozległych sieciach niektóre aspekty związane z ich funkcjonowaniem będą realizowane w sposób autonomiczny. Pojawią się obszary, w które człowiek nie będzie musiał ingerować, bo sieć nauczy się pewnych zachowań i będzie odpowiednio reagować.

Czy polskie firmy dysponują kompetencjami, żeby wykorzystywać te nowe możliwości sieci? Jaka będzie tu rola operatorów telekomunikacyjnych? Czy będą oni brali odpowiedzialność za rozwój nowoczesnych sieci, na których klienci budują swoje modele biznesowe?

Mamy do czynienia z dwoma uniwersalnymi modelami: albo klient posiada te zasoby i sam próbuje siecią zarządzać i wdrażać, albo powierza to operatorowi bądź innemu dostawcy usług lub integratorowi.

Proszę jednak pamiętać, że biorąc pod uwagę dynamikę zmian technologicznych w warstwie sieci, dzisiejsze kompetencje po 6 miesiącach mogą być już nieaktualne, ponieważ nieustannie na rynek wchodzą nowe technologie, rozwiązania, a też zabezpieczenia, odpowiadające pojawiającym się zagrożeniom.

Ten sposób zarządzania siecią wymusza więc stałe podnoszenie kompetencji. W praktyce, można wiele zadań realizować samodzielnie, co wiąże się z koniecznością ciągłego poszerzania zespołów albo oddawania części prac sztucznej inteligencji. Można też wspierać się współpracą z operatorami, którzy biorą na siebie część prac: konfigurację, zapewnienie najnowocześniejszych zabezpieczeń, wykrywanie zagrożeń, zbudowanie odpowiedniej architektury sieci.

Świat biznesu staje się jednak coraz bardziej złożony i biorąc to pod uwagę sądzę, że firmy będą musiały zaopiekować się przede wszystkim systemami wewnętrznymi: aplikacjami, systemami e-commerce do współpracy z klientami, gospodarką magazynową, obsługą produkcji, zarządzaniem procesami. Z kolei elementy związane z sieciami- zapewnienie odpowiedniej komunikacji nie tylko oddziałów, ale wszystkich użytkowników i urządzeń – będą naturalnie przechodzić pod pieczę operatorów.

Kiedy ten obraz się wyklaruje, okrzepnie?

W mojej ocenie, w perspektywie najbliższych 5-10 lat klientom coraz trudniej będzie nadążyć za zmianami technologicznymi. Większość z nich więc odda część kompetencji.

Dzisiaj rynek jest podzielony: instytucje finansowe czy duże instytucje publiczne cały czas chcą mieć kwestie zarządzania i konfiguracji w swoich rękach. Coraz częściej jednak realizujemy projekty, gdzie operator wdraża rozwiązania sieciowe i zapewnia szkolenia zespołom klienta, które część rzeczy konfigurują, ale już te najbardziej radykalne zmiany stanowią jego odpowiedzialność.

Dawniej można było zakładać, że biznes stuletni będzie działał przez kolejne 100 lat. Dzisiaj firmy potrafią w ciągu 2-3 lat urosnąć do ogromnych rozmiarów, a w ciągu następnych 2-3 lat mogą zupełnie zniknąć z rynku. W tak dynamicznym otoczeniu nie ma czasu, żeby takie organizacje zbudowały kompetencje zarówno w obszarze sieciowym, a także w warstwie infrastruktury IT oraz aplikacji.

Czy za nowymi potrzebami pójdzie potrzeba zwiększenia pojemności i przepustowości sieci?

Nie ma takiej przepustowości, której rynek nie potrafiłby wykorzystać. Dwie dekady temu łącza 1-megabitowe wydawało się nadmiarowe. Teraz sieci o przepustowości na poziomie jednego, dwóch czy dziesięciu gigabitów są dość powszechnie dostępne na rynku.

Wydaje mi się jednak, że gra będzie toczyć się o coś innego. Przepustowość nie stanowi problemu – większość połączeń opiera się na technologiach światłowodowych, za sprawą zmian technologii sieciowych osiągnięcie 100, czy nawet 400 gigabitów nie jest problemem. Prawdziwa walka zacznie się o minimalizację strat pakietów i redukcję opóźnień.

Z czego to wynika?

Weźmy instytucje finansowe i giełdy, które zdalnie zarządzają albo analizują wyniki dużych rynków typu Londyn czy Nowy Jork. Każda milisekunda opóźnienia w dostępie do takich danych może oznaczać konkretne straty. Podobne potrzeby staną się powszechne m.in. w sektorze ochrony zdrowia.

A zatem przyszłość to przetwarzanie brzegowe?

Moim zdaniem tak. Pojawi się coraz więcej brzegowych centrów danych. Dzisiaj mamy hiperskalerów, mamy centra danych, ale te z czasem będą coraz bliżej nas.  Możliwe, że za 10 lat na każdym kroku będzie małe centrum danych, które będzie obsługiwać wszystkie obciążenia lokalnie. Nie zmienia to jednak faktu, że kluczowe znaczenie będzie mieć zapewnienie szybkiej łączności pomiędzy takimi centrami danych a środowiskami IT poszczególnych firm i instytucji.

Rynek będzie szukać rozwiązań, które zapewnią odpowiednią jakość, ale nie będą to od razu 10-gigabitowe, 100-gigabitowe łącza. Przepustowość przestaje mieć znaczenie. Dzisiaj nawet na rynku konsumenckim dostępne są oferty 8 GBps – tylko po co komuś w domu 8 gigabitów? To nie jest do wykorzystania.

A w biznesie?

To samo dotyczy biznesu. Będziemy szukać rozwiązań, które pozwalają szybko dostać się do aplikacji. Jeżeli chcemy automatyzować procesy, to czas, kiedy urządzenie czy zdalny pojazd odpytują systemy o informacje – i uzyskują odpowiedź, musi być jak najkrótszy. Potrzebne będą zatem łącza z odpowiednio skonfigurowanym routingiem, tak żeby ruch przechodził do celu jak najszybciej.

Świat biznesu staje się coraz bardziej złożony i biorąc to pod uwagę sądzę, że firmy będą musiały zaopiekować się przede wszystkim systemami wewnętrznymi: aplikacjami, systemami e-commerce do współpracy z klientami, gospodarką magazynową, obsługą produkcji, zarządzaniem procesami. Z kolei elementy związane z sieciami- zapewnienie odpowiedniej komunikacji nie tylko oddziałów, ale wszystkich użytkowników i urządzeń – będą naturalnie przechodzić pod pieczę operatorów.

Czy w dłuższej perspektywie może to zapewnić możliwości rozwoju integratorom, którzy będą dodatkową stroną między operatorem telekomunikacyjnym a dużą firmą?

Rozwój, także technologiczny, zawsze stwarza możliwości do powstawania nowych modeli biznesowych. Myślę, że na rynku mogą zaistnieć przede wszystkim silni dostawcy niszowych usług. Przykładem może być zarządzanie IoT. Mamy prognozy, że w przeciętnym domu niedługo będzie funkcjonowało nawet kilkadziesiąt czujników, zasilających danymi systemy zarządzające różnymi aspektami funkcjonowania budynków. Powstaną więc takie obszary, w których kluczową rolę odegrają dostawcy działający pomiędzy operatorem sprawującym pieczę nad siecią WAN a peryferyjnymi urządzeniami czy użytkownikami, gwarantując podstawowy poziom bezpieczeństwa. Zapewne pojawią się wyspecjalizowane firmy wspierające optymalizację procesów związanych z obsługą i ochroną infrastruktury IoT.

A sieci bezprzewodowe i kampusowe?

Będą powstawać firmy, które mogą specjalizować się w całym obszarze związanym z funkcjonowaniem sieci bezprzewodowych. Mam tu na myśli nie tylko zapewnienie komunikacji, ale także dostarczanie danych, analityki i tworzeniu możliwości automatyzacji. Coraz większa jest też skala wykorzystania sieci kampusowych wykorzystujących technologię 5G.

Możemy sobie wyobrazić, że powstaną dedykowane rozwiązania, które wykorzystując dostarczone przez operatora usługi sieci kampusowych 5G, wyjdą naprzeciw specyficznym potrzebom dla branż, takich jak medycyna czy przemysł.

Jeśli chodzi o cyberbezpieczeństwo – czy cykle życia podstawowych urządzeń sieciowych będą coraz krótsze?

Bezpieczeństwo jest w dużej mierze pochodną sytuacji geopolitycznej, nie samej technologii. To wojna przeniesiona do cyberświata. Kwestie związane z atakami na infrastrukturę krytyczną to dziś nie ataki typowo terrorystyczne, ale cyberataki, które mają na celu uniemożliwienie korzystania z usług publicznych – elektrowni, wodociągów, komunikacji.

Sam rozwój technologii wymusza natomiast rozwój bezpieczeństwa. Jeszcze 5 lat temu mało kto zastanawiał się na tym, że przez czujnik mierzący temperaturę, kamerę monitorującą linię produkcyjną czy kasę samoobsługową – wszystko wpięte w sieć – można się dostać do kluczowego systemu. Miejsc, z których można się dostać do sieci i wrażliwych systemów, jest coraz więcej. Cały więc ekosystem musi być odpowiednio zabezpieczony.

Spodziewam się zatem, że zmienność urządzeń działających w sieci także będzie duża, a częsta ich wymiana związana z cyklem życia – albo strategiczną podatnością dostawcy – nie będzie wyjątkowym wydarzeniem.

Operator jest o tyle w lepszej sytuacji, że zawsze posiada kilku dostawców, także na poziomie technologii. W razie konieczności migracji nie musi przenosić całej infrastruktury, tylko jej część. Wypracował procesy, które pozwalają na sprawne i szybkie przeprowadzenie migracji.

Zresztą, jeżeli już mówimy o rozwiązaniach krytycznych, a według ustawy o uKSC mamy aż 4 lata na wymianę krytycznych elementów infrastruktury – to jaka jest krytyczność tego rozwiązania? Oczywiście newralgicznych urządzeń nie da się wymienić w ciągu 4 dni, ale to musi być racjonalny okres, który faktycznie pozwala szybko pozbyć się zagrożenia.

Czy SD-Everything będzie standardem nowoczesnych środowisk sieciowych?

Kiedy 20 lat temu powstawały technologie wirtualizacji sieci, od razu powstawały zrzeszenia próbujące je standaryzować. Teraz jest nieco inne podejście, bo technologia zmienia się za szybko, żeby opisywać te zmiany standardami.

Świat sieciowy zmierza w kierunku możliwości wykorzystania różnych technologii na tych samych urządzeniach. Może być tak, że sprzęt sieciowy będzie dostarczany przez 2-3 producentów, a głównym polem walki dostawców technologii sieciowych będzie strona funkcjonalna wynikająca z oprogramowania.

Myślę, że przed tym się już nie da uciec. Koncept SD-WAN stał się codziennością. Przybywa wdrożeń rozwiązań SASE, które przecież bazują na modelu wirtualizacji sieci.

Zaczynamy też powszechnie rozmawiać o Zero Trust Network Access – czyli dostępie, który zapewnia bezpieczeństwo z dowolnego miejsca.

WAN zostanie rozciągnięty do nieskończonej ilości urządzeń. Musimy mieć narzędzia, które pozwolą nad tym zapanować. Bez podejścia Software-Defined Everything nie będzie to możliwe.

W jaki sposób te zmiany na poziomie technologii wpłyną na paradygmat projektowania architektury sieciowej?

Z pewnością, zwłaszcza w organizacjach wielooddziałowych, nie będziemy mówili o płaskich architekturach sieciowych.

Będziemy rozmawiać o tym, żeby każdy użytkownik z dowolnego miejsca, za pomocą dowolnego urządzenia mógł w bezpieczny sposób połączyć się z siecią – z zasobami lokalnymi lub chmurowymi. Wszystko to musi być zaprojektowane tak, aby korzystanie z aplikacji było jak najwygodniejsze dla użytkowników końcowych.

W obliczu szybko zmieniających się potrzeb, aplikacji i struktury sieci potrzebna będzie jednak programowalność całego ekosystemu.

W efekcie model Software-Defined Everything upowszechni się nie tylko w sieciach WAN, ale także w sieciach kampusowych. Powód jest prosty. Sieci te powstają po to, żeby automatyzować procesy, żeby wspierać automatyzację, robotykę. One też będą musiały wspierać kwestie programowalności, bo tych procesów i rozwiązań jest coraz więcej. Powstanie nam jeden ekosystem sieciowy skupiony na tym, żeby użytkownik końcowy w szybki i bezpieczny sposób mógł dostać się do zasobów.

A urządzenia końcowe, takie jak routery?

Można się pokusić o takie przewidywania, że za 5-10 lat routery jako urządzenia końcowe w ogóle nie będą potrzebne. Urządzenia końcowe będą na tyle mocne, będą potrafiły na tyle dużo – co pokazuje ewolucja smartfonów – że będzie potrzebne tylko odpowiednie medium: czy to światłowód, czy sieć 5G, która bardzo dobrze spełnia potrzeby biznesowe.

Sieci będą zatem rozległe, ale nie w kontekście setek czy tysięcy lokalizacji, tylko użytkowników, urządzeń IoT, pojazdów i wszystkich elementów, które do sieci muszą się podłączyć.

Tak. Każdy użytkownik, każde urządzenie, każdy element sieci będzie tak samo ważny. WAN zostanie rozciągnięty do nieskończonej ilości urządzeń. Musimy mieć narzędzia, które pozwolą nad tym zapanować. Bez podejścia Software-Defined Everything nie będzie to możliwe.

Podobnie, jeśli chodzi o bezpieczeństwo. Jeżeli jakiś element, urządzenie, użytkownik, zacznie stanowić zagrożenie czy w niepożądany sposób wpływać na sieć – zostanie od tej sieci odcięty.

Czy w myśl tych przewidywań sieci mogą stać się autonomiczne? Byłoby to konsekwencją faktu, że sieci staną się mocno rozległe, zdolne do uczenia się i dostosowywania do zmian, jak żywy ocean Solaris z powieści Stanisława Lema.

Jak Solaris? Na pewno przy tak rozległych sieciach niektóre aspekty związane z ich funkcjonowaniem będą realizowane w sposób autonomiczny. Pojawią się obszary, w które człowiek nie będzie musiał ingerować, bo sieć nauczy się pewnych zachowań i będzie odpowiednio reagować.

Jeżeli chcielibyśmy jednak mieć pewność, że sieć jest w pełni bezpieczna, to takie całkowite oddanie kontroli nad nią sztucznej inteligencji byłoby jednak bardzo ryzykowne.

Na pewno autonomiczne rozwiązania będą istnieć w części sieci dotyczącej rozwiązywania problemów, routingu, monitoringu czy analityki. Być może też w kontekście optymalizacji, automatycznego podnoszenia pasma, skracania ścieżek, żeby optymalizować opóźnienia.

Natomiast kwestie dotyczące bezpieczeństwa, konfiguracji polityk dostępu do sieci, moim zdaniem, będą realizowane ręcznie lub przynajmniej pod nadzorem człowieka.

Przyznam szczerze, że o ile mocno wierzę w to, że sieci zupełnie zmienią się w nadchodzącej dekadzie, tak nie wydaje mi się – albo nawet nie chciałbym – żeby powstały w pełni autonomiczne sieci, które wszystko tworzą same. Podobniej jak z autonomicznymi pojazdami – są pewne sytuacje, w których trzeba podjąć nietypową, intuicyjną decyzję, i tutaj trzeba tego ludzkiego czynnika.

Jest to pewną przesłanką rozwoju kompetencji w stronę architekta biznesowo-sieciowego, który będzie wiedział, jak sformułować pytanie o oczekiwane efekty do operatora. Jak sobie wyobrażasz profil inżyniera sieciowego?

Wydaje mi się, że to będzie dość unikalny zasób umiejętności. Taką rolę będą pełnić osoby, które z jednej strony rozumieją technologię, a z drugiej potrafią przełożyć potrzeby biznesowe na język technologiczny.

Już dziś jest to rzadko spotykana umiejętność – znalezienie kogoś, kto swobodnie rozmawia z biznesem, a jednocześnie potrafi zaprojektować architekturę sieci, jest dużym wyzwaniem. Część mniejszych firm zapewne więc w całości odda te kwestie operatorowi czy integratorowi – będą przekazywać ogólny pomysł na rozwiązanie biznesowe, a dostawca będzie je przekładać na język technologii.

W większych organizacjach potrzebne będą jednak osoby, które potrafią połączyć te dwa światy – określą potrzeby biznesowe i powiedzą, czego do ich realizacji potrzebują.

Czyli taki „szef łączności” ogarniający całość problemu komunikacji firm. Wracamy do starych pojęć.

Może tak być. Ale z nowym aparatem. Ten nowy łącznościowiec będzie musiał korzystać z narzędzi AI, które wesprą go w podejmowaniu decyzji dotyczących całego ekosystemu komunikacji w firmie.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *