Z Tomaszem Matułą, dyrektorem Infrastruktury ICT i Cyberbezpieczeństwa w Orange Polska rozmawiamy o wykorzystaniu wirtualizacji przez operatorów, koncepcji Network Function Virtualization, związanej z tym zmianie architektury systemów telekomunikacyjnych i oparciu jej m.in. o sieć tzw. Distributed Data Center znajdujących się jak najbliżej użytkownika końcowego i przejmujących większość generowanego przez niego ruchu. Dużo mówi się dziś o wirtualizacji. Czy rozwiązania tego typu „docierają” także do firm telekomunikacyjnych, dotykają rozwiązań typowych dla operatorów? Od lat powszechnie stosujemy wirtualizację. W przypadku platform, z których korzystają nasze aplikacje biznesowe, najczęściej mówimy o rozwiązaniach bazujących na platformie VMWare. Jednak coraz szerzej stosowane są rozwiązania open source. Takim przykładem może być OpenStack, który bardzo mocno „wkracza” do naszej infrastruktury. Stanowi on między innymi podstawę pracy dla naszych platform usługowych. Wykorzystujemy go także w projektach mających na celu wirtualizację funkcji sieciowych. To w dużym stopniu pokrywa się z ogólnoświatowymi trendami w budowie rozwiązań telco. W szczególności mam tu na mysli: Network Function Virtualization – NFV oraz Software Defined-Network – SDN. To dopiero początek. Jestem przekonany, że technologie te zapoczątkowują rewolucyjne zmiany, które będą widoczne już za 3-4 lata, zmieniając podejście do wdrażania rozwiązań telco. Inaczej mówiąc oznacza to, że tradycyjne elementy telco stają się powoli po prostu oprogramowaiem działającym na tradycyjnej infrastrukturze IT – stąd funkcjonuje nawet hasło „Network ITzation”. W jaki sposób Network Function Virtualization może zmienić rozwiązania operatorskie? O ile powszechne wykorzystanie protokołu IP było raczej ewolucją, to Network Function Virtualization to rewolucja w świecie operatorów telekomunikacyjnych. Dominowały dotąd rozwiązania typu stand-alone, tzw. black-box. Dostawca rozwiązania telekomunikacyjnego proponował gotowy, „szczelnie opakowany” produkt niezbędny do zaoferowania usług, takich jak TV on demand, czy Voice Mail. Teraz odchodzi się od gotowych rozwiązań z „pudełka”. Następuje rozdzielenie rozwiązania telekomunikacyjnego na warstwy. Na taniej, standardowej warstwie IT – czyli zwirtualizowanych serwerach x86 – stawia się platformy usługowe, jak i inne funkcje sieciowe. Te także są zwirtualizowane. Przykładowo dziś urządzenie FunBox (czyli modem i router WiFi w jednym, pracujący w domu użytkownika) ma wszystkie, niezbędne do swego działania funkcje, które zamówił użytkownik. Zawiera całą logikę rozwiązania. Jak zmienia to rynek telekomunikacyjny i jego funkcjonowanie? Wykorzystanie Network Function Virtualization to także istotne oszczędności dla telekomów. Urządzenia oraz usługi wdrażane w tradycyjnym modelu czyli blax-box są droższe, zarówno ich utrzymanie jak i infrastruktura na której pracują. Dla użytkownika końcowego NFV to ewidentna korzyść. Znacznie szybciej będą dostarczane mu zamówione usługi. Wystarczy postawienie kolejnego, wirtualnego FunBox’a. Usługa, która wymagała wizyty w salonie i odebrania fizycznego urządzenia, będzie mogła być uruchomiona zdalnie w mieszkaniu klienta. Będzie ją można w dowolnym momencie zmieniać, aktualizować np. dodając kolejne funkcje. NFV to także rewolucyjna zmiana dla dostawców infrastruktury telekomunikacyjnej. Nie będą już bowiem oferować kompleksowych, połączonych w pakiet rozwiązań, których elementy działają tylko ze sobą. Będą za to dostarczać oprogramowanie z określonymi, zamówionymi przez nas funkcjami. W jaki sposób operatorzy przygotowują się do wdrożenia rozwiązań opartych o koncepcję Network Function Virtualization czy Software Defined-Network? Dla operatorów to konieczność przebudowy stosowanych rozwiązań. Pojawiają się także pewne problemy, np. z orchestracją (zarządzaniem), czy integracją zwirtualizowanych rozwiązań z systemami zarządzania ruchem sieciowym. Konieczna jest budowa aplikacji opartych o rozwiązania NFV, a także stworzenie API dla innych systemów. Rozwiązania te muszą być łatwo dostępne i łatwo wymienialne tak, aby były one niezależne od rozwiązania dostawcy. Z drugiej strony dla dostawców oznacza to o wiele większe możliwości szybszego i tańszego wdrażania nowych, ciekawych rozwiązań. Za tym idzie kompletna zmiana w sposobie przetwarzania danych, w tym w rozlokowaniu naszych centrów danych. Aby wdrożyć NFV konieczne jest zbudowanie sieci składających się z centralnego Data Center oraz kilkunastu zdecentralizowanych centrów danych - Distributed Data Center. Będą stanowiły one tzw. Next Generation Point of Presence. NGPoP wykorzystywane mają być na potrzeby zwirtualizowanych funkcji sieciowych, w szczególności związanych z przetwarzaniem i dystrybucją dużych ilości danych. Z jednej strony zarządzanie nimi musi być scentralizowane (funkcja orchestracji) i podlegać centralnej kontroli. Jednak elementy przetwarzające i wymieniające duże ilości danych muszą znaleźć się jak najbliżej końcowego użytkownika. Tym bardziej, że - zgodnie ze wszystkimi przewidywaniami - ilość przekazywanych danych będzie rosła lawinowo. Obecnie mamy podstawowe centrum przetwarzania danych w Łodzi i centrum Disaster Recovery na południu Polski. W przyszłości powinny zostać uzupełnione o kilkanaście Distributed Data Center. Prawdopodobnie rozlokowane będą w referencyjnych miejscach w Polsce - tam, gdzie mamy najwięcej klientów. One przejmować będą większość ruchu związanego z danymi. W przyszłości żaden z operatorów nie będzie w stanie tego zrobić w modelu scentralizowanym. Ograniczeniem jest przepustowość łączy i ewentualne opóźnienia. Dlatego największą część ruchu musimy przetwarzać lokalnie. Tym bardziej, że wszystko idzie w kierunku rozwiązań programowych (software, aplikacja). W przypadku punktów typu NGPoP stosować będziemy koncepcje przyspieszające budowę data center wykorzystując obecne węzły sieci i nieruchomości. W grę wchodzą też kontenerowe albo modułowe data center. Czy testują już Państwo zwirtualizowane platformy usługowe? Grupa Orange globalnie przygotowuje się do tej rewolucji. Prowadzonych jest wiele pilotaży, testów Proof-of-Concept. Orange podpisał także niedawno umowę z AT&T o współpracy w zakresie rozwoju rozwiązań opartych o koncepcję Network Function Virtualization. AT&T to lider we wdrażaniu rozwiązań w architekturze NFV. Od roku 2014 tworzenie rozwiązań tego typu jest częścią strategii tej firmy – Domain 2.0. Cała organizacja AT&T skupia się na zmianie paradygmatu związanego z dotychczasowym podejściem do infrastruktury telekomunikacyjnej, aby móc powszechnie wykorzystywać rozwiązania zwirtualizowane. To element wdrożenia w praktyce koncepcji Network ITzation. To bardzo wspierany kierunek przez wielu operatorów. Pilotażowe wdrożenia zwirtualizowanych platform odbywają się też w Polsce. Wdrażamy je w oparciu o OpenStack. Przykładowo ze zwirtualizowanych środowisk korzystają takie usługi, jak Global Mobile Location Services, Next Generation Inteligent Network czy Voice Mail. Jakie jeszcze nowe technologie wdrażane są w Orange Polska? Powoli zaczynamy stosować koncepcję Software Defined Storage – SDS. Budujemy je w oparciu o oprogramowanie OpenSource. Mamy nawet systemy produkcyjne, które wykorzystują tego typu systemy pamięci masowej. Choć oczywiście SDS nie we wszystkich rozwiązaniach da się wykorzystać. Przede wszystkim Software Defined Storage stosowany jest w rozwiązaniach niekrytycznych, wymagających dostępu do zasobów plikowych Przykładem są analizy dużych zbiorów danych. W oparciu o SDS budujemy również rozwiązania hybrydowe. Łączymy bardzo szybki storage oparty o dyski SSD oraz dużo wolniejszy, ale za to 100 razy tańszy SDS. Naszym zdaniem, Software Defined Storage będzie zastępował tradycyjne macierze klasy low-end. Za 2-3 lata SDS zapewne wyprze systemy pamięci masowych w niższych segmentach rynku. Podobnie jak to miało miejsce z serwerami unixowymi. Dziś powszechnie, jako platformy – nawet dla krytycznych aplikacji - stosowane są maszyny x86 i serwery wirtualne. Jak widać, wbrew powszechnie panującemu przekonaniu, Orange Polska w znacznym stopniu opiera infrastrukturę o rozwiązania open source. Nie stoi ona wyłącznie na rozwiązaniach komercyjnych. Podstawowym systemem operacyjnym przez nas wykorzystywanym jest Linux. W niewielkim stopniu korzystamy z Windows. Jedynie w tych rozwiązaniach, które tego wymagają, np. Exchange Server. W ograniczonych przypadkach - gdy dotyczy to dużych baz danych – stosowany jest Unix. Rozwiązania open source wykorzystujemy także w systemach aplikacyjnych i szynach danych. Dotyczy to także narzędzi do automatyzacji zarządzania infrastrukturą. Do monitorowania wykorzystujemy Zabbix, do automatyzacji Puppet, a do przechowywania logów ElasticSearch. Wiele naszych aplikacji korzysta z baz danych Postgress i MySQL, choć nadal podstawową bazą jest Oracle. Wynika to z architektury i historii naszych systemów. Tam jednak, gdzie będzie to możliwe stosować będziemy rozwiązania open source, także w zastosowaniach operatorskich.