Cloud computingDebata ITwizInfrastrukturaArchitektura ITPolecane tematy
Otwarcie o trendach kształtujących strategię architektury i infrastruktury przetwarzania danych AD 2023
W debacie redakcyjnej ITwiz poświęconej trendom, ale także priorytetom i wyzwaniom w zakresie rozwoju i utrzymania centrów danych w roku 2023 udział wzięli: Robert Pławiak, CIO/CDO w Polpharma; Aleksander Gawroński, dyrektor Departamentu Infrastruktury Informatycznej w mBank oraz Tomasz Fryc, CTO w Alior Banku. Partnerem debaty był MAIN.
CHMURA JAKO KLUCZOWY ELEMENT STRATEGII ITCzy 2023 będzie rokiem przełomu i wielkich wzywań w zakresie infrastruktury centrów danych?
Tomasz Fryc (TF): Alior Bank jest na etapie budowania strategii, również na poziomie IT. Z szerszej perspektywy trudno jednak jest liczyć na to, że zmiany nastąpią z dnia na dzień. Strategiczne decyzje będą m.in. dotyczyć przyszłości data center. Sytuacja geopolityczna zmieniła nasze podejście do bezpieczeństwa centrów danych i ich mobilności. 2023 będzie rokiem decyzji strategicznych w kontekście tego, w jakim modelu będą się rozwijały nasze centra danych.
Robert Pławiak (RP): Uważam, że będzie niezwykle dużo wyzwań jeśli obierze się perspektywę biznesową. Odpowiedzią na nie może i powinna być technologia. Z naszej perspektywy są to np. kwestie budowy zakładu produkcji substancji czynnych. Jest to kwestia strategiczna z punktu widzenia biznesu Polpharmy.
Drugie zagadnienie, to przesunięcie uwagi na produkcję leków dostępnych bez recepty. Unifikacja i integracja po tych zmianach całości produkcji będzie wielkim wyzwaniem, także pod względem architektury i infrastruktury. Te zmiany dokonują się w ramach sukcesywnej migracji naszej infrastruktury do chmury. Obecnie mamy dwa rozwiązania, Oracle Cloud i Microsoft Azure.
Nie chcemy mieć własnego centrum danych, poza zastosowaniami związanymi z systemami OT, czyli obszarem produkcji, gdzie opóźnienia są niezmiernie istotne. Dotyczy to systemów laboratoryjnych i R&D, podlegających regulacjom bardziej ścisłym, niż np. regulacje bankowe. Kontekst sektora farmacji także jest bardziej złożony. Jeśli posłużyć się analogią matematyczną, to mamy tu raczej do czynienia z przestrzenia n-wymiarową. Mówię to z perspektywy własnego, trójwymiarowego doświadczenia CIO, CDO, CEO.
Aleksander Gawroński (AG): Mam nadzieję, że to będzie rok uspokojenia, ułożenia spraw, wręcz, że to będzie rok nudny. Po ostatnich trzech, szalonych latach, naprawdę jest to potrzebne nie tylko ludziom, ale też infrastrukturze IT.
Oczywiście idziemy do chmury. W moim obszarze będzie to chyba najbardziej interesujący z tematów rozwojowych, obejmujący przenoszenie aplikacji, workloadów, do chmury publicznej, naukę nowego środowiska i transpozycję do niego naszej chmury prywatnej. Strategia mBanku na najbliższe lata zakłada, przeniesienie do chmury publicznej i prywatnej 70% kluczowych systemów. Wyzwanie jest o tyle duże, że nasz bank zdążył już trochę wypracować długu technologicznego.
Zacząłbym sprowadzać dyskusję o centrach danych do całościowych kosztów. Często porównuje się centrum danych do chmury, a zapomina się o kosztach pośrednich, typu energia elektryczna, ale także nauka nowych umiejętności (reskilling). Przejście z roli administratora systemu X do funkcji inżyniera DevOps to duża zmiana. – Robert Pławiak
Dochodzą do tego także zagadnienia regulacyjne, przede wszystkim DORA, ale i inne, zorientowane na raportowanie wskaźników, stałe podnoszenie jakości itd.
Trzy lata temu uporządkowaliśmy krajobraz infrastruktury, która wcześniej rozwijała się organicznie, w różnych miejscach. Dziś to w całości kolokacja. Wytyczyliśmy granicę. Nie bierzemy na siebie zagadnień takich, jak energia elektryczna, klimatyzacja czy ochrona. Po naszej stronie pozostają zaś zagadnienia szaf, okablowania, zarządzania, przed wszystkim w kontekście efektywności. I to wychodzi nam bardzo dobrze.
Nie jest to może poziom serwerowni operatorów chmurowych, ponieważ tego w ogóle nie powinno się porównywać, ale w klasie serwerowni własnych z pewnością osiągnęliśmy poziom najwyższy. Oznacza to, że jesteśmy gotowi na wykonanie decyzji o migracji do chmury. Choć ona nieprędko zapadnie. Wcześniej muszą też dokonać się zmiany w architekturze naszych systemów IT.
Jeśli porównuje się własne data center, które funkcjonuje dostatecznie długo, aby się zamortyzowało, to jego koszty – w porównaniu do kosztów infrastruktury w chmurze – są mniejsze. Przy prostych usługach typu hosting chmura niezbyt się broni. Aleksander w jednym z wywiadów stwierdził, że „w IaaS mBank jest 3 razy tańszy i równie elastyczny, jak dostawcy cloud computing”.
RP: To kwestie, które można oceniać z różnej perspektywy. Jako prezes firmy, która świadczyła usługi na rzecz farmacji myślisz w kategoriach EBITDA i tego, co masz przynieść właścicielowi. Natomiast z perspektywy technologicznej zgadzam się z tą oceną.
Generalnie zacząłbym sprowadzać dyskusję o centrach danych do całościowych kosztów. Często porównuje się centrum danych do chmury, a zapomina się o kosztach pośrednich, typu energia elektryczna, ale także nauka nowych umiejętności (reskilling). Przejście z roli administratora systemu X do funkcji inżyniera DevOps to duża zmiana.
RACHUNEK ZYSKÓW I STRAT ROZWIĄZAŃ CLOUD i ON-PREMISEAG: Według naszych wyliczeń, koszt naszego serwera – w porównaniu do tego w chmurze – zawsze wychodzi taniej. Nie oszukujmy się, nie może być inaczej patrząc na to, ile zarabiają duzi dostawcy chmurowi. Mają marże kosmiczne, nawet 50 proc.
RP: Co jednak ma być ważne: rachunek zysków czy strat? Czy patrzymy na stronę aktywów, czy na cash flow?
TF: My też nie chcemy sprowadzać wyboru modelu dostarczania infrastruktury IT tylko do porównania kosztów.
RP: Koszty to jeden z aspektów, pełna zgoda. Ale brać trzeba też np. Business Continuity Plan i możliwość odtworzenia zasobów i kompetencji technologicznych, szczególnie teraz, w sytuacji wojennej.
TF: Pomijając niezaprzeczalne kwestie bezpieczeństwa, to wartością chmury jest elastyczność. Możemy być teoretycznie w dowolnym miejscu na świecie i migrować dane, jak chcemy. Nawet w migracji Lift & Shift – którą można nazwać wstępną fazą migracji – chmura pokaże „pazur” w tym, że jesteśmy w stanie dokładać i odejmować zasoby IT w sposób dynamiczny w zastosowaniach, w których workloady są zmienne.
W bankach ta zmienność występuje, bo mamy klientów kanałów elektronicznych i oni – w pewnych okresach – częściej się logują. Natomiast zupełnie inną dynamikę mają workloady w przypadku handlu internetowego czy rozrywki. Tam mamy do czynienia z ekspotencjalnymi wahaniami na zapotrzebowanie.
Dziś dostawcy chodzą i wykonują tańce godowe obiecują dotacje, bonusy, tysiące inżynierów wspierających, ale po miesiącu miodowym będziemy się już tylko porozumiewać przez faktury. Z prostego powodu – jeśli decyzja zapadnie, to wycofanie się z ich środowiska, obojętnie którego dostawcy – jest koszmarem. Dobrze wiedzą, jak to działa, ale my też! – Aleksander Gawroński
Idziemy do chmury. To dla nas strategiczny kierunek. Natomiast wiemy, że wymaga to wielu inwestycji i długo może się nie opłacać. Zakładamy, że tak naprawdę wartością, którą możemy osiągnąć docelowo jest nie tylko oszczędność, ale też szybkość i to, czego nie ma już – albo wkrótce nie będzie – w rozwiązaniach on-premise.
Główni gracze technologiczni powoli „odkrywają karty” mówiąc: „pamiętajcie, że te wszystkie zabawki, które kupujecie i instalujecie w swoich centrach danych, za jakiś czas nie będą już możliwe do kupienia”. To perspektywa dekady, ale trzeba o tym pamiętać. Zaczynamy więc zaprzyjaźniać się z chmurami, zwłaszcza, że rozwój technologiczny jest dziś głównie tam. W niektórych przypadkach widzimy już przepaść między rozwiązaniem w chmurze i w wersji on-premise. Choć jeszcze 5 lat temu było na odwrót.
Przykładem jest analityka danych. I nie chodzi tylko o mocy obliczeniową, ale również algorytmikę, która – uczona na potężnych zbiorach danych – może po prostu dać o wiele większe efekty. Pytanie brzmi, jak ten potencjał, przewagę dobrze wykorzystać? I to pytanie może być jeszcze długo aktualne.
RP: Zgadzam się z tym, aby przynajmniej rozważyć utrzymanie IaaS we własnym data center, gdzie jego utrzymanie bardziej się opłaca. Natomiast naszym celem jest PaaS, rozmawiamy już o wewnętrznej ścieżce budowy umiejętności szybkiego parametryzowania i zmieniania środowiska w odpowiedzi na zmiany potrzeb biznesu.
Ważnym kierunkiem są dla nas platformy LowCode m.in. Power Apps, WEBCON. To nowa, naturalna droga do obsługi wielu funkcji. W przypadku innych, jak oprogramowanie laboratoryjne – gdzie zmiany są rzadkie, tak jak rzadko w istocie zmienia się praca ich użytkownika: farmaceuty, chemika – nie potrzebuję zawsze nowoczesnych, szybkozmiennych rozwiązań.
Nasze decyzje o adaptacji chmury muszą uwzględniać tolerancję na opóźnienie, a także lokalizację danych wrażliwych dla biznesu, co jest też kwestią mocno regulowaną.
KIEDY I JAK MIGROWAĆ DO CHMURYPolpharma ma duże rozwiązania w chmurze Oracle.
RP: W Oracle Cloud znajdują się zarządzanie produkcją i systemy obsługujące finanse. W poprzedniej organizacji także udało nam się nieco poluźnić duży, związany stos technologiczny systemów legacy. Oczywiście na wstępie dyskusji w takich wypadkach pojawiają się pomysły tyleż radykalne, co nierealne.
Postanowiliśmy przykryć warstwę legacy przy pomocy platformy integracyjnej. Połączyłem tylko to, co jest potrzebne, do szyny. I poprzez tę platformę zaczęło się kształtować nowe. Przykładowo nowością jest zakładanie usług standardowych z atrybutami dla różnych wyjątków. W pewnym momencie to rzeczywiście zaskoczyło. Zresztą inaczej by się to nie powiodło. Jestem, podobnie jak Jacek, zwolennikiem zdrowej, racjonalnej i pragmatycznej równowagi.
AG: To jeszcze krótko w sprawie podejścia Lift and Shift. Cztery lata temu popełniliśmy z Adamem artykuł w ITwiz, gdzie napisałem, że chmura jest droższa (bit.ly/3lZzoD7). W tytule było nawet, że w IaaS jesteśmy trzy razy tańsi niż dostawcy chmury.
POWODY KONIIECZNOŚCI PODEJŚCIA MULTICLOUDPojawił się już kilkukrotnie wątek umiejętności, kompetencji, ich kosztu. Jak kosztowne i trudne do zbudowania są kompetencje do zarządzania chmurą, jej kosztem, ryzykiem? Te strategiczne kwestie decydujące o opłacalności modelu.
AG: Walczymy z tym na co dzień w sektorze bankowym, ale pewnie to powszechny problem. Dziś dostawcy chodzą i wykonują tańce godowe obiecują dotacje, bonusy, tysiące inżynierów wspierających, ale po miesiącu miodowym będziemy się już tylko porozumiewać przez faktury. Z prostego powodu – jeśli decyzja zapadnie, to wycofanie się z ich środowiska, obojętnie którego dostawcy – jest koszmarem. Dobrze wiedzą, jak to działa, ale my też!
Dwie kwestie dodatkowe odnośnie do chmury. My jesteśmy po stronie back-endu, nie biznesu. Tymczasem chmura jest koncepcją dla biznesu. Część rzeczy będzie możliwa do zrealizowania tylko w chmurze, a nie na infrastrukturze on-premise. I to jest mega trend, którego nie można pominąć.
W niektórych przypadkach widzimy już przepaść między rozwiązaniem w chmurze i w wersji on-premise. Choć jeszcze 5 lat temu było na odwrót. Przykładem jest analityka danych. I nie chodzi tylko o mocy obliczeniową, ale również algorytmikę, która – uczona na potężnych zbiorach danych – może po prostu dać o wiele większe efekty. – Tomasz Fryc
Druga kwestia dotyczy licencji. Tym tematem grają chętnie duzi gracze. Tymczasem nie jest to powszechna wiedza, bo wszystkim koszty infrastruktury IT kojarzą się z serwerem i prądem. Tymczasem najdroższa część zabawy to licencja. Strategia dostawców na przejęcie rynku jest następująca. Po pierwsze, dają różne pakiety licencyjne, pod hasłem „w chmurze masz to za darmo” przy wielu pozycjach, i hasłem „świat zmierza w stronę chmury”. Jednocześnie za 10 lat, licencje on-premise i w ogóle rozwiązania będą zapewne tak drogie, że nie będziemy nawet patrzeć na faktury za chmurę, tylko na te licencyjne.
Przykładowo utrzymanie licencji 1000 serwerów w chmurze będzie kosztowało X, a on-premise 10x. Wówczas kalkulacja finansowa będzie prosta. Dlatego świadomie chcemy uczestniczyć w wyścigu chmurowym już dziś, aby potem nie musieć gwałtownie nadrabiać zaległości.
RP: W czasie pierwszego boomu na usługi cloud computing – w jednej z moich poprzednich organizacji – wyliczyliśmy dokładnie 7. scenariuszy. To były wariacje wokół tematów „wejście”, „częściowe wejście”, „wyjście po określonym czasie”. Nie chciałbym mówić o konkretnych liczbach, ale metaforycznie porównuję marketing chmury do „podawania bardzo dobrych leków psychotropowych”. Jak się raz wejdzie, to potem wyjście jest trudne.
Miałem też przyjemność – albo nieprzyjemność – brać udział w rozgrywce wokół chmury i wiem jakie przyjęte są „konwenanse”. Kiedy zdecydowałem się nie wykonać migracji z on-premise do chmury u dostawcy, to automatycznie zostałem poddany audytowi licencyjnemu.
W miejsce czekoladek i komplementów, twarda mowa. Na przemian oczywiście z propozycją „weź się zdecyduj”. Ale mogę też powiedzieć, że nie jest to mowa, której nie znam. Nie jest to gra, w którą nie umiem grać. Pozostaliśmy przy swojej ocenie sytuacji. To pokazuje też, że są granice i trzeba o nich pamiętać.
W chmurowych rozwiązaniach, systemach licencyjnych istnieją także bardzo ważne – w kontekście planowanej migracji do ich chmury – pojęcia, o których warto pamiętać a wśród nich EXIT PLAN. To są, jak to nazywam, niewymierne wartości, które trzeba brać pod uwagę, kiedy chce się iść do chmury.
AG: Jeśli chodzi o dużych graczy, to ewidentnie przestają inwestować w rozwiązania on-premise. Najlepszym przykładem jest pakiet Office365, czy szerzej Microsoft365. Albo korzystasz z rozwiązań chmurowych i na bieżąco jesteś ze wszystkimi nowościami, albo zatrzymujesz się w rozwoju.
KOSZTY USŁUG DATA CENTER – LICENCJA, ENERGIA ELEKTRYCZNACzyli większym ryzykiem jest ryzyko niestabilności kosztów licencji niż np. kosztów energii, o których mówi się częściej? Dopóki korzysta się z licencji stałych, to nawet jeśli nie wykupi się wsparcia można „działać” dalej. Ryzyko i odpowiedzialność są po stronie organizacji. W przypadku subskrypcji, kiedy kończy się licencja kończy się też możliwość użytkowania danego rozwiązania…
AG: Nie chcę podawać kwot, ale u mnie koszty licencyjne to – w porównaniu do kosztów energii wykorzystywanej w serwerowni – są raczej 100-krotnie niż 10-krotnie większe.
RP: Czas zmieni tylko to, że dostawcy będzie łatwiej podnosić cenę. Ja w toku negocjacji zaobserwowałem, że raptownie wzrosła „wartość licencji”, albo utrzymanie tej licencji, podczas gdy pozycja „energia” nie rosła. Czyli ten koszt przeniesiono gdzie indziej.
Tak zrobił jeden z liczących się graczy na rynku na zasadzie: „jak teraz u mnie wykupisz to rozwiązanie to na 24 miesiące zagwarantuję Ci stałą cenę, a jeżeli nie, to uprzejmie informuję, że podnoszę ją o 20-30%”. W mojej ocenie, na pewno nie wynikało to z faktu, że raptem coś się zmieniło w prawie, bo licencja albo prawa autorskie, są już na takich polach eksploatacji, że to nie uzasadnia takiego wzrostu wartości.
Należy przynajmniej rozważyć utrzymanie IaaS we własnym data center, gdzie jego utrzymanie bardziej się opłaca. Natomiast naszym celem jest PaaS, rozmawiamy już o wewnętrznej ścieżce budowy umiejętności szybkiego parametryzowania i zmieniania środowiska w odpowiedzi na zmiany potrzeb biznesu. – Robert Pławiak
AG: Oczywiście, to są parametry z działania serwerowni na innym poziomie wydajnościowym. Nie możemy się do niego ani porównywać, ani próbować aspirować.
Pamiętam wizytę w serwerowni Microsoft Azure pod Seattle. U nas w serwerowniach jest zimno. Tam to nie ma znaczenia, ponieważ awaria serwera, np. z powodu przegrzania, oznacza po prostu wymianę całych modułów natychmiast wpinających się w system.
Mają sprzęt, który dostawcy produkują według specyfikacji hyperscalers, nie mają oni żadnego stacku sieciowego. Wszystko jest zdefiniowane programowo w SDN.
Inny przykład, my posługujemy się drogimi instalacjami helowymi w instalacji przeciwpożarowej. Dla osób zarządzających centrum danych Microsoft Azure jest to bez znaczenia. Serwerownie są backup’owane. Gasi się więc je wodą. Potem następuje natychmiastowa utylizacja zalanego sprzętu, a na jego miejsce wprowadza się nowy. Liczy się szybkość. To zupełnie inna skala i perspektywa działania.
Wracając do poruszanego wcześniej wątku, z perspektywy budżetu, za który jestem odpowiedzialny, koszty prądu także nie są zbyt istotne. Oczywiście mamy ten temat na agendzie. Ale obniżamy zużycie prądu ze względu na stawiane nam cele w strategii ESG.
Nie oszukujmy się jednak, z perspektywy P&L energia to nie jest najistotniejsza pozycja dla banku. W nowej umowie z największym moim dostawcą licencji i usług chmurowych nie negocjuję tych kwestii. To są koszty, które on już poniósł kontraktując energię na lata do przodu.
TF: Faktem jest, że podwyżka cen energii, to nie jest znaczący czynnik w budżetach banków. Mocno jednak wzrosło jego znaczenie. Jeśli prąd zdrożeje 5-, 6-krotnie to jego kosztu nie będą już liczone w setkach tysięcy zł, lecz milionach. Wówczas znaczenie tej pozycji będzie rosło.
Nie mamy w żaden sposób szans w naszych serwerowniach w ogóle konkurować – pod względem PUE – z Facebookiem, ale zapewne też np. z firmą MAIN. To zupełnie inne pod względem technologicznym, inaczej budowane serwerownie.
Szczęście w nieszczęściu, że cały kontekst, o którym mówimy, pobudził nas do innego myślenia, jeżeli chodzi o zarządzanie zasobami IT. Nas np. zaczęło nurtować pytanie, czy wszystkie serwery muszą działać cały czas? Może część powinna być automatycznie wyłączana?
To jest też inspiracja dla wyposażenia serwerowni w nowe, bardziej innowacyjne metody chłodzenia, które ma największy wpływ na PUE. Pojawiają się nowe technologie, chłodzenie substancjami alternatywnymi względem klasycznej klimatyzacji. Kiedyś była to nieopłacalna, duża inwestycja, która zwracała się np. po 10 latach. Dziś może zwrócić się po roku.
Rozwój własnej infrastruktury albo własnej sprawczości, ma też wymiar strategiczny, o którym mówiliście cały czas, wspominając potyczki z dostawcami chmury. Mogą, tak jak opowiadaliście, spłaszczyć koszt prądu, manipulując ceną tej licencji. Jeżeli się nie ma kontrargumentu w postaci kompetencji czy alternatywy – np. MAIN-a albo własnej infrastruktury – to w zasadzie jest się bezwolnym…
AG: Trzeba sobie jasno powiedzieć: to, że dostawcy chmury publicznej są tak dobrze wyskalowani oznacza jedynie, że ta oszczędność zostaje u nich. Choć – w duchu kompromisu – byłoby dobrze, aby tym uzyskiem bardziej się dzielili.
NOWY MODEL USŁUG = NOWY MODEL DZIAŁANIA ITW świecie zautomatyzowanym dostawca chmury informuje o wyznaczonym terminie aktualizacji. Bez pola manewru. Trzeba temu kalendarzowi podporządkować niemal wszystko, ponieważ sprawa nie dotyczy przecież jednego czy dwóch systemów.
RP: To się nazywa roadmapa lub wręcz blueprints.
TF: Pozostaje robić to szybciej, uprzedzając deadline.
AG: Ja to akurat traktuję jako zaletę. Stanowi to argument w stosunku do nacisków wewnętrznych na przesunięcie harmonogramu zmian.
W naszej strategii w migracji do chmury – zarówno prywatnej, jak i publicznej – mamy ukrytych bardzo wiele korzyści związanych z automatyzacją i z transformacją IT. To dobra okazja, aby wprowadzić projekty i programy, które w innej sytuacji byłyby za ciężkie, zawsze „nie w porę”. Świadomie część projektów połączyliśmy z transformacją chmurową, aby objąć je od razu nowym governance.
Główni gracze technologiczni powoli „odkrywają karty” mówiąc: „pamiętajcie, że te wszystkie zabawki, które kupujecie i instalujecie w swoich centrach danych, za jakiś czas nie będą już możliwe do kupienia”. To perspektywa dekady, ale trzeba o tym pamiętać. Zaczynamy więc zaprzyjaźniać się z chmurami, zwłaszcza, że rozwój jest dziś głównie tam. – Tomasz Fryc
Mocno pilnujemy, aby każdy nowy system, każda migracja do chmury prywatnej czy publicznej podporządkowana była temu nowemu governance – zautomatyzowanemu, ze ściśle określoną mapą drogową. Można co prawda próbować protestować. Jest też hamulec bezpieczeństwa, kiedy mówimy o chmurze prywatnej. W przypadku AWS, Azure czy GCP takiej możliwości nie ma.
POŁOWICZNE WEJŚCIE I POŁOWICZNE KORZYSTANIE Z DOBRODZIEJSTW CHMURY?Na ile świadomość zmiany pola i reguł gry, ryzyka, utraty części suwerenności daje pole do proponowania działań w intencji strategicznie pojętej odporności biznesowej? Przykładowo, będziemy rozwijali zestaw kompetencji, który pozwoli zminimalizować ryzyko związane ze zbytnim scaleniem z ekosystemem dostawcy.
RP: To zależy od dojrzałości firmy, w której jesteś. Mogę nawet powiedzieć, że to zależy po prostu od kultury i sposobu myślenia. Przejawia się ona już na poziomie prostych rzeczy. Pamiętam organizacje, gdzie problemem był koszt usługi IT na poziomie kilkudziesięciu złotych. A relacja pomiędzy IT a resztą firmy była jednoznacznie zła od samego dołu, aż do samego prezesa. Więc to byłby przykład okoliczności, w których o myśleniu w podobnych kategoriach nie byłoby mowy.
TF: Ale skuteczny plan wyjścia i wartość chmury, często bywają na przeciwległych biegunach, prawda? Jeżeli chcemy szybko wychodzić, to nie możemy zbyt głęboko wchodzić.
Połowicznie więc korzystać z dobrodziejstw chmury? To niełatwy do wyważenia paradoks. Z drugiej strony część danych wymaga regulacyjnie, strategicznie, czy po prostu zdroworozsądkowo realnego, testowanego planu wyjścia. Nie musi być to plan trzytygodniowy, zapewne wystarczy trzymiesięczny, ale musi być realny.
Współpracując z takimi tuzami technologicznymi jak Microsoft, Google, czy Oracle, można im w perspektywie 3-6 miesięcy zaufać na tyle, aby ten exit plan rzeczywiście w takiej perspektywie pozwalał ewentualnie sprawy rozwiązać. W innym wypadku będziemy zawsze dotykać tylko wierzchołka góry lodowej wartości, które chmura daje. I to – w mojej ocenie – przestaje mieć sens.
AG: To pytanie jest bardzo istotne, bo pokazuje tylko, że nam jest trudno do chmury iść, kiedy sama – konieczna przecież – strategia wyjścia sprawia, że koszty dramatycznie rosną.
Rosną też czas i problem niekorzystania z tej wartości chmurowej. My przyjęliśmy w strategii chmurowej, że platformą bazową jest Kubernetes i na niej mamy chmurę prywatną, a w przypadku dwóch, wybranych dostawców chmury publicznej korzystamy z jej komponentów.
W dużym uproszczeniu to, co napisane na Kubernetesie, będzie wszędzie działało.
AG: Teoria teorią, a życie dowodzi, że po pierwsze to wcale nie będzie działało wszędzie tak samo, tylko trzeba dostosowywać. Po drugie, trzeba się zintegrować z dostawcą chmurowym, aby wykorzystać potencjał danej chmury. Musimy te „exit plany” mieć, utrzymywać, choć to podnosi koszty i nie możemy korzystać z tych dobrodziejstw w całości. To jest kwestia akceptowania ryzyka operacyjnego, także w kontekście geopolityki.
W moim obszarze chyba najbardziej interesujący z tematów rozwojowych obejmuje przenoszenie aplikacji, workloadów, do chmury publicznej, naukę nowego środowiska i transpozycję do niego naszej chmury prywatnej. Strategia mBanku na najbliższe lata zakłada, przeniesienie do chmury publicznej i prywatnej 70% kluczowych systemów. – Aleksander Gawroński
Myślę, że kwestia geopolityczna jest wyzwaniem, które zapewne nie istnieje dla firm na rynku amerykańskim. Tamte podmioty żyją w przekonaniu, że Google, AWS czy Microsoft ich co najmniej „przeżyją”. Jeśli nie, to katastrofa będzie tak duża, że także ich firmy nie będzie. Taka logika jest uzasadniona i zapewne działa odpowiednio na adaptację chmury. W naszej części świata, i w naszych uwarunkowaniach, nie możemy aż tak pójść na skróty, droga chmurowa jest więc mniej optymalna i droższa.
SKUTECZNE ZARZĄDZANIE RYZYKIEMTF: Ryzyko pewnie z punktu widzenia banku jest większe, choć także czujemy podskórnie, że Google pewnie będzie trwał, podobnie jak Oracle, Microsoft, bo po prostu rząd Stanów Zjednoczonych nie pozwoli upaść takim firmom. Są zbyt duże by upaść.
Natomiast ryzyko z punktu widzenia banków polega na tym, że np. złamane zostaną warunki korzystania z usług. Przykładowo zostanie wprowadzony podwykonawca spoza Europejskiego Obszaru Gospodarczego. Wówczas będziemy musieli z takiej chmury wychodzić.
Nie ma zatem mowy, aby na rynku chmurowym panował rynek klienta. Aby – mówiąc wprost – klient mógł mieć realną kartę przetargową np. że za 3 lata może zmienić środowisko…
AG: Do balansowania i podmiotowości wystarczy dobrze realizowana strategia multivendor.
My np. docelowo chcemy mieć trzy, główne platformy mocy obliczeniowej.
Po pierwsze będzie to chmura publiczna z dwóch dostawców, abym mógł żonglować workloadem pomiędzy nimi i nie związać się na 100% z żadnym z nich, bo to prosta droga ku katastrofie. Dlaczego dwoma a nie trzema? Chcemy unikać zbyt złożonego środowiska.
Drugi filar to chmura prywatna. Trzeci, to nasz wewnętrzny stos technologiczny, z wirtualizacją, czy nawet własnymi urządzeniami. Najważniejsza z tych przestrzeni to chmura prywatna i chmura publiczna.
TF: Aby naszą rozmowę nieco ożywić, nie do końca zgodzę się z moimi przedmówcami. Na pewno potrzebna jest strategia multivendor czy multicloud. My też mamy chmurę prywatną, Kubernetesa i dwóch zewnętrznych dostawców chmur publicznych.
Korzystamy z nich, ale, na tym etapie, głównie jak z zasobów pomocniczych. Natomiast nie widzę, aby oni w ogóle brali pod uwagę konkurencyjność swoich ofert, np. niższy koszt albo większą moc obliczeniową czy portfolio dostępnych usług.
To nie działa. Bo pod względem oferty na moc obliczeniową, to najtańszy jest Oracle Cloud. Jest chyba dwa razy tańszy niż najbliższy konkurent. Ponadto, Oracle Cloud to jedyna chmura, w której mamy rozliczenia godzinowe na flagową bazę danych tego producenta, nieosiągalne w jakiejkolwiek innej.
Zmierzam do tego, że koncentrowanie się wyłącznie na konkurencyjności workloadów, to złe podejście. Mam kilku dostawców nie po to, aby wybierać najtańszego, tylko by najłatwiej wybierać rozwiązanie dopasowane do moich potrzeb. Czy bowiem usługi Compute Power od Google Cloud Platform i Microsoft Azure czymś się różnią?
Myślę, że w 2023 uwidocznią się też nowe czynniki wewnętrzne, oprócz inflacji. Takim czynnikiem będzie popyt naszych działów biznesowych na chmurę, rozwiązania SaaS. Nie możemy bagatelizować tego, że biznes świetnie i bardzo szybko się uczy. To może nawet będzie kwintesencja zmiany – rosnący popyt, apetyt biznesu na rozwiązania chmurowe. – Robert Pławiak
AG: Ja te kwestie osadzam w czasie. Na obecnym etapie dostawcy konkurują na „cukierki”. Fakturujemy nasze wykorzystanie, ale rachunki są niskie, bo mamy jeszcze mało zasobów w chmurze. Gra toczy się o przyszłość.
My rzeczywiste budżety dopiero będziemy negocjować w kolejnym kontrakcie. Akurat jestem na „odnowieniach” dużych kontraktów, na 3,5 roku. Dopiero po tym okresie będzie prawdziwa rozmowa o pieniądzach. Dziś to bardziej deklaracje. Trudno się też dziwić, bo – z perspektywy amerykańskich firm chmurowych – w polskim sektorze finansowym prowadzonych jest tak wiele rozmów, a faktury wciąż są symboliczne z ich punktu widzenia.
Ale my też gramy na przyszłość, bo obserwujemy rynek amerykański, kanadyjski, europejski. Więc tak, masz rację, teraz o pieniądzach nie rozmawiamy, ale przyjdzie czas na tę rozmowę. I do tego czasu, trzeba mieć rozwinięte relacje z co najmniej dwoma dostawcami. Jeśli dziś „zatoniemy” w jednym ekosystemie, to za 3-4 lata nie będzie mowy o realnych negocjacjach.
TF: Cóż, już dzisiaj jesteśmy trochę w tych sidłach. Mówiąc szczerze, z mojej perspektywy, rynek narzędzi wspierających pracę biurową został zmonopolizowany. Monopol wzmocniony dodatkowo poprzez pandemię, także jeśli chodzi o rozwój funkcji. Ten ekosystem rzeczywiście w tym momencie jest oczywiście świetny. Problem w tym, że jest w zasadzie jeden na rynku.
Jeśli chodzi o negocjacje chmurowe, to oczywiście ceny będą rosnąć. Jeśli np. teraz rosną ceny energii, to dostawcy chmury i usług data center na pewno je uwzględnią. Dodatkowo negocjacje w takich kontraktach uwzględniają przecież – ze strony dostawcy – wszystkie rabaty, które nam zaoferowali. A rabat uzależniony jest od tego, ile w chmurze umieszczamy, a więc liczony jest od zużycia jednostek rozliczeniowych, a nie od liczby licencji.
WYDATKI IDĄCE ZA ROZWOJEM BIZNESURP: Myślę, że w 2023 uwidocznią się też nowe czynniki wewnętrzne, oprócz inflacji. Takim czynnikiem będzie popyt naszych działów biznesowych na chmurę, rozwiązania SaaS. Nie możemy bagatelizować tego, że biznes świetnie i bardzo szybko się uczy. To może nawet będzie kwintesencja zmiany – rosnący popyt, apetyt biznesu na rozwiązania chmurowe.
Nie jestem już tak blisko sektora bankowego, ale w przemysłowym będę miał, w pozytywnym tego słowa znaczeniu, taki Roller Coaster. Jednak koszty nie będą miały takiego znaczenia, o ile mają przysporzyć biznesu. Jeśli mam wydać 1 mln zł, który zapewni 100 mln zł to właściciel nie będzie mnie w tym powstrzymywał.
Miałem mentora, prezesa jednej z dużych firm, który korygował moje oceny sytuacji odnosząc je zawsze do szerszej perspektywy. Kiedy ja mówiłem mu, że koszty jakiejś inwestycji, to np. 5 mln zł i moim zdaniem są zaporowe, to wtedy on odnosił to np. do wartości uzyskiwanej z sprzedawanych usług, szacowanej powiedzmy 50 mln zł. Czy przy tej skali ta inwestycja – potrzebna, wspomagająca – ma znaczenie? Jest ponad stan? No nie.
Chmura jest koncepcją dla biznesu. Część rzeczy będzie możliwa do zrealizowania tylko w chmurze, a nie na infrastrukturze on-premise. I to jest mega trend, którego nie można pominąć. Druga kwestia dotyczy licencji. Za 10 lat, licencje on-premise będą zapewne tak drogie, że nie będziemy nawet patrzeć na faktury za chmurę, tylko na te licencyjne. – Aleksander Gawroński
Podobnie teraz jest z chmurą. Monitorujemy gwałtowny wzrost obciążenia i przeliczany je od razu na „żywy” pieniądz. Słyszę wtedy: „Wyłączmy to, szybko. Koszt jest 10 razy wyższy niż zwykle”. Odpowiadam wówczas: „Spokojnie, właśnie obsługujemy zaplanowany pik, który rozliczamy w skali rocznej”. Rosnące koszty pokazuję w szerszej perspektywie, którą z rozmysłem sobie wynegocjowaliśmy…
Dodam jeszcze – w kwestii kosztów energii – że z mojej perspektywy data center świadczy usługi dla biznesu. Podobnie jak wszystkie urządzenia na hali produkcyjnej. A tam energii elektrycznej zużywa się znacznie więcej.
AG: W sektorze finansowym, jakby to nie zabrzmiało, energia nie jest istotnym czynnikiem produkcji. Dlatego też oszczędności prądu nie są w moich celach osobistych na pierwszym miejscu. Nawet jeśli ten czynnik wzrośnie dwukrotnie, to nadal nie będzie istotnym elementem. Choć zmotywuje nas do poszukiwania pomysłów na oszczędność prądu. Za prąd i tak musimy zapłacić.
INICJATYWY OSZCZĘDNOŚCIOWEA jaka jest najważniejsza z inicjatyw oszczędnościowych?
AG: Była to np. migracja naszych „starych” data center do dwóch, kolokowanych oraz przeprowadzona wówczas konsolidacja bazy sprzętowej polegająca na wyeliminowaniu sprzętu, który działał nieefektywnie i był zbędny.
Na co dzień, są drobne rzeczy, np. wdrażamy oprogramowanie, które powoduje, że serwery w nocy i w weekendy mniej pracują, a więc zużywają mniej prądu. Kiedy to się zsumuje, to – nawet przy skali 2000 serwerów – oszczędność zaczyna być dostrzegalna.
Istotną rzeczą jest konsekwencja w zarządzaniu hardware’em, która przynosi największy uzysk. Staramy się nie odnawiać sprzętu tam, gdzie to nie jest potrzebne. Kiedy kończy się czas życia maszyny, to najlepszy moment, aby rozważyć jej wirtualizację. Konsekwentnie zarządzamy bazą sprzętową, wychwytując takie przypadki. Jest to w pewnym sensie także porządkowanie sytuacji wynikłej z historycznego nastawienia do IT.
W mBanku zawsze dominowało podejście probiznesowe. Jeśli pojawiał się ciekawy pomysł, to z założenia infrastruktura czy IT nie mogły być ograniczeniem. Jeśli produkt miał przynieść miliony, to zakup serwera za 200 tys. zł nie powinien być problemem. W ten sposób było podejmowanych wiele decyzji. Po czasie jednak – z perspektywy całości infrastruktury – okazuje się, że część sprzętu była nadmiarowa.
Ale nikt nie rozrywa szat, bo rozumie, że dopiero po pewnym czasie przychodzi czas na optymalizację.
RP: Zaczynamy dochodzić do tego, że budujemy nowe sformułowania – „IT jako system Capability”.
Myślę, że to o czym powiedział Jacek jest lekcją, którą dojrzałe IT powinno mieć odrobione. Na pewno każdy z nas przy tym stole przeszedł taką szkołę. Ja także miałem tę przyjemność. Wiemy, że IT lubi patrzeć na TCO i ROE, czyli pewne stałe w czasie. W kilku instytucjach, w których byłem, patrzyliśmy jednak na to co przyniesie Minimum Viable Product i ekonomiczną stopę zwrotu (EV), wskaźniki IRR, NPV i Return of Equity. Tymczasem zwrot z kapitału bardzo szybko zmienia ludziom myślenie, odpowiedź na pytanie: Czy wyłożyłbyś z portfela własny kapitał na dany pomysł?
Koncentrowanie się wyłącznie na konkurencyjności workloadów, to złe podejście. Mam kilku dostawców nie po to, aby wybierać najtańszego, tylko by najłatwiej wybierać rozwiązanie dopasowane do moich potrzeb. Czy bowiem usługi Compute Power od Google Cloud Platform i Microsoft Azure czymś się różnią? – Tomasz Fryc
Po tej lekcji i kilku dodatkowych, ale też np. z obserwacji procesu innowacyjnego w Żabce, wyrosło moje nowe nastawienie. Niekiedy, pozornie obrazoburcze, ale zawsze pokazujące szerszy obraz. W efekcie z pełnym przekonaniem robiłem takie rzeczy, jak np. zatrzymanie wdrożenia nowego systemu ERP. Wieszczono mi szybkie pożegnanie się z pracą, ale kiedy prezes usłyszał ile będzie czasu trwał projekt, uzyskanie pełnej funkcjonalności, zdobycie odpowiednich kompetencji, a w szczególności koszty ich pozyskania, to nieomal „rozszarpał” wszystkich, którzy podsunęli mu tę decyzję.
Na początku rozmawialiśmy o geopolityce. I w tym kontekście pojawiło się sformułowanie „mobilne centra danych”. Co to znaczy?
TF: Mnie z kolei chodziło o mobilność rozumianą bardziej jako pewien poziom swobody migracyjnej i elastyczności geograficznej pozwalającej nam rozpiąć szerzej sieć naszych ośrodków, np. zmienić lokalizację w ciągu około pół roku. Zastanawiając się jak podejść do kwestii awaryjnej migracji centrum danych okazało się, że przede wszystkim musielibyśmy zmienić architekturę środowiska IT. Obecnie, jak większość banków i ubezpieczycieli, mamy synchroniczne data center na poziomie active – active na terenie Polski. To ma wiele zalet, ale w tym kontekście trochę nas ogranicza.
AG: Ten temat także jest u nas mocno dyskutowany. W skrócie, taka możliwość jest super, tylko co z tego wynika? Ważniejsza od samego backupu jest kwestia jego odtworzenia. Jeśli mówimy o najczarniejszym scenariuszu wojennym, to musimy raczej dysponować scenariuszem odtworzenia banku w innym kraju, np. w ciągu trzech miesięcy. To są bardziej pragmatyczne scenariusze.
Trzeba mieć przemyślany ten krok. Wiedzieć czemu ma służyć np. wykonanie back-up’u. Pewne rzeczy trzeba ponazywać po imieniu. Jednym z nich jest np. scenariusz na wypadek eskalacji wojny i do nich dostosować odpowiedź. A wtedy wyłania się oczywiście największe wyzwanie – czas i zakres zmian architektonicznych, co jest bardzo drogim projektem.
AG: Mamy podobne obserwacje. Dlatego zastanawiamy się nad stworzeniem pakietu usług podstawowych, niezbędnych. Wtedy jednak może okazać się, że nasze architektury nie powstawały z myślą o takich, geopolitycznych wyzwaniach. Skala zależności jest ogromna.
I to w zasadzie dobra, uniwersalna pointa całej dyskusji nad strategicznym podejściem do tematu trendów data center w 2023. Dziękujemy!
Dyskusję moderowali Szymon Augustyniak, z-ca red naczelnego ITwiz, redaktor prowadzący CXO HUB i Adam Jadczak, redaktor naczelny ITwiz.