PracaCDOBranża ITRynekPolecane tematy
W warszawskim centrum inżynieryjnym tworzone są najważniejsze produkty chmurowe Google
Z Danem Decasperem, wiceprezesem Google nadzorującym działanie warszawskiego centrum rozwoju Google Cloud, rozmawiamy o zmieniającym się podejściu biznesu do usług chmury obliczeniowej, trendach w rozwoju technologii chmurowych, kluczowych innowacjach technicznych, ewolucji Google Cloud Platform, różnicach w podejściu do innowacji między Europą i USA, a także o planach rozszerzenia działalności w Warszawie.
W Warszawie powstaje oddział naszego globalnego zespołu Site Reliability Engineering (SRE). Jak wiadomo, to właśnie w Google blisko 20 lat temu powstała cała idea SRE jako zespołu specjalistów dbających 24 godziny na dobę o stabilność, wydajność i niezakłócone funkcjonowanie infrastruktury IT. Warszawski zespół SRE, razem z innymi pracownikami zespołu SRE w naszych biurach na całym świecie, będzie na bieżąco monitorował, chronił i zapewniał niezawodność wszystkich najważniejszych publicznych systemów i usług Google.
Mija pół roku, odkąd kieruje Pan warszawskim centrum inżynieryjnym Google Cloud. Jaka jest specjalizacja tego ośrodka?
W Polsce powstaje wiele wiodących usług i komponentów Google Cloud Platform. Warszawski zespół inżynierski Google pracuje nad rozwojem kluczowych rozwiązań dla narzędzi w tym środowisku – mam tu na myśli np. Google Compute Engine, który odpowiada m.in. za realizację usług w zakresie infrastruktury. Można więc powiedzieć, że produkt ten stanowi fundament środowiska chmurowego Google.
W Warszawie działa też duży zespół pracujący nad rozwojem krytycznych elementów środowiska Google Kubernetes Engine. Mamy także specjalistów zajmujących się rozwojem globalnej infrastruktury sieciowej, czyli dział Cloud Networking. Pracujemy także nad rozwiązaniami z zakresu analizy danych. Poza tym w Polsce tworzone są elementy konsoli administracyjnej Google Cloud Platform, a także jej interfejs.
Czy można powiedzieć, że warszawskie centrum inżynieryjne odgrywa szczególną rolę w strukturach Google?
Oczywiście! Już teraz jest to nasz największy ośrodek rozwoju technologii chmury obliczeniowej w Europie. W warszawskim centrum tworzone są najważniejsze produkty chmurowe Google, w tym narzędzia wykorzystywane przez naszych największych światowych klientów, jak Snapchat, Spotify czy Twitter. Co więcej, obecnie w Warszawie zatrudniamy już ponad 500 specjalistów i specjalistek. Na tle bezpośredniej konkurencji nasze biuro inżynieryjne w Polsce jest najbardziej rozbudowanym centrum kompetencyjnym w Europie.
Co równie ważne, w Warszawie tworzymy świetny, wielokulturowy zespół specjalistów i specjalistek z całego świata. Co najmniej połowa z nich przyjechała do Polski z innych krajów. Jest to bardzo zróżnicowane środowisko, ale ten mix kulturowy i kompetencyjny przekłada się na bardzo kreatywną i innowacyjną atmosferę. Dbamy o to, aby wszyscy pracownicy dobrze czuli się w zespole. Lubię o tym myśleć tak, że tworzymy środowisko pozwalające “świetnym ludziom realizować świetne pomysły”. Staramy się też, by wszyscy nasi pracownicy mieli kontakt z lokalną społecznością – dlatego prowadzimy i uczestniczymy w wielu lokalnych projektach edukacyjnych, a nasi inżynierowie i inżynierki wykładają na uczelniach i współpracują z wieloma środowiskami naukowymi w Polsce. Jednocześnie angażujemy się w takie inicjatywy jak “Women in Tech” czy inne, wspierające obecność kobiet na rynku IT. Mając tak silną obecność na polskim rynku technologicznym, staramy się też zmieniać go na lepsze.
Co różni podejście do tworzenia innowacji w obszarze IT w Europie i w Stanach Zjednoczonych?
To świetne pytanie. Mam tu szereg własnych doświadczeń – urodziłem się, dorastałem i studiowałem w Szwajcarii. Później wiele lat spędziłem w Stanach Zjednoczonych, a teraz ponownie przeprowadzam się do Europy, choć okres pandemii takiej zmiany nie ułatwia. Mam jednak podstawy, aby stwierdzić, że wbrew pozorom podobieństw jest znacznie więcej niż różnic. W wielokulturowych organizacjach technologicznych, takich jak Google, powszechna jest kreatywność, skłonność do dużego zaangażowania i ciężkiej pracy, a także nastawienie na zmianę status quo. Oczywiście, pewne różnice w poszczególnych krajach wynikają z innych systemów edukacji, jednak w obszarze kompetencji inżynierskich nie zauważam ich wiele.
Te, które obserwuję, dotyczą raczej podejścia do projektów inżynierskich: skłonności do ryzyka oraz dbałości o detale. W Stanach Zjednoczonych istnieje wyższa i bardziej powszechna otwartość na ryzyko, a co za tym idzie także wyższa tolerancja na niepowodzenie. Ta, pewnego rodzaju obawa przed porażką, jest za oceanem dużo niższa niż w Europie.
Poza tym, w niektórych krajach Europy dość powszechne jest skupienie na zapewnieniu jak najwyższej jakości we wszystkich realizowanych działaniach. To oczywiście szczytna ambicja, o ile nie prowadzi do niepotrzebnego skomplikowania projektu i nadmiernego skupienia na drugorzędnych detalach. W niektórych krajach tzw. „overengineering” staje się powszechny. Tymczasem w USA zapewnienie wysokiej jakości jest bardzo ważne, ale odnośnikiem pozwalającym ją oceniać jest nadrzędny cel i funkcjonalność, jaką ma realizować dane rozwiązanie techniczne. Myślę, że kluczowe znaczenie dla tworzenia naprawdę dobrych narzędzi IT w coraz większym stopniu będzie polegać na umiejętnym wyważeniu tych dwóch podejść.
Jakie są Pańskie plany dotyczące rozwoju centrum inżynieryjnego w Warszawie?
Głównym celem, jaki przede mną postawiono, to dynamiczny rozwój warszawskiego biura inżynieryjnego Google Cloud. Chodzi zarówno o dalsze zatrudnianie licznych specjalistów i specjalistek – co już zapowiedzieliśmy, ale także rozszerzenie działalności i liczby zespołów obecnych w Warszawie. Z pewnością będziemy też aktywnie uczestniczyć w wielu nowych projektach dotyczących zarówno technologii chmurowych, jak i rozwiązań dla klientów Google Cloud Platform. Już teraz poszukujemy specjalistów i specjalistek do nowych zespołów.
Mogę po raz pierwszy na Waszych łamach ogłosić, że w Warszawie powstaje oddział naszego globalnego zespołu Site Reliability Engineering (SRE). Jak wiadomo, to właśnie w Google blisko 20 lat temu powstała cała idea SRE jako zespołu specjalistów dbających 24 godziny na dobę o stabilność, wydajność i niezakłócone funkcjonowanie infrastruktury IT. Warszawski zespół SRE, razem z innymi pracownikami zespołu SRE w naszych biurach na całym świecie, będzie na bieżąco monitorował, chronił i zapewniał niezawodność wszystkich najważniejszych publicznych systemów i usług Google. Innymi słowy, poszukujemy więc w Warszawie osób, które ekscytuje perspektywa, że od ich codziennej pracy zależy, czy internet dla milionów ludzi na świecie będzie działał bezawaryjnie.
Czy pandemia COVID-19 wpłynęła na kierunek rozwoju technologii chmurowych?
Myślę, że w kontekście chmury obliczeniowej nie nastąpiły żadne drastyczne zmiany. Oczywiście wobec powszechnego przejścia na model pracy zdalnej i powiązanej z tym transformacji wielu procesów biznesowych, gospodarczych i społecznych, w naturalny sposób wzrosło zainteresowanie usługami dostępnymi w modelu cloud computing. Same jednak możliwości chmury zmieniają się raczej w drodze ewolucji.
Przykładowo, dekadę temu w modelu chmurowym dostępne były przede wszystkim różnie skonfigurowane maszyny wirtualne. Dziś ten poziom granularności usług chmurowych jest znacznie wyższy. Dostępna jest nie tylko odpowiednia infrastruktura czy platformy aplikacyjne, ale też gotowe, przetestowane i łatwo dostępne komponenty, umożliwiające dostęp do analityki danych, wideo i wielu innych operacji związanych z przetwarzaniem dużych zbiorów danych. Analogicznie, można wybierać z dziesiątek różnych, wyspecjalizowanych baz danych i usług przechowywania, aby w ten sposób – z gotowych elementów – szybko zbudować środowisko dopasowane do unikalnych potrzeb i realiów biznesowych. Naturalny jest też dalszy rozwój usług chmurowych w warstwie kontenerów aplikacyjnych.
W Google w ostatnich latach bardzo rozwinęliśmy też nasze portfolio narzędzi wspierających korzystanie z zasobów chmurowych. Mam tu na myśli m.in. funkcje związane z monitorowaniem stanu usług oraz działania całej infrastruktury. W efekcie nasi klienci nie potrzebują już zewnętrznych rozwiązań wspierających zarządzanie środowiskiem IT, jak być może zdarzało się to jeszcze dekadę temu.
Duże znaczenie ma tu także kwestia zrównoważonego rozwoju. Według mnie, jeśli firmy będą chciały naprawdę rzetelnie podchodzić do ochrony środowiska i ograniczania własnego śladu węglowego, to powinny zadbać o to, aby ta część ich infrastruktury IT, która funkcjonuje w oparciu o model publicznej chmury obliczeniowej, również wspierała ten cel. Google już od 2007 roku jest firmą neutralną węglowo, a od 3 lat rokrocznie pokrywamy całość naszego zapotrzebowania na energię elektryczną zakupami ze źródeł odnawialnych. Obecnie naszym dużym wyzwaniem jest to, by do 2030 roku całość naszych operacji – czyli bieżące działanie biur, regionów chmurowych i centrów danych – było zeroemisyjne. Jest to na pewno plan bardzo ambitny, ale chyba nikogo nie dziwi, że akurat my w taki właśnie sposób podchodzimy do wszystkich projektów.
No właśnie, Google bardzo ambitnie rozwija też własną infrastrukturę…
Faktycznie, na przestrzeni ostatnich lat mocno rozbudowaliśmy infrastrukturę Google Cloud – nie tylko w kontekście mocy obliczeniowej, ale też swobodnego dostępu do naszych usług w regionach geograficznie zlokalizowanych jak najbliżej użytkownika końcowego. Obecnie posiadamy ich 27, a większa dostępność geograficzna naszych usług oznacza, że klienci Google mogą dużo łatwiej skalować działalność na inne regiony lub uruchomić nowe lokalizacje, w bardzo wygodny, szybki i samoobsługowy sposób.
Przykładowo: jeśli firma z Polski chce wejść na jeden z rynków azjatyckich, to dzięki naszej infrastrukturze może udostępnić niezbędne zasoby IT nawet na bardzo odległym geograficznie rynku tak, by zapewnić najwyższą jakość i szybkość działania swoich usług klientom w tamtym kraju. Bezpieczeństwo przesyłanych danych i płynność funkcjonowania pomiędzy poszczególnymi regionami zapewnia nasza prywatna sieć, łącząca regiony Google Cloud na całym świecie. To jedna z największych tego typu sieci i jest to w dużej mierze nasza własna, bardzo wydajna infrastruktura, co przekłada się m.in. na minimalne opóźnienia w transmisji danych nawet w przypadku dużych odległości.
Ponadto Google Cloud w pełni wspiera podejście “multicloud”. Stawiamy na taki rozwój naszych produktów, który ułatwi klientom dobieranie różnych dostawców technologii chmurowych do różnych zadań, jeśli taka będzie ich decyzja. To klient najlepiej przecież rozumie, do czego potrzebna mu chmura i jakie konkretnie zadania ma realizować. Dobrym przykładem jest tu platforma Anthos. To środowisko zapewnia spójne warunki dla rozwoju i uruchamiania nowoczesnych aplikacji – niezależnie od tego, czy odbywa się to w chmurze – także tej udostępnianej przez dostawców innych niż Google Cloud – czy w lokalnej infrastrukturze IT. Anthos pozwala też m.in. łatwo zarządzać klastrami kontenerów w ramach Kubernetes Engine i w innych tego typu środowiskach, zapewniając możliwość przenoszenia rozwiązań między różnymi narzędziami. Otwartość to jeden z aspektów, który mocno wyróżnia usługi Google Cloud Platform. Taki model działania dotyczy też naszej współpracy z partnerami.
Czy środowiska kontenerowe w chmurze to przełom dla infrastruktury IT w firmach?
Konteneryzacja to z pewnością jedna z ważniejszych koncepcji, które obecnie mają wpływ na rozwój technologii IT, jako pewnego rodzaju kontynuacja wirtualizacji. Zapewnia dodatkowe wzrosty w zakresie skalowalności, efektywności oraz otwartości i możliwości migracji aplikacji. Mówiąc jednak o przełomowych technologiach, to największe znaczenie ma sztuczna inteligencja (AI) i wszystkie rozwiązania związane z przetwarzaniem dużych ilości zróżnicowanych danych. Co prawda wszyscy od dawna mówią o AI, ale myślę, że wciąż znajdujemy się na stosunkowo wczesnym etapie rozwoju w tym obszarze. Dopiero wchodzimy w fazę analizowania tych najbardziej rozległych i skomplikowanych zbiorów i zaczynamy tworzyć narzędzia, które dają prawdziwie przełomowe wyniki.
Zupełnie nowe możliwości otworzy przed nami upowszechnienie dostępu do komputerów kwantowych praktycznego zastosowania. Jako Google jesteśmy bardzo aktywni w tej dziedzinie badań i w naszym laboratorium w Santa Barbara udało nam się, jako pierwszym na świecie, stworzyć komputer kwantowy zdolny do wykonania obliczenia, które klasycznej maszynie zajęłoby 10 tysięcy lat. Ten sprzęt i oprogramowanie możemy teraz zastosować do prowadzenia złożonych symulacji reakcji chemicznych, zjawisk gospodarczych czy prognozowania pogody. Wszystkie te przykłady wymagają właśnie jednego – ogromnej szybkości przetwarzania rozległych zbiorów danych.
Czy zatem sam model chmury obliczeniowej ma przełomowe znaczenie dla rozwoju firmowych środowisk IT?
Moim zdaniem upowszechnienie modelu chmury obliczeniowej to największa pojedyncza zmiana w środowisku technologicznym wielu firm i instytucji w skali ostatnich 50 lat. Nie spodziewam się kolejnej, tak znaczącej innowacji za mojego życia. Nie jest rzecz jasna tak, że wszystkie firmy przeniosą całość zasobów IT do modelu chmurowego. Od ponad 20 lat działam w branży IT i zdążyłem się przekonać, że w tym świecie nie ma technologii, które całkowicie zanikają. Model on-premise nie zaniknie, a o skali migracji do chmury zadecydują specyficzne potrzeby, uwarunkowania prawne oraz konkretne decyzje biznesowe poszczególnych przedsiębiorstw i organizacji. Jest to o tyle istotne, że to właśnie rozwój kompetencji w obszarze technologii związanych z cloud computing stwarza unikalne szanse zawodowe.
Uważam też, że nasze warszawskie centrum inżynieryjne stwarza niespotykaną szansę uczestniczenia w rozwoju najbardziej przyszłościowych technologii chmurowych. Wszystkim osobom zainteresowanym pracą u nas powtarzam, że nawet jeżeli nie zostaną z nami przez dekadę czy dłużej, to i tak zdobędą zestaw umiejętności i wiedzę, które będą miały ogromne znaczenie dla ich dalszej kariery. Niezależnie od tego, w jakiej organizacji znajdą się za kilka lat, będzie to organizacja, która w jakimś stopniu korzysta z usług chmurowych, więc zrozumienie podstaw działania takiej infrastruktury, a także poznanie jej mocnych i słabych stron otworzy im zupełnie nowe możliwości pracy.
Czy można powiedzieć, że wykorzystanie publicznej chmury obliczeniowej stało się już konieczne dla efektywnego wdrażania innowacji biznesowych?
Wysoka dynamika procesów gospodarczych oraz zmian otoczenia biznesowego oznacza, że większość firm musi stale modyfikować swój model biznesowy oraz być w stanie szybko wprowadzać nowe produkty i usługi. Niezbędne zmiany coraz częściej wymagają wykorzystania najnowszych rozwiązań technologicznych, a także dużej elastyczności środowiska aplikacyjnego, które de facto stało się podstawą działania praktycznie każdej organizacji. Wszystkie te rzeczy zapewnia właśnie chmura obliczeniowa.
Brak otwartości na nowe technologie i słabe zdolności do dopasowywania się do zmian na pewno nie wróżą dobrze żadnej firmie – wiele z nich niestety dobitnie przekonało się o tym w ostatnich kilkunastu miesiącach. Model chmury obliczeniowej jest dobrą odpowiedzią na aktualne potrzeby, zwłaszcza że nie ma konieczności ponoszenia kosztów z góry. W efekcie wykorzystanie tej czy innej platformy chmurowej jest dziś nie tyle przydatne, co niezbędne dla rozwoju biznesu i jego finansowej opłacalności.
Organizacje, które chcą sprawnie przetwarzać petabajty danych, niekoniecznie są w stanie osiągnąć ten cel w modelu on-premise i to przy zachowaniu wysokiej efektywności kosztowej oraz skalowalności pozwalającej obsłużyć szczyty obciążeń wynikających ze zmienności otoczenia biznesowego. Tylko model chmurowy daje możliwość aktualizowania zasobów w czasie rzeczywistym, aby zapewnić niezbędną w danym momencie wydajność. Świetnymi przykładami z polskiego rynku są firmy takie jak LPP czy Booksy, które – w oparciu o technologie chmurowe – rozwinęły biznes internetowy w szczytowym okresie pandemii.
Zatem chmura obliczeniowa przestała być domeną startupów?
Oczywiście. Popularność usług chmurowych systematycznie wzrasta w większych firmach, także w tych o mocno ugruntowanej pozycji. Decyzje o wykorzystaniu zasobów chmurowych zapadają pomimo faktu, że organizacje te najczęściej posiadają własną infrastrukturę IT. Kluczowe znaczenie ma fakt, że zalety i korzyści jakie dają technologie oferowane w modelu chmurowym są zdecydowanie trudniejsze do pozyskania w inny sposób. Coraz więcej jest też funkcji i usług, które są realnie dostępne tylko z poziomu publicznej chmury obliczeniowej.
Faktem jest też, że dla młodych firm wykorzystanie usług chmurowych jest oczywistością. Trudno bowiem oczekiwać, aby dzisiejsze startupy decydowały się na znaczące inwestycje w obszarze IT, budowę własnego centrum danych i zakup serwerów. Nie mają żadnego “długu technologicznego”, a chmura obliczeniowa jest tu pierwszym wyborem. Jednak tym bardziej duże firmy nie mogą pozostawać w tyle.
Jak zmieniło się podejście firm z naszego regionu do kwestii bezpieczeństwa usług dostępnych w modelu publicznej chmury obliczeniowej?
Zmieniło się diametralnie. Oczywiście nie jest tak, że kwestie bezpieczeństwa przestały być istotne, jednak do niedawna to właśnie one powodowały największe obawy względem usług chmurowych. Dziś świadomość w zakresie architektury, technologii, ale też rodzajów zabezpieczeń wykorzystywanych przez wielu dostawców usług w modelu cloud computing jest dużo wyższa. Firmy oferujące produkty chmurowe na dużą skalę dysponują też nieporównanie większymi możliwościami ochrony tej infrastruktury, niż jest to możliwe dla jakiejkolwiek innej firmy.
Doskonale widać to na przykładzie Google. Jesteśmy w stanie łatwo pokazać, że dysponujemy najlepszymi dostępnymi rozwiązaniami z zakresu bezpieczeństwa. Inwestujemy ogromne środki nie tylko w samą infrastrukturę, ale też w zapewnienie najwyższego stopnia jej dostępności i zabezpieczenia. Klienci Google Cloud korzystają z tej samej infrastruktury, którą zbudowaliśmy i zabezpieczamy – kosztem dziesiątek miliardów dolarów inwestycji – na nasze własne potrzeby i wszystkich naszych najważniejszych produktów i usług. Zatrudniamy też najlepszych ekspertów i ekspertki w dziedzinie bezpieczeństwa IT. W efekcie jesteśmy w stanie zapewnić klientom ochronę danych i bezpieczeństwo działania ich aplikacji na poziomie, którego nie byliby w stanie samodzielnie osiągnąć. Co więcej, wspólnie z partnerami, jesteśmy też w stanie ich wspomóc we wdrażaniu typowo chmurowych rozwiązań bezpieczeństwa odpowiednich dla ich typu biznesu.
Jakie spojrzenie na usługi chmurowe stało się dziś dominujące?
Model chmury obliczeniowej coraz częściej postrzegany jest nie przez pryzmat niższych kosztów i wyzwań związanych z ochroną danych, a z perspektywy konkretnych korzyści biznesowych. Sprowadzają się one do faktu, że – przy zapewnieniu takiego samego poziomu wydajności, skalowalności i elastyczności – analogiczne zasoby IT jest zdecydowanie trudniej uzyskać lokalnie niż za pośrednictwem chmury obliczeniowej. W szczególności dotyczy to zasobów niezbędnych do nowoczesnej analityki biznesowej. Pozyskanie odpowiedniej infrastruktury lokalnie to nie tylko kosztowne, ale też czasochłonne, wieloletnie inwestycje – w chmurze to kwestia zaledwie kilku kliknięć.