Z Michałem Gawlikiem, EMEA Cloud and Architecture Lead w SAS, rozmawiamy o obecnej roli analityki w projektach transformacyjnych; sprzyjającej dostępności infrastruktury cloud computing; uniwersalnej ścieżce integrowania rozwiązań analitycznych z chmurowymi; adaptowaniu analityki w modelu hybrid cloud; wspieraniu klientów w zakresie automatyzacji procesów; nowej wersji platformy SAS Viya; przyszłym wsparciu dla niej ze strony Google i AWS; rozwijających się usługach SAS Cloud udostępnianych w chmurze Microsoft Azure; korzyściach i wyzwaniach związanych z wykorzystywaniem zaawansowanej analityki w modelu chmury obliczeniowej oraz o tym, w jakim kierunku będzie rozwijać się analityka biznesowa w najbliższym czasie.
Model hybrydowy jest bardzo ciekawy. Jako SAS chcemy go wspierać i w tym kierunku rozwijamy nasze technologie. Mówiąc o tym modelu, nie możemy zapominać o takim zjawisku, jak grawitacja danych. Patrząc na rynek polski, można założyć z dużą dozą prawdopodobieństwa, że 99% danych analitycznych znajduje się w systemach działających w środowiskach on-premise. Aby znalazły się one w chmurze, musi wzrosnąć jej adaptacja, do czego zresztą – jako kraj – mocno dążymy. Potwierdza to choćby niedawne otwarcie regionu chmurowego Google. Niestety, w niektórych przypadkach ta adaptacja nie będzie wystarczająco szybka lub z różnych przyczyn nie będzie miała miejsca. Model hybrydowy jest rozwiązaniem takiego problemu.
Trwająca od roku pandemia mocno przyspieszyła cyfrową transformację biznesu – jaką rolę pełni obecnie w tych projektach analityka? W jakiego rodzaju zastosowaniach jest używana?
Analityka pełni coraz większą rolę. Bardzo zmienia się też charakterystyka jej wykorzystania. Jeszcze kilka lat temu była ona przede wszystkim kojarzona z podejściem przetwarzania wsadowego czy związanego z hurtowniami danych. Obecnie widzimy przesunięcie akcentu na coraz szybszą reakcję. Organizacje, które podążają za zmianami i chcą być konkurencyjne, nie mogą otrzymywać wyników w cyklu tygodniowym, tylko w czasie rzeczywistym – real time. A to oznacza, że metody analityczne powinny być wykonywane w momencie, gdy zdarzenie następuje. Takie podejście dobrze współgra z naszym przekonaniem, że analityka powinna wspierać podejmowanie trafnych decyzji we właściwym czasie. Musi być zatem zwinna, szybka, sprytna i cechować się jak największą możliwą skutecznością. I to jest obecnie główny trend.
Co to oznacza na poziomie technicznym?
Chodzi przede wszystkim o to, aby oferować analitykę jako usługi, dostępne np. przy użyciu interfejsów REST API, które można łatwo integrować. Mam tu na myśli wsparcie decyzji w procesach biznesowych np. przy wszelkiego rodzaju interakcjach z klientami. Kolejnym takim obszarem są zdarzenia strumieniowe, gdzie podejmowanie decyzji przez człowieka jest nieosiągalne ze względu na ich ogromną ilość. Zdarzenia generowane są przez urządzenia, które mamy na sobie, miejsca, gdzie jesteśmy, czy strony, na które wchodzimy itd. Jeśli w ramach takich strumieni dodamy możliwość wykonywania analityki, to budowanie wiedzy na temat tych zdarzeń następuje natychmiast i równolegle może zostać podjęta decyzja o interakcji, np. oferta produktu lub spersonalizowana promocja.
Temu podejściu „tu i teraz” sprzyja dziś łatwo dostępna infrastruktura, dzięki możliwościom chmury obliczeniowej. Próg wejścia i wykorzystania infrastruktury w chmurze jest dużo niższy. Takie środowisko można też uruchomić bardzo szybko. Pandemia spowodowała dodatkowo, że przestaliśmy się zastanawiać nad tym, czy można to robić. Wiemy, że trzeba to robić. Przy powszechnym modelu pracy zdalnej, zastosowanie rozwiązań chmurowych jest niezbędne. I to podejście do chmury zmienia się nawet wśród instytucji, które do tej pory były ostrożne z powodu ograniczeń narzucanych przez regulacje. Mam tu na myśli banki i firmy ubezpieczeniowe.
Obecnie trudno sobie chyba w ogóle wyobrazić organizację, która chce nadążać za rzeczywistością, być innowacyjną, a nie korzysta z rozwiązań chmurowych…
Oczywiście. Nawet wspomniane przeze mnie przed chwilą instytucje zdają sobie sprawę, że jest to niezbędne. Pojawiają się więc inkubatory, które pozwalają testować tę technologię. Największym wyzwaniem w przypadku organizacji finansowych są dane, ze względu na regulacje dotyczące ochrony danych osobowych, informacji poufnych, a także różne regulacje związane z tajemnicą bankową itd. Ale są obszary, w których można eksperymentować, czy próbować się rozwijać, np. środowiska dewelopersko-testowe, które nie kosztują zbyt dużo. Można więc wypróbować technologię, zrobić pilota, a gdy zacznie działać, wykonać kolejny krok w stronę rozwiązania produkcyjnego. Takie podejście stało się powszechne i dostępne na wyciągnięcie ręki.
Czy takie testowanie i próbowanie to początek uniwersalnej ścieżki do tego, jak efektywnie integrować rozwiązania analityczne z chmurowymi? Czy jest w ogóle coś takiego, jak uniwersalna ścieżka integracji?
Pierwsza odpowiedź, która przychodzi mi do głowy, jest taka, że nie ma takiej ścieżki. Ale jeśli zastanowimy się głębiej, to – z technologicznego punktu widzenia – możemy chyba powiedzieć o uniwersalizacji chmurowego podejścia. Będzie to wykorzystanie platformy Kubernetes. Jeżeli popatrzymy na największych dostawców chmurowych – czyli Microsoft Azure, Amazon Web Services i Google Cloud – ale także tych mniejszych, to wszyscy ją dostarczają. Jest to więc technologia, która daje swego rodzaju „obietnicę”, że jeśli zacznę budować własną analitykę na chmurze X, to za 2, 3 czy 5 lat – jeżeli zdecyduję, że dla mnie lepsza będzie jednak chmura Y – będę w stanie łatwo tę analitykę tam przenieść.
Oczywiście nie jest to pierwsza tego typu „obietnica”, jeśli chodzi o technologie. Wiele języków programowania (np. Java) oraz platform technologicznych budowało swój sukces na bazie „przenaszalności”. SAS również wywodzi się z tego trendu. Nasz podstawowy język przetwarzania 4GL ma wbudowaną możliwość uruchomienia go na każdym systemie operacyjnym, który wspieramy. Nie jest to więc pomysł nowy. Natomiast dzięki temu, że technologia Kubernetes jest obecna wszędzie, można właśnie powiedzieć, że jest tą uniwersalną ścieżką.
Z kolei to, co dzieje się później – a więc czy wykorzystamy tę technologię oraz gotowe narzędzia analityczne, jak platforma SAS Viya, które możemy potem integrować, czy też będziemy na tym budować własne rozwiązania – to już zupełnie inna kwestia. Widzimy też różne podejścia występujące u dostawców chmurowych. W Microsoft Azure większość dostępnych rozwiązań wspiera standardowe protokoły. W Google Cloud zaś mamy narzędzia unikalne, których nie użyje się nigdzie indziej. Na tym dalszym etapie uniwersalność może więc być już nieco zachwiana.
Czy w SAS odczuwacie Państwo rosnący trend wykorzystywania środowisk hybrid cloud? W jak sposób adaptować analitykę w takim modelu?
Model hybrydowy jest bardzo ciekawy. Jako SAS chcemy go wspierać i w tym kierunku rozwijamy nasze technologie. Mówiąc o tym modelu, nie możemy zapominać o takim zjawisku, jak grawitacja danych. Patrząc na rynek polski, można założyć z dużą dozą prawdopodobieństwa, że 99% danych analitycznych znajduje się w systemach działających w środowiskach on-premise. Aby pojawiły się one w chmurze, musi wzrosnąć jej adaptacja, do czego zresztą – jako kraj – mocno dążymy. Potwierdza to choćby niedawne otwarcie regionu chmurowego Google. Niestety, w niektórych wypadkach ta adaptacja nie będzie wystarczająco szybka lub z różnych przyczyn nie będzie miała miejsca. Model hybrydowy jest rozwiązaniem takiego problemu. Organizacja może mieć dane, które nie powinny opuszczać lokalnej serwerowni, ma nad nimi kontrolę w czasie ich przetwarzania i budowy modelu. Dopiero potem gotowy model, który zawiera informacje pozwalające na podjęcie decyzji, może wykorzystać w chmurze. Jest to rozwiązanie dla firm, które nie są gotowe przenieść wszystkich danych do chmury.
A co w przypadku pełnego otwarcia na chmurę?
Tutaj sprawa wygląda jeszcze ciekawiej, przynajmniej w kontekście dostępnych możliwości. Dane są już w chmurze, w środowisku, które dobrze się skaluje. Dzięki temu najkosztowniejszy krok w procesie budowania modelu analitycznego, którym jest jego stworzenie, możemy wykonać szybko i efektywnie. Tworzenie modelu wymaga bowiem dużej ilości informacji wejściowych. Na ich podstawie model się doprecyzowuje-trenuje. Gdy jest już gotowy, potrzebuje małej ilości danych wejściowych, aby wygenerować wyniki. Ponieważ opracowanie modelu jest kosztowne, a jego wykorzystanie stosunkowo tanie, model cloud jest najbardziej ekonomicznym i efektywnym rozwiązaniem.
Warto natomiast wspomnieć o dwóch podstawowych trendach widocznych w podejściu do realizacji środowisk hybrydowych. Zaczynając więc od czysto programowych rozwiązań, a kończąc na sytuacji, gdy faktycznie dostawcy chmurowi dostarczają klientom sprzęt, co pozwala na „rozciągnięcie” chmury do naszej serwerowni.
Jak wspieracie klientów w zakresie automatyzacji procesów? Jak dużą rolę w tych działaniach odgrywa sztuczna inteligencja?
Nawiązując do tego, o czym już wspominałem, automatyzacja procesów jest serią kroków, w ramach których podejmowane są automatyczne decyzje. Jako SAS dostarczamy platformę, która w prosty sposób komunikuje się z innymi komponentami biorącymi udział w procesie. W taki sposób np. SAS Viya integruje się z Azure Power Apps. Można więc z ich poziomu zbudować cały proces, który wykorzysta np. analitykę tekstową czy identyfikację sentymentu do podjęcia decyzji, w jaki sposób obsłużyć odebraną korespondencję e-mail.
Dzięki temu, że analityka stała się dostępna dla aplikacji w prosty oraz łatwy do zarządzania sposób, nie trzeba być już deweloperem, by udostępnić i wdrożyć produkcyjnie nowy model. Robi się to z poziomu interfejsu przeglądarkowego czy graficznego. Jeden z obszarów rozwoju platformy SAS Viya jest związany właśnie z szeroko pojętą integracją, która pozwala na umieszczanie elementów analitycznych tam, gdzie są one najbardziej potrzebne. Czyli tam, gdzie można wspomóc człowieka w podejmowaniu decyzji.
Jak po pół roku od premiery nowej wersji SAS Viya – ze zmienioną architekturą i sposobem aktualizacji – przebiega migracja na tę platformę na polskim rynku?
Nową wersję SAS Viya mamy dostępną produkcyjnie w ramach platformy Azure od końca 2020 roku i widzimy, że na podstawie tego rozwiązania uruchomiono wiele projektów na rynku europejskim. Widać też rosnące zainteresowanie tym rozwiązaniem na rynku polskim. Oczywiście klienci preferują różnych dostawców, dlatego już w najbliższych tygodniach SAS Viya będzie dostępna na platformie Google Cloud – co jest ważne w kontekście nowego regionu warszawskiego – oraz platformie AWS. Będziemy więc wspierali największe platformy chmurowe, co zapewne wpłynie pozytywnie na zainteresowanie klientów wykorzystaniem analityki w chmurze na platformie SAS Viya.
Dla tych organizacji, które mają już zdefiniowaną strategię chmurową, zrobiły konkretne rozeznanie choćby co do wymagań bezpieczeństwa, platforma SAS Viya okazuje się odpowiedzią na ich oczekiwania. Jeżeli bowiem ktoś ma platformę cloud, to doskonale rozumie, że ta uniwersalność rozwiązań chmurowych jest pożądana dla aplikacji analitycznych. Z drugiej strony, występuje też oczekiwanie, że zasoby chmurowe będzie można wykorzystywać elastycznie. Przykładowo, jeśli są dodatkowe wymagania co do zwiększenia mocy obliczeniowej, to otrzymamy ją automatycznie. Nie wymaga to interwencji administratora czy procesu zakupowego. Chmura i SAS Viya to zapewniają.
Będziemy również rozszerzać zakres wsparcia w obszarze różnych dostawców Kubernetes. W pierwszym kroku skupieni byliśmy przede wszystkim na dostawcach chmurowych, a kolejnym krokiem będą rozwiązania hybrydowe i on-premise, które pozwolą połączyć ze sobą te dwa światy.
Jakie są główne korzyści związane z wykorzystywaniem zaawansowanej analityki w modelu chmury obliczeniowej?
Niewątpliwie największe korzyści to elastyczność, skalowalność, szybki czas dostarczenia wyniku, łatwe prototypowanie i niskie koszty wejścia. Ponadto mamy unikalną możliwość połączenia ze sobą różnych typów analityki. Można więc w szybki sposób postawić środowisko SAS, ale do tego zastosować np. Google Cloud BigQuery czy inną technologię, która jest dostarczana w ramach chmury. Następnie – dzięki API – połączyć te dwa światy oraz wzbogacić je w obie strony.
Widziałem niedawno ciekawy wykres dotyczący liczby transakcji kartami płatniczymi w angielskich pubach. 14 kwietnia 2021 roku zluzowano tam restrykcje covidowe i nagle z marginalnego poziomu płatności doszło do wzrostu o 1250%. Środowisko on-premise gotowe na podobny pik będzie drogie i przed tym pikiem będzie niewykorzystane, a z kolei brak przygotowania na taki wzrost potrzebnej mocy obliczeniowej gwarantuje ogromne problemy. Chmura pozwala uniknąć takich sytuacji. W przypadku podobnego operacyjnego czy analitycznego piku, dzięki chmurze mogę łatwo działać nie tylko w sposób ciągły, ale także mieć taki sam sposób walidacji tych operacji, jak przy małym obciążeniu.
Skoro znamy już korzyści, to poproszę jeszcze o wskazanie wyzwań…
Co do wyzwań to, mimo wszystko, będą to dane. Algorytmy analityczne, szczególnie AI, opierają się na naprawdę dużych wolumenach i rozwoju dostępnych na wyciągnięcie ręki technologii. Mamy więc dostęp do większych możliwości przetwarzania masowego, do większych wolumenów danych i dlatego nasze algorytmy są lepsze. Matematyka w nich jest taka sama od lat. Natomiast dzięki rewolucji technologicznej i dostępności wielkich wolumenów danych, pojawiły się lepsze modele i to sprawia, że analityka jest łatwiejsza do wykorzystania. A gdy dane są w chmurze, nie mamy żadnych ograniczeń. Z kolei przywiązanie tych danych do własnego centrum w naturalny sposób będzie ograniczone do zasobów sprzętowych, którymi dysponujemy.
W jakim kierunku będzie rozwijać się analityka biznesowa w najbliższych latach?
Ponieważ rewolucja technologiczna jest procesem ciągłym, procesory wykorzystywane do trenowania algorytmów AI są coraz potężniejsze. Producenci sprzętu dostarczają lepsze maszyny, więc ten rozwój, udostępnianie i przyspieszanie możliwości AI, na pewno będzie wzrastał. Ale nie jest to jedyny kierunek. Myślę, że rozwój analityki będzie stymulowany przez trend tzw. demokratyzacji analityki z udziałem Citizen Data Scientists. To koncepcja dostępności analityki dla każdego. Czyli wymagane jest jej zrozumienie, ale niekoniecznie już wysoko techniczna wiedza związana z budowaniem modeli i ich wdrażaniem. To narzędzia AI mają pomagać w tworzeniu dobrych modeli i wyciąganiu trafnych wniosków. To sprawi, że będą rosły zespoły korzystające z analityki w codziennej pracy. Dzięki pomocy takich platform jak SAS Viya będzie można łatwo zarządzać całym cyklem życia modelu. Od jego wytworzenia, poprzez walidacje i nadzorowanie w czasie, po jego udostępnienie w ramach usługi dostępnej przez REST API i zintegrowanie z większą całością, np. z procesem automatyzacji obsługi. Myślę, że przed nami jest prawdziwa rewolucja w podejściu do tego, jak analityka jest wykorzystywana i jak szybko zmiany, które w niej wprowadzamy, zaczną wpływać na decyzje podejmowane w czasie rzeczywistym.