MENU

Dwa światy analityki danych, czyli bimodalne IT dla użytkowników biznesowych

5 stycznia 2018Biznes, CDO, Oprogramowanie, Polecane tematy

Na rynku rozwiązań analityki biznesowej widoczny jest dziś coraz głębszy podział na klasyczne systemy do analiz i raportowania oraz na narzędzia wspierające samodzielną eksplorację danych. Różnice pomiędzy takimi rozwiązaniami dobrze wpisują się w odmienne oczekiwania różnych grup użytkowników biznesowych.

Ostatnie kilkanaście lat IT stało pod znakiem rosnącej szybkości zmian, zwinnych metodyk zarządzania projektami oraz przenoszenia środka ciężkości z działów IT na biznes. Było to naturalnym następstwem przemian zachodzących w gospodarce, gdzie wszyscy chcieli i nadal chcą podążać za konsumentem i jego potrzebami.

Zmieniającą się sytuację dostrzegli również dostawcy oprogramowania i narzędzi wykorzystywanych w biznesie. Chmury Microsoft i Amazon błyskawicznie dodają nowe usługi, które natychmiast mogą być wykorzystywane we wdrożeniach produkcyjnych. Przykładowo, wśród narzędzi analitycznych prym wiedzie Power BI, który co miesiąc zyskuje nowe funkcje i coraz lepiej wspiera podejście samoobsługowe w obszarze analityki. Co chwilę słyszymy też o nowych możliwościach wykorzystania mechanizmów sztucznej inteligencji czy przetwarzania kognitywnego.

Nad wyraz często jesteśmy świadkami sytuacji, gdy zamiast samozarządzalnych zespołów projekty są realizowane przez grupę nierozumiejących się osób, a biznes traktuje zwinność jako pozwolenie na zmiany wymagań, nawet na dzień przed oddaniem gotowego rozwiązania.

Mogłoby się wydawać, że wszystko składa się na idealny, wręcz cukierkowy obraz rzeczywistości. Niestety, z moich obserwacji projektów IT wyłania się obraz mniej optymistyczny. Zarówno zespoły biznesowe, jak i zespoły IT nie wiedzą jak w pełni odnaleźć się w nowym otoczeniu. Brak odpowiedniego doświadczenia i kompetencji sprawia, że podejście agile (zwinne) zmienia się we fragile (kruche). Niezrozumienie podstaw metodyki prowadzi do chaosu i niepewności. Nieustanna zmiana funkcjonalności systemów, wprowadza zamęt w głowach niedoświadczonych użytkowników, a dodatkowe migracje zwiększają ryzyko dla kluczowych systemów organizacji.

Złe rozumienie zwinności

Dodatkowo, nad wyraz często jesteśmy świadkami sytuacji, gdy zamiast samozarządzalnych zespołów projekty są realizowane przez grupę nierozumiejących się osób, a biznes traktuje zwinność jako pozwolenie na zmiany wymagań, nawet na dzień przed oddaniem gotowego rozwiązania. Trafne będzie tu przywołanie słów Macieja Bardana, wiceprezesa zarządu Raiffeisen Bank Polska, który mówił, że obecnie istnieją katamarany poruszające się z prędkością 50 węzłów i potrafiące płynąć prawie trzy razy szybciej, niż prędkość pchającego je wiatru. Jednak prowadzenie takiego katamaranu wymaga wyjątkowego zespołu o niesamowitych wręcz umiejętnościach. Podobnie jest z rozwiązaniami IT i metodami ich budowy – wymagają one ekspertów, którzy często są dobrem deficytowym. Właśnie dlatego, idealne podejście nie istnieje. Niezbędne staje się poszukiwanie kompromisów. Takim kompromisem jest podejście stosowane od dawna, ale dla którego w 2014 roku Gartner znalazł nową nazwę: bimodalne IT.

Informatyka dwóch szybkości

W bimodalnym IT do wymagań ‘tanio i dobrze’ rekomenduje się dodanie dwóch nowych elementów: ‘szybko i elastycznie’. Zgodnie z tą koncepcją działy IT należy podzielić na dwie grupy. Pierwsza (tryb 1) koncentruje się na tradycyjnym IT – w szczególności na rozwoju bieżących aplikacji korporacyjnych przy zachowaniu bezpieczeństwa, skalowalności i efektywności. Druga grupa (tryb 2) zajmuje się aplikacjami i usługami nowej generacji, zapewniając elastyczność rozwiązań oraz ich krótki czas dostarczenia do użytkowników. Te aplikacje nowej generacji powinny być uruchamiane na odpowiednio dostosowanych do tego platformach, co obecnie oznacza szerokie wykorzystanie chmury. Jak w przypadku wielu innych koncepcji, również bimodalne IT, pomimo wielkiej rzeszy zwolenników ma szeroką grupę przeciwników, którzy wieszczą mu szybki upadek. Niestety, jak zwykle znaczna część zarzutów wynika z niezrozumienia podstaw.

Brak odpowiedniego doświadczenia i kompetencji sprawia, że podejście agile (zwinne) zmienia się we fragile (kruche). Niezrozumienie podstaw metodyki prowadzi do chaosu i niepewności. Nieustanna zmiana funkcjonalności systemów, wprowadza zamęt w głowach niedoświadczonych użytkowników, a dodatkowe migracje zwiększają ryzyko dla kluczowych systemów organizacji.

Jak zatem nowoczesna organizacja może wykorzystać bimodalne IT w dostarczaniu wartości biznesowej? Czy również w kontekście rozwiązań Business Intelligence i zapotrzebowania organizacji na informację należałoby stosować takie podejście?
Podejście zwinne vs tradycyjne

Bimodalne BI może rozwiązać wiele bolączek informacyjnych współczesnych firm. Właściwa diagnoza oraz identyfikacja tego, które wymagania biznesowe należy realizować w trybie tradycyjnym, a które w trybie zwinnym nie tylko przynoszą wymierne korzyści kosztowe, ale również znacząco przyspieszają tempo wdrażania innowacyjnych pomysłów. Obszar analityki biznesowej jest dobrym przykładem możliwości wykorzystania takiego, dwutorowego podejścia do nowych technologii.

By taką identyfikację wykonać, osobiście dzielę rozwiązania analityczne na dwie grupy:

1. Korporacyjne BI – tradycyjne platformy raportowe (Oracle Business Intelligence Enterprise Edition, IBM Cognos, SAP Business Objects), oparte o rozbudowane modele semantyczne, wykorzystujące hurtownie danych oraz skomplikowane procesy ETL, dostarczające setek lub tysięcy raportów operacyjnych, z ograniczonymi możliwościami elastycznej interakcji z danymi oraz ich efektownej wizualizacji. Korporacyjne podejście do BI wymaga przetwarzania dużych wolumenów danych oraz długiego etapu przygotowania ich przed raportowaniem. Obsługuje standardowe potrzeby analityczne oraz powtarzalne procesy informacyjne.

2. Samoobsługowe BI – elastyczne i przyjazne użytkownikowi platformy raportowe (Power BI, Tableau, Domo), które umożliwiają szybkie prototypowanie oraz dynamiczną, interaktywną pracę z danymi. Posiadają mniejsze możliwości przetwarzania danych oraz ograniczone funkcje zarządzania uprawnieniami. Obsługują niestandardowe potrzeby analityczne oraz wspierają reakcję na dynamiczne zmiany rynkowe.

Obie grupy rozwiązań z zakresu analizy danych mają swoje zalety oraz wady, a prawidłowe ich połączenie da nam maksymalizację korzyści. Opiszmy zatem kilka przykładowych zastosowań bimodalnego BI:

1. Biznes łączy dane historyczne z danymi czasu rzeczywistego
Strategia bimodalnego BI pozwala na pobieranie danych zewnętrznych i łączenie ich z danymi, które już znajdują się w hurtowni danych. Pozwala to na prototypowanie i eksperymentowanie na danych poza hurtownią, z prędkością i elastycznością rozwiązań opartych na przetwarzaniu danych in-memory. Dodatkowo, taka strategia nie wymaga angażowania działu IT w proces analityczny i pozwala na zaawansowaną analizę danych w codziennej pracy użytkowników biznesowych.

2. Skomplikowane procesy integracji i poprawy jakości danych wymagają interaktywnych wizualizacji
Dzięki połączeniu dwóch trybów, procesy ETL (Extract, Transform, Load) mogą zostać obsłużone na poziomie hurtowni danych, podczas gdy biznes wykonuje szybkie analizy ad-hoc w samoobsługowym BI. W ten sposób łączymy moc narzędzi zarządzania metadanymi i słownikami biznesowymi z wizualizacjami dostosowanymi do wymagających i różnorodnych odbiorców. Przygotowanie danych wymaga wsparcia IT, jednak to użytkownicy biznesowi decydują, jak zwizualizować dane i mogą to zrobić samodzielnie.

3. Innowacyjne metody analizy danych bez narażania codziennych procesów w organizacji
Innowacyjne podejście do eksploracji danych wymaga zdecentralizowanego i zwinnego podejścia, jednakże w organizacji istnieje wielu użytkowników, którzy nie posiadają czasu lub umiejętności na tworzenie analiz ad-hoc. Ta druga grupa jest obsługiwana przez korporacyjne raporty, podczas gdy bardziej świadomi użytkownicy mogą wykorzystać pełnię możliwości analiz samoobsługowych. W takim podejściu powstają małe, wyizolowane grupy eksperymentatorów, którzy mogą dzielić się wynikami swojej pracy z danymi jeszcze przed rozważaniem szerszego wdrożenia w całej firmie. Jeśli eksperymenty okażą się sukcesem, mogą być wdrożone przez IT dla całej organizacji, przy zachowaniu skalowalności i niskiego poziomu kosztu obsługi.

4. Wykorzystywanie obecnych narzędzi w celu obniżenia kosztów obsługi
W momencie, gdy firma już posiada wdrożoną hurtownię danych, zwykłym marnotrawstwem byłoby całkowite porzucenie istniejącego rozwiązania i przejście na nowe narzędzie BI. Jednak, gdy w organizacji pojawią się potrzeby na samoobsługowe BI, szybkie analizy i łączenie danych zewnętrznych z usług chmurowych (Google Analytics, Facebook itp.), to właśnie bimodalne podejście BI pozwala na stworzenie pomostu pomiędzy różnymi rozwiązaniami. Integralność danych zostanie zachowana przy dodaniu elastyczności nowej platformy.

Powyższe przykłady przedstawiają tylko niektóre sposoby na łączenie różnych typów narzędzi wspierających analitykę, eksplorację danych i raportowanie w myśl koncepcji bimodalnego BI. Pokazują one jednak, jak efektywnie korzystać z istniejących zasobów firmy i łączyć je z nowinkami technologicznymi pojawiającymi się każdego dnia.

Proporcje to kwestia indywidualna

Bimodalne podejście do narzędzi Business Intelligence pozwala w pełni wykorzystać nie tylko dane, ale również umiejętności poszczególnych członków organizacji. Dzięki temu biznes może korzystać z narzędzi łatwych i przyjaznych, podczas gdy cały ekosystem jest stabilizowany przez rozwiązania sprawdzone od wielu lat.

Podsumowując, chcę zaznaczyć, że środek ciężkości w bimodalnym podejściu zależy od wielkości i dojrzałości organizacji. Małe firmy, które dopiero formują swoje procesy biznesowe i analityczne powinny pełnymi garściami czerpać z nowych, elastycznych systemów, które w podejściu pay-as-you-go minimalizują koszty początkowe i pozwalają na skalowalność z biegiem czasu.
Z kolei korporacje obciążone dziesiątkami systemów o starej architekturze powinny wdrażać nowinki w małych zespołach lub jednostkach biznesowych i przeprowadzać szeroką popularyzację dopiero po potwierdzeniu efektywności rozwiązań. Z biegiem czasu, użytkownicy nabiorą kompetencji, które są wymagane dla większej elastyczności i szybkości procesów, a digitalizacja nastąpi samoczynnie, bez wprowadzania niepotrzebnego chaosu.

Wojtek Bąk, dyrektor generalny firmy Clouds On Mars
Firma Clouds On Mars zatrudnia ekspertów z dziedziny Data Science, Machine Learning i Data Analytics i pomaga klientom w skutecznym wykorzystywaniu danych biznesowych. Posiada biuro w Warszawie oraz w Seattle w USA.

Podobne tematy:

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

« »