AnalitykaCIOPolecane tematy
Lepsze dane, to lepsze decyzje i większe szanse na strategiczny rozwój biznesu
Executive ViewPoint
O zasadności porównania danych do ropy naftowej współczesnych czasów, problematyce zapewnienia wysokiej jakości danych biznesowych, automatyzacji procesów zarządzania danymi, a także o możliwościach rozwiązania Trillium DQ i strategii rynkowej Precisely mówią Maciej Grzelak, Senior Account Executive w Precisely oraz Ireneusz Suszek, Chief Operating Officer w AZ Frame.
Operacje związane z zarządzaniem danymi mogą być zautomatyzowane na wiele sposobów. Jednym z nich jest integracja danych. Dostępne są dziś narzędzia zastępujące ręczne kodowanie i inne nieefektywne procesy, dzięki czemu nasi klienci mogą uzyskać największą wartość ze swoich danych, przy jednoczesnym obniżeniu kosztów. Nasze produkty do integracji danych automatyzują np. proces uzyskiwania danych z krytycznych środowisk typu mainframe i systemów IBM pod kątem uporządkowania procesów zarządzania danymi, na potrzeby platform analitycznych czy przetwarzania w chmurze.
Maciej Grzelak, Senior Account Executive w Precisely
W jaki sposób na przestrzeni ostatnich kilku lat zmieniło się znaczenie danych w zastosowaniach biznesowych? Dlaczego obecnie mówi się, że dane to ropa naftowa dzisiejszych czasów?
Maciej Grzelak (M.G.): Dane znajdują się w centrum cyfrowej transformacji w każdej organizacji – pomagają analizować wyniki działalności, lepiej personalizować doświadczenia klientów, wizualizować rozwiązania problemów, a dzięki zastosowaniu sztucznej inteligencji i uczenia maszynowego także zwiększać szybkość i trafność podejmowanych decyzji, a co za tym idzie – podnosić konkurencyjność biznesu. Wadą tego porównania jest jednak to, że ropa naftowa jest zasobem skończonym, a dane nieskończonym. Co więcej, dostępność i szybkość przyrostu danych stale rośnie.
Według raportu IDC „Data Age 2025”, łączna ilość danych na świecie do 2025 roku będzie rosła w tempie 61% rocznie. W efekcie na koniec 2025 roku globalnie będziemy dysponować 175 ZB danych wobec jedynie 33 ZB w 2018 roku. Jednocześnie, działania mające na celu uzyskanie realnej wartości z danych są dużo bardziej złożone od tych zmierzających do wydobycia wartości z ropy naftowej. Spójność danych, kontrola ich jakości, integracja i troska o właściwy kontekst to tylko niektóre z elementów złożonego procesu.
Ireneusz Suszek (I.S.): Konsekwencją przenoszenia procesów biznesowych do świata cyfrowego jest coraz szybszy cyfrowy przyrost danych oraz potrzeba ich gromadzenia, wykorzystywania i ochrony. Bez możliwości dostępu do precyzyjnych danych trudno jest zwiększać konkurencyjność oraz podejmować racjonalne decyzje biznesowe. W efekcie, dane stają się bardzo cennym aktywem biznesowym. Widzę też analogię w porównaniu dużych zbiorów danych cyfrowych z eksploracją złóż ropy naftowej. Podobnie jak ma to miejsce w przypadku tej drugiej, zanim zaczniemy zarabiać pieniądze oraz podejmować najlepsze decyzje biznesowe, dane trzeba uprzednio oczyścić i odpowiednio dystrybuować.
Co sprawia, że kwestia zapewnienia danych dobrej jakości jest dziś tak istotna?
I.S.: Znaczenie jakości danych rośnie przede wszystkim dlatego, że cyfrowe procesy, ich otoczenie oraz użytkownicy, którzy na co dzień z nich korzystają, ewoluują. Żaden z tych parametrów nie jest stały, a co za tym idzie – każda minuta i godzina przynosi nam nową rzeczywistość. Bez uwzględniania zachodzących zmian oraz bez odpowiedniego zagwarantowania jakości dla przetwarzanych zbiorów danych mogą one szybko stać się niewiele warte lub – co następuje częściej – trudne do wykorzystania w działaniu operacyjnym. Zapewnienie dostępu do danych wysokiej jakości staje się więc ważnym wyzwaniem o znaczeniu biznesowym. Na to nakłada się również konieczność zapewnienia bezpieczeństwa danych oraz zgodności z przepisami dotyczącymi ochrony danych osobowych, które wymuszają szczególne traktowanie wybranych zbiorów danych.
Integracja danych to często problem wynikający z szybkiej dewaluacji architektury środowisk IT oraz jednoczesnej konieczności realizacji ciągłych potrzeb biznesu w zakresie cyfryzacji nowych procesów i wymiany danych ze środowiskami starszymi typu legacy, które w dalszym ciągu zapewniają wsparcie wielu transakcji. W dobie cyfrowej transformacji procesy biznesowe stają się bardziej złożone i współzależne, co wymaga nowego podejścia do zarządzania danymi.
Ireneusz Suszek, Chief Operating Officer w AZ Frame
M.G.: Znaczenie jakości danych w kontekście utrzymania zgodności z RODO nie jest być może oczywiste, ale ma kluczowe znaczenie dla skutecznego zarządzania danymi, ponieważ umożliwia przedsiębiorstwom uzyskanie informacji o tym, jakie dane posiadają i gdzie są one przechowywane. Jest to o tyleż istotne, że większość firm nie ma jednego, głównego zbioru danych dotyczących klientów. Zamiast tego dane o klientach są rozproszone po wielu systemach. Możliwe są więc duplikaty czy różne wersje tych samych informacji. Tymczasem, narzędzia wspierające zarządzanie jakością danych pozwalają uporządkować, zdeduplikować i scentralizować dane, tak aby ułatwić ich usunięcie na żądanie klienta.
Od czego zależy możliwość wykorzystania danych w realnych scenariuszach biznesowych?
M.G.: Kluczem do wykorzystania danych na potrzeby rozwoju biznesu i przestrzegania przepisów jest posiadanie solidnych narzędzi do profilowania danych, zarządzania ich jakością oraz integracji. Integracja danych jest dziś potrzebna bardziej niż kiedykolwiek. Dopiero na to nakładają się narzędzia stricte biznesowe. Dane są obecnie najczęściej rozproszone w wielu systemach i platformach. Mogą być gromadzone w różnych formatach, ustrukturyzowane, nieustrukturyzowane lub częściowo ustrukturyzowane. Aby stały się użyteczne w kontekście procesów decyzyjnych, dane muszą zostać uprzednio wydobyte z systemów źródłowych, połączone i uporządkowane. Zapewnienie dostępu do aktualnych danych na dużą skalę – zwłaszcza danych z systemów transakcyjnych, które mogą mieć tysiące zmian dziennie – wymaga potężnej, skalowalnej ich integracji w czasie rzeczywistym.
I.S.: Integracja danych to często problem wynikający z szybkiej dewaluacji architektury środowisk IT oraz jednoczesnej konieczności realizacji ciągłych potrzeb biznesu w zakresie cyfryzacji nowych procesów oraz wymiany danych ze środowiskami starszymi typu legacy, które w dalszym ciągu zapewniają wsparcie wielu transakcji. W dobie cyfrowej transformacji procesy biznesowe stają się bardziej złożone i współzależne, co wymaga nowego podejścia do zarządzania nimi. Migracja lub łączenie danych z wielu systemów pozwala budować procesy na podstawie informacji pochodzących z różnych obszarów działania firmy, a co za tym idzie – otrzymywać unikalną wiedzę o realnym stopniu realizacji poszczególnych procesów. Na pewno trzeba też spojrzeć na istniejące silosy i zbiory danych przez pryzmat wielu środowisk oraz systemów funkcjonujących w organizacji. Konieczność utrzymywania tych samych lub części tych samych danych i ich aktualizacji bez wsparcia w postaci odpowiednio zdefiniowanych procesów często mija się z celem.
Dlaczego tak ważna jest jakość i profilowanie danych?
M.G.: Szczególnym przykładem inwestycji w jakość danych jest profilowanie danych, w celu lepszego zrozumienia danych przed ich udostępnieniem użytkownikom biznesowym. Profilowanie danych pomaga zapewnić, że dostępne dla użytkowników dane faktycznie nadają się do wykorzystania w procesach biznesowych – niezależnie od źródła, z którego pochodzą. W szczególności zachęcamy przedsiębiorstwa do poszukiwania rozwiązań w zakresie integracji danych i jakości danych, które pomogą odizolować od podstawowych zawiłości stosu technologii. Właśnie w takich rozwiązaniach specjalizuje się Precisely.
Jakie czynniki wpływają na jakość danych biznesowych?
M.G.: Istnieje 6 wymiarów, które należy uwzględnić na etapie oceny jakości danych. Są to: dokładność, kompletność, spójność, aktualność, ważność i niepowtarzalność. Na jakość danych może mieć wpływ wiele czynników, w tym: istnienie rozdrobnionych danych, które występują w wielu formatach; masowa skala danych M2M; eksplozja wartościowych danych z ogólnodostępnych źródeł, jak choćby media społecznościowe. Wyzwaniem jest też maksymalizacja potencjału posiadanych danych biznesowych. Procesy zmierzające do zapewnienia jak najwyższej jakości danych muszą więc brać pod uwagę m.in. działania z obszarów: integracji, ekstrakcji, normalizacji, deduplikacji i konsolidacji danych, z uwzględnieniem wielu rodzajów i formatów danych wejściowych.
Czy operacje związane z zarządzaniem danymi biznesowymi można automatyzować?
M.G.: Oczywiście. Operacje związane z zarządzaniem danymi biznesowymi mogą być zautomatyzowane na wiele sposobów. Jednym z obszarów jest tu integracja danych. Dostępne są dziś narzędzia, które zastępują ręczne kodowanie i inne nieefektywne procesy, dzięki czemu nasi klienci mogą uzyskać największą wartość ze swoich danych, przy jednoczesnym obniżeniu kosztów. Nasze produkty do integracji danych automatyzują np. proces uzyskiwania danych z krytycznych środowisk typu mainframe i systemów IBM pod kątem uporządkowania procesów zarządzania danymi, na potrzeby platform analitycznych czy przetwarzania w chmurze.
Wiele platform cloud computing nie ma natywnej integracji z tradycyjnymi systemami IBM, co sprawia, że wiele prac dotyczących integracji danych musi być wykonywane ręcznie, nierzadko z wykorzystaniem drogich i ograniczonych zasobów do ręcznego kodowania rozwiązań i późniejszego ich utrzymywania. Nasze produkty Connect i Ironstream automatyzują proces integracji systemów IBM z głównymi platformami danych w chmurze, takimi jak Cloudera, Databricks, Snowflake, Splunk i ServiceNow.
Kolejnym obszarem jest maksymalizacja jakości danych. Tradycyjne, manualne narzędzia wymagają znacznego nakładu czasu i wiedzy IT. Dużym ułatwieniem jest tu wykorzystanie sztucznej inteligencji i uczenia maszynowego. Przykładowo, rozwiązanie Spectrum Smart Data Quality zapewnia rozbudowane funkcje oparte na mechanizmach AI z intuicyjnym, przyjaznym dla użytkowników biznesowych interfejsem, za pośrednictwem którego można w łatwy sposób zarządzać regułami dopasowania danych. Dzięki połączeniu wiedzy ekspertów biznesowych z rozwiązaniami opartymi m.in. na mechanizmach uczenia maszynowego, proces dopasowania danych jest zautomatyzowany, dopracowany i zoptymalizowany.
Jaka jest strategia Precisely, nowej, ogłoszonej w maju 2020 roku marki firmy, która dotąd występowała pod nazwą Syncsort?
M.G.: Misją i tym, co wyróżnia Precisely jest możliwość zapewnienia klientom dostępu do precyzyjnych danych we właściwym kontekście. Są one bowiem kluczem do uwolnienia potencjału nowych technologii z obszaru pamięci masowych, przetwarzania danych, analityki biznesowej oraz uczenia maszynowego. Jednocześnie, biznes potrzebuje dziś danych bardziej niż kiedykolwiek wcześniej. Stały się one bowiem fundamentem dla większości decyzji i operacji biznesowych. Lepsze dane, to lepsze decyzje i większe szanse na strategiczny rozwój biznesu. Aby jednak dane były faktycznie użyteczne, powinny być precyzyjne, czyli prawdziwe, dokładne i spójne. Co nie mniej ważne, dane nie mogą być też oderwane od kontekstu, w jakim występują. Nasze rozwiązania od dziesięcioleci są używane przez specjalistów ds. jakości danych. Jednocześnie, wiele z naszych rozwiązań – jak Trillium Discovery czy rozwiązania linii Spectrum – zostało zaprojektowane z myślą o użytkownikach biznesowych, aby ułatwić im dostęp do danych i ich wykorzystanie.
I.S.: Wraz z powstaniem Precisely pojawiły się też zupełnie nowe narzędzia, które jako AZ Frame mamy możliwość przedstawić klientom z Polski i krajów sąsiednich. Jesteśmy partnerem Precisely, wcześniej Syncsort, od 4 lat. W tym okresie wspólnie dostarczyliśmy narzędzia do automatyzacji procesu zarządzania danymi dla kilku kluczowych projektów, w tym w sektorze finansowym. Jako Diamentowy Partner Precisely koncentrujemy się na wspieraniu potrzeb klientów w obszarach Data Quality i Data Governance, a rozwiązania, które oferujemy, świetnie się sprawdzają. Przykładowo, oprogramowanie Trillium DQ często staje się naturalną platformą łączącą potrzeby osób odpowiedzialnych za jakość danych oraz pracowników działów biznesowych.
W jaki sposób w potrzeby związane z zapewnieniem jak najlepszej jakości danych wpisuje się rozwiązanie Trillium DQ?
I.S.: Biorąc pod uwagę doświadczenia z wdrożeń realizowanych przez zespół AZ Frame, mogę powiedzieć, że narzędzie Trillium DQ dobrze wpisuje się w potrzeby dostarczenia biznesowi danych do realizacji usług i transakcji. Jego przewagą jest m.in. możliwość spojrzenia na własne dane w odseparowaniu od baz procesów, w jakich na co dzień są używane. Takie podejście ułatwia zrozumienie danych i zaplanowanie ewentualnych działań związanych z automatyzacją ich obsługi. Czysto technicznie na funkcjonalność Trillium DQ składa się: weryfikacja danych oraz działania związane z ich łączeniem i separowaniem, integracja źródeł danych z relacjami procesów, poprawa jakości i czyszczenie danych. Istotne jest to, że Trillium może współpracować z dużą ilością platform natywnie wdrażanych w ramach Big Data, w tym Spark i Cloudera.
Jakie znaczenie dla dzisiejszej pozycji Precisely ma – zrealizowana w 2019 roku – fuzja z Pitney Bowes?
M.G.: Dzięki przejęciu Pitney Bowes byliśmy w stanie poszerzyć naszą ofertę w obszarze jakości danych. Dziś trzon naszego portfolio w tym obszarze stanowią rozwiązania PreciselyTrillium, Precisely Spectrum Quality i Precisely Spectrum Content. Pomagają one klientom zrozumieć posiadane przez nich dane i zapewniają ich dokładność, spójność i kompletność w celu świadomego podejmowania decyzji biznesowych. Nasze rozwiązania z obszaru jakości danych mogą być stosowane na wszystkich platformach – w tym także w natywnym wdrażaniu w ramach Big Data Framework, takich jak Spark i Cloudera – oraz w modelu cloud computing. Zapewniamy też natywną integrację z wiodącymi aplikacjami biznesowymi, w tym z rozwiązaniami SAP, Salesforce, Microsoft Dynamics 365, Marketo i NetSuite.
Artykuł ukazał się na łamach Raportu ITwiz BEST100 edycja 2020. Zamów poniżej: