AnalitykaExecutive ViewPointCDOPolecane tematy
Biznes oparty na analityce danych wymaga dojrzałości organizacyjnej
O różnicach pomiędzy zaawansowaną analityką i sztuczną inteligencją, wymaganiach kulturowych niezbędnych dla efektywnego wykorzystania analiz danych w procesach biznesowych, specyfice projektów zakładających wdrożenie takich rozwiązań w organizacjach biznesowych, a także o możliwościach nowej platformy analitycznej SAS Viya mówi Kamil Konikiewicz, szef zespołu Analytics Practice w SAS Institute na region Europy Środkowo-Wschodniej i bliskiego Wschodu.
[qoute]Analityka danych jest bezużyteczna, jeśli nie prowadzi do konkretnych usprawnień procesów biznesowych. Z pewnym smutkiem muszę zauważyć, że o projektach Data Science często mówi się głównie w kontekście algorytmiki, języków programowania czy niuansów architektonicznych. Zbyt wiele uwagi poświęca się eksperymentom analitycznym czy technologicznym, co znacząco odbija się na jakości wdrożeń i niestety często tworzy negatywną otoczkę wokół analityki danych w organizacjach.[/quote]Odpowiada Pan m.in. za koordynację działań zespołu ekspertów związanych z zaawansowaną analityką. W jaki sposób jego działania przekładają się na efekty wdrożeń SAS Institute w biznesie?
Ten zespół to przede wszystkim społeczność ekspertów, których głównym zadaniem jest opracowywanie, budowa i wdrażanie rozwiązań biznesowych opartych o najnowsze technologie analityczne. Naturalnie dysponujemy rozwiniętymi kompetencjami w różnych obszarach analityki danych – od uczenia maszynowego, prognostyki szeregów czasowych, poprzez metody optymalizacyjne, po Deep Learning i Text Mining. To jednak nie wszystko. Co wyróżnia nas bowiem szczególnie to głębokie zrozumienie procesów biznesowych, które analizujemy. Uważam, że dopiero takie połączenie technologicznych i biznesowych kompetencji gwarantuje efektywne wykorzystanie potencjału zaawansowanej analityki.
Na koncie posiadamy zróżnicowane portfolio projektów związanych m.in. z: prognozowaniem popytu i optymalizacją dostaw w handlu, optymalizacją pracy call center, czy budowaniem spersonalizowanych kampanii marketingowych dla firm telekomunikacyjnych i bankowości. Realizowaliśmy też projekty, których efektem były na przykład rozwiązania przewidujące wystąpienie awarii sieci energetycznej lub automatycznie klasyfikujące reklamacje zgłaszane przez klientów. Poza wdrożeniami technologii zajmujemy się też projektami doradczymi, podpowiadając w jaki sposób wdrażać analitykę w organizacjach biznesowych czy publicznych.
Jaka jest recepta na udane wdrożenie zaawansowanej analityki biznesowej?
Analityka danych jest bezużyteczna, jeśli nie prowadzi do konkretnych usprawnień procesów biznesowych. Współpracując z naszymi klientami zawsze mocno to podkreślamy, kładąc nacisk na sprecyzowanie koncepcji wykorzystania analityki w realnych działaniach ich organizacji.
Z pewnym smutkiem muszę zauważyć, że nie jest to powszechna praktyka – niestety o projektach Data Science często mówi się głównie w kontekście algorytmiki, języków programowania czy niuansów architektonicznych. Zbyt wiele uwagi poświęca się eksperymentom analitycznym czy technologicznym, co znacząco odbija się na jakości wdrożeń i niestety często tworzy negatywną otoczkę wokół analityki danych w organizacjach.
Analityka i sztuczna inteligencja to dziś hasła wykorzystywane bardzo często…
…zdecydowanie za często. Hasła „sztuczna inteligencja” czy „AI” na wyrost używają teraz właściwie wszyscy, tak jakby od liczby odniesień do tego pojęcia zależał ich biznesowy byt.
Weźmy chociażby pod lupę rynek platform e-commerce, czy rozwiązań związanych z zarządzaniem lub interakcjami z klientami. Oczywiście, często dostawcy takich rozwiązań sięgają po – być może zaawansowane – algorytmy mające na celu spersonalizowanie dialogu z klientem. W przeważającej większości nie mają one jednak wiele wspólnego ze sztuczną inteligencją. Przykładowo, mianem AI na pewno nie określiłbym mechanizmu podpowiadania kolejnego produktu do koszyka, jeśli korzysta on tylko z dotychczasowych najczęstszych wzorców zakupowych. Nie wszystko, co przetwarza dane w oparciu o algorytmy analityczne można nazwać sztuczną inteligencją.
Czym zatem jest sztuczna inteligencja?
Mianem sztucznej inteligencji można określić dziedzinę rozwiązań zajmujących się wyuczeniem pewnych umiejętności, które są charakterystyczne dla człowieka. Mam tu na myśli przede wszystkim zastosowania związane z analizą i syntezą języka naturalnego, interpretacją obrazu, czy zaawansowanym wnioskowaniem logicznym. W ostatnich latach właśnie w tych obszarach poczyniono potężne postępy. Mamy dziś asystentów głosowych, tłumaczenie maszynowe czy nowatorskie rozwiązania w zakresie automatycznej interpretacji obrazu, gdzie komputer jest w stanie prześcignąć człowieka w zakresie opisu tego co widzi. Należy jednak zauważyć, że na chwilę obecną są to jedynie przykłady tzw. wyspecjalizowanej sztucznej inteligencji (tzw. Narrow AI), czyli rozwiązań zbudowanych i nauczonych pod kątem rozwiązywania konkretnych, z góry określonych problemów w sposób zbliżony do tego, jak poszedłby do nich człowiek.
W jakich zastosowaniach tak rozumiana sztuczna inteligencja przynosi największe korzyści lub są to korzyści najłatwiejsze do osiągnięcia?
Jeśli rozumiemy AI jako dziedzinę, której celem jest przede wszystkim naśladowanie umiejętności charakterystycznych dla człowieka, to jej zastosowania z natury rzeczy będą wyspecjalizowane i ich potencjał będzie się wahał w zależności od branży i gromadzonych danych.
W moim odczuciu ogromnym potencjałem charakteryzuje się wykorzystanie sztucznej inteligencji w obszarze ochrony zdrowia. Mam tu na myśli zastosowanie algorytmów AI do przetwarzania i analizy tekstu oraz obrazów w kontekście diagnostyki medycznej. Tego typu rozwiązania już teraz są w stanie w dość skuteczny sposób wspomagać lekarzy, a to przecież dopiero początek rewolucji wokół AI.
Sztuczna inteligencja zazwyczaj służy do rozwiązania nieco innych problemów biznesowych niż klasyczna analityka predykcyjna czy algorytmy uczenia maszynowego. Mamy jednak, także na polskim rynku, doświadczenia pokazujące, że wykorzystanie nowych metod z obszaru Deep Learning do dość dobrze znanych i opisanych problemów analitycznych sprawdza się świetnie. Przykładowo w ocenie ryzyka rezygnacji klienta z usług, daje możliwość poprawy skuteczności predykcji nawet o 30-40 procent.
Na polskim rynku mamy przykład wdrożenia, którego celem było wsparcie diagnostyki nowotworowej w oparciu o przetwarzanie notatek stworzonych przez lekarza w trakcie spotkania z pacjentem. Treść zapisywana przez lekarzy może być bardzo cenna, ale bez zastosowania sztucznej inteligencji jest też trudna do przetwarzania na dużą skalę. Rolą zbudowanego przez nas rozwiązania jest pozyskanie danych z odręcznych notatek ich ustrukturyzowanie oraz powiązanie z ilościowymi wskaźnikami pochodzącymi ze specjalistycznych badań. Wszystko to, aby wspomagać skuteczniejszą diagnostykę i rozpoznawanie stanów nowotworowych we wczesnym stadium.
Zastosowań sztucznej inteligencji w przestrzeni publicznej jest oczywiście znacznie więcej – przetwarzanie zdjęć lotniczych i satelitarnych w celu ochrony środowiska, czy automatyczna identyfikacja przestępstw na bazie obrazu z monitoringu miejskiego to tylko kolejne przykłady…
W zastosowaniach bliższych potrzebom biznesu warto wymienić choćby chatboty. Obecnie nawet w Polsce kilka dużych firm wprowadza tego typu rozwiązania na potrzeby obsługi procesu sprzedażowego, rozpatrywania reklamacji czy zgłoszeń związanych z obsługą klienta. Przy czym mówiąc o chatbotach znowu należy zwrócić uwagę na wykorzystane w nich rozwiązania. W wielu przypadkach będą to jedynie mechanizmy symulujące sztuczną inteligencję na podstawie rozbudowanego zestawu reguł logicznych pokrywającego szeroką paletę możliwych scenariuszy rozmowy.
Co różni sztuczną inteligencję od zaawansowanej analityki, ale w kontekście praktycznego użycia takich rozwiązań?
Sztuczna inteligencja zazwyczaj służy do rozwiązania nieco innych problemów biznesowych niż klasyczna analityka predykcyjna czy algorytmy uczenia maszynowego. Jednak wraz z rozwojem AI doświadczamy również dużego postępu w zakresie różnego rodzaju algorytmów predykcyjnych z obszaru Deep Learning – mowa tu o głębokich sieciach neuronowych. Te z kolei mogą służyć jako wzmocnienie dla standardowej analityki. Mamy, także na polskim rynku, doświadczenia pokazujące, że wykorzystanie nowych metod do dobrze znanych i opisanych problemów analitycznych – np. ocena ryzyka rezygnacji klienta z usług, daje możliwość poprawy skuteczności predykcji nawet o 30-40 procent.
Od czego zależy powodzenie wdrożenia zaawansowanej analityki w zastosowaniach biznesowych? Pewnie chodzi o podejście do danych…
Nie zawsze. Według mnie głównym wymaganiem jest uzyskanie pewnego poziomu dojrzałości mentalnej i kulturowej niezbędnej, aby przejść z klasycznego, opartego na intuicji, modelu zarządzania działalnością w kierunku podejmowania decyzji na podstawie danych, analiz, symulacji i prognoz. Moim zdaniem to najważniejszy, ale często niedoceniany aspekt – co z tego, że zatrudnimy zespół najbardziej wykwalifikowanych specjalistów, damy im najlepszą technologię i dobrej jakości dane, jeśli w końcu na samym końcu ktoś stwierdzi, że jednak „robimy po mojemu”.
Jeśli chodzi o dane – oczywiście bez nich nic nie wskóramy, istotna jest jak największa automatyzacja w ich gromadzeniu, czyszczeniu i integracji. Kluczowe jest monitorowanie ich jakości w czasie – należy bowiem pamiętać, że nawet najbardziej zaawansowane algorytmy analityczne z zasady rzadko odporne są na anomalie występujące w danych wejściowych.
No i w końcu narzędzia analityczne – w przypadku zaawansowanej analityki często mówimy o wielu grupach użytkowników, dysponujących zróżnicowanymi kompetencjami i doświadczeniem. Niezależnie od tego, czy preferują rozwiązania wizualne, czy programistyczne, warto aby umożliwiały one możliwie sprawne przejście przez całość procesu analitycznego, od danych wejściowych do łatwej publikacji lub wdrożenia modelu predykcyjnego w organizacji.
O jakich projektach – lub przykładach wykorzystania zaawansowanej analityki – warto wspomnieć?
Jeśli chodzi o nasze lokalne podwórko, z pewnością warto wymienić dwa ciekawe projekty. Pierwszy z nich dotyczy optymalizacji przestrzeni magazynowej firmy sprzedającej części samochodowe. Celem projektu było przearanżowanie ułożenia setek tysięcy towarów w ramach magazynu, aby maksymalnie zoptymalizować proces kompletacji najbardziej typowych zamówień. Dzięki wykorzystaniu zaawansowanych metod optymalizacyjnych realne jest zaoszczędzenie ponad 20% czasu i dystansu pokonywanego na etapie kompletacji zamówienia.
Ciekawy jest też projekt, który zrealizowaliśmy z dużą firmą telekomunikacyjną. Dotyka on obszaru Big Data i analityki surowych danych transakcyjnych. W ramach przeprowadzonych prac wzięliśmy pod lupę ponad 50 różnych typów operacyjnych systemów biznesowych, których zazwyczaj nie używa się jako bezpośredniego źródła danych dla standardowej analityki. Systemy te przechowują transakcyjne, detaliczne informacje np. o kliknięciu przez klienta na konkretną pozycję na stronie internetowej lub o interakcji z konsultantem infolinii. W oparciu m.in. o metody Deep Learning przygotowaliśmy analizę, która wskazuje klientów i konteksty, w których należy się z nimi kontaktować w ramach kampanii zdarzeniowych prowadzonych w czasie zbliżonym do rzeczywistego. Innymi słowy, wskazaliśmy tzw. momenty prawdy, w których należy się podjąć określone działanie względem klienta, np. zaproponować nową ofertę. Wyniki okazały się znakomite – skuteczność takich kontekstowych działań była znacznie wyższa niż standardowych kampanii marketingowych – zazwyczaj o około 15-25%.
Jeśli zaś chodzi o przykłady zagraniczne, to warto wspomnieć o projekcie realizowanym przez SAS dla holenderskiej firmy skautingowej SciSports. Jej działalność koncentruje się na wyławianiu nowych talentów piłkarskich na podstawie analizy ich zachowania na boisku. W wyniku trwającego właśnie projektu zostanie dostarczone rozwiązanie, które w oparciu o analizę zarejestrowanego obrazu wideo przeprowadzi zautomatyzowaną ocenę piłkarzy, scharakteryzuje ich silne i słabe strony. Odbywać się to będzie bez różnego rodzaju czujników czy angażowania dużej grupy ekspertów. W tym przypadku jedyne, czego potrzebujemy to obraz z kilkunastu kamer rozstawionych wokół boiska i naturalnie algorytm sztucznej inteligencji, który ten obraz przetworzy i przeanalizuje.
W jaki sposób w dzisiejsze potrzeby biznesowe – wynikające m.in. z cyfrowej transformacji – wpisuje się charakterystyka platformy analitycznej SAS Viya?
Cyfrowa transformacja oznacza, że organizacje biznesowe zaczynają gromadzić coraz więcej danych, które spływają z coraz większą dynamiką. Z perspektywy klientów obsługiwanych przez te organizacje pojawia się też potrzeba natychmiastowej, trafnej reakcji dostawcy w kanałach cyfrowych. Platforma SAS Viya pozwala sprawnie reagować właśnie w kontekście rosnącej skali danych i oczekiwania działania w czasie rzeczywistym.
Za sprawą nowej architektury jesteśmy np. w stanie uruchamiać różnego rodzaju modele analityczne bezpośrednio na strumieniach danych. Łatwość osadzania analityki w silnikach strumieniowych i silnikach decyzyjnych oznacza, że zyskujemy dostęp do analiz pozwalających podejmować „decyzję tu i teraz”. Dzieje się tak nie tylko na podstawie reguł biznesowych, ale też w oparciu o zaawansowaną analitykę uwzględniającą wiele różnych informacji i kontekstów, których ludzkie oko nie jest w stanie objąć.
Platforma SAS Viya daje też dużą łatwość w zarządzaniu analityką, właściwie niezależnie od skali. W typowej firmie modeli analitycznych może być kilkadziesiąt lub kilkaset. Jeśli jednak mówimy o różnych kanałach cyfrowych, kontekstach i produktach, to wszystko przecięte ze sobą daje setki a nawet tysiące kombinacji, z których każda może zaistnieć i może wymagać osobnego modelu analitycznego.
SAS Viya oparta jest na scentralizowanym silniku analitycznym in-memory dostępnym dla różnych grup użytkowników – począwszy od tzw. Citizen Data Scientistów, którzy dostają w swoje ręce wizualny interfejs do budowy modeli i analiz, poprzez specjalistów Data aż do analityków-programistów, w tym znających języki takie jak R czy Python. W ramach jednego narzędzia możemy przejść się przez praktycznie cały cykl związany z analityką danych – od przygotowania danych, przez różnego rodzaju eksperymentację i eksplorację, po modelowanie i wdrażanie modeli.
Należy też pamiętać, że SAS Viya to zupełnie nowa, oparta na mikroserwisach, architektura, dzięki której dużo łatwiejsze są też zmiany związane z utrzymaniem czy konserwacją oprogramowania. Istnieje też możliwość użycia SAS Viya w chmurze, co znacząco większa dostępność analityki SAS z perspektywy mniejszych firm i organizacji.
Ostatnia sprawa to nowe algorytmy, czyli m.in. mocne wejście w świat Deep Learning i sztucznej inteligencji. Nie jestem pewien, czy na świecie istnieje druga, obok SAS Viya, platforma, która w ramach jednego silnika zapewnia takie bogactwo algorytmów.