MENU

Analityka sprawi, że na nowo będziemy się uczyć klienta, pacjenta, obywatela…

29 marca 2017Biznes, CDO, Polecane tematy

O wykorzystaniu analizy danych w poszczególnych sektorach gospodarki, nowych trendach i sposobach wykorzystania zbieranych informacji rozmawiamy z: Leszkiem Maśniakiem, Chief Data Officer w Ministerstwie Cyfryzacji; prof. Magdaleną Chechlińską, inicjatorem i koordynatorem utworzenia platformy ONKOSYS – kompleksowej infrastruktury informatycznej do badań nad nowotworami w Centrum Onkologii – Instytucie im. M. Skłodowskiej-Curie; Olafem Piotrowskim, Chief Data Officer w Allegro; Marcinem Choińskim, szefem Działu Big Data i Analityki w TVN Digital; Piotrem Krawczykiem, dyrektorem Rozwoju Aplikacji Sprzedażowych i Wsparcia w PKO Banku Polskim; Krzysztofem Słotwińskim, dyrektorem Obszaru Bezpieczeństwa i Data Governance w BGŻ BNP Paribas; Dominikiem Batorskim, socjologiem, analitykiem w Interdyscyplinarnym Centrum Modelowania Matematycznego i Komputerowego Uniwersytetu Warszawskiego oraz Przemysławem Pawlakiem, koordynatorem programu Data Quality w MetLife.

Porozmawiajmy o możliwościach wykorzystania analityki w różnych dziedzinach – od nauki, przez medycynę, administrację, po biznes. Zmiany w tej dziedzinie są bardzo głębokie. Przewiduje się np., że koncerny motoryzacyjne za 10 lat nie będą utrzymywać się ze sprzedaży samochodów, tylko z obsługi klientów w oparciu o generowane przez nich dane. Biznes będzie prowadzić firma IT, obsługująca platformę analityczną do relacji z klientami. Jak zmienić może się wasza branża pod wpływem rewolucji związanej z analityką, w tym Big Data?

Leszek Maśniak: Nie ma wątpliwości, że analityka jest coraz ważniejsza i staje się krwioobiegiem biznesu, administracji i wszelkiej innej działalności. Organizacja, która nie będzie umiała tego zrobić, prawdopodobnie upadnie. Mimo to przestrzegam przed przesadzeniem w drugą stronę – przesadnym skupieniu się na tego rodzaju przewadze jak Big Data, zaawansowane zarządzanie lojalnością czy cyfrowy marketing. Biznes jakikolwiek by nie był, na koniec dnia opiera się na dobrach realnych, a rzeczywista jakość oferowanego produktu jest najważniejsza.

Pokazuje to historia Tesco. Parę lat temu doszło do mocnego osłabienia wartości ich akcji. Wszyscy byli zaskoczeni, bo Tesco to od lat światowy lider w wykorzystaniu i analizie danych. Praktycznie każda książka o Big Data w zarządzaniu ma przynajmniej jeden, fascynujący przykład dotyczący tej firmy. Tesco analizuje zachowania klientów w sklepie, dane o sprzedawanych towarach, temperaturę produktów w lodówkach ma najbardziej zaawansowane techniki cross selingowe. Firma ta zbiera i analizuje wszelkie możliwe dane, a mimo to została rzucona na kolana, bo zapomniała o podstawie swojej działalności, która w sektorze FMCG pozostaje ta sama od lat: tanio kupować i szybko obracać masowo kupowanymi produktami. Nawet Warren Buffett, który zainwestował wcześniej w Tesco, poczuł się oszukany.

Jeśli chodzi o administrację, to w zakresie zarządzania informacja jesteśmy na etapie na jakim biznes większości sektorów był wiele lat temu. Ostatnio doszliśmy do wniosku, że chyba jednak nie jest rozsądne przetwarzanie danych w tak dużej liczbie miejsc fizycznych. Anna Streżyńska, Minister Cyfryzacji – prezentując koncepcję Głównego Informatyka Kraju – wspomniała niedawno o istniejących 136 centrach przetwarzania danych w polskiej administracji centralnej. Sądzę, że jest ich nawet więcej, a w samorządach szacuję te liczbę na kilka-kilkanaście tysięcy. W biznesie projekty konsolidacji serwerowni miały swój szczyt popularności w latach 2000. Nawet firmy państwowe postrzegane jako najbardziej konserwatywne, jak Telekomunikacja Polska, zakończyły takie projekty 5-7 lat temu. Administracja zaczęła właśnie do nich poważniejsze przygotowania.

Polska administracja jako całość ma kłopot, bo nie zawsze wie, co jest dobre, a co złe. Nie wypracowaliśmy metryk dobrego zarządzania. Nie potrafimy mierzyć i oceniać jakości wymiaru sprawiedliwości, transportu czy e-administracji. To jest największa bariera mentalna. Aby uruchomić podejście analityczne, nawet najprostsze – niekoniecznie oparte na Big Data – trzeba uzgodnić, co to jest „sprawne państwo”.

Magdalena Chechlińska: Informatyzacja i analityka w polskiej służbie zdrowia startowała z opóźnieniem. Nowoczesne narzędzia analityczne, którymi obecnie dysponujemy, dają nam duże możliwości usprawniania działalności leczniczej i naukowej. Niestety nikt zawczasu nie pomyślał o ujednoliceniu sposobu gromadzenia danych pacjentów w skali kraju. Nie ma ujednoliconego systemu informatycznego rejestrującego pacjentów i procedury w szpitalach publicznych typu HIS. Przykładowo nawet w oddziałach jednej instytucji, naszego Centrum Onkologii w Gliwicach i w Warszawie funkcjonują różne systemy HIS. Kiedy budując platformę ONKOSYS chcieliśmy połączyć dane pacjentów z tych dwóch oddziałów Instytutu, okazało się, że zastosowane są różne systemy i dane, które powinny być podobne, a nawet takie same, są zupełnie inaczej zorganizowane. Połączenie to okazało się dużym wyzwaniem technicznym i informatycznym. Proszę sobie wyobrazić, jak trudne jest to samo zadanie w skali kraju…

Bardzo trudno powiedzieć, do jakich wniosków będziemy dochodzić dzięki Big Data i czy na tym zyskamy. Trudno to przewidzieć zanim przystąpimy do działania i analizy dużych zbiorów danych. W najbliższym czasie na pewno widzimy potencjał w analizach sieciowych klientów. Możemy rozpatrywać ich potrzeby w kontekście rodziny, bliskich, firmy, w której pracuje – Piotr Krawczyk, dyrektor Rozwoju Aplikacji Sprzedażowych i Wsparcia w PKO BP.

Już w samym sektorze opieki zdrowotnej nie chodzi tylko o dane medyczne, ale także o zarządzanie finansami. Tu widzę ogromne pole dla analityki. Decyzje dotyczące reformowania opieki medycznej i alokacji środków przeznaczonych na służbę zdrowia powinny następować w oparciu o dokładne analizy. Można by np. badać wyniki leczenia pacjentów w różnych placówkach medycznych i przepływy pacjentów. Możemy prześledzić drogę pacjenta, który trafia np. do Centrum Onkologii po uprzednim rozpoznaniu lub leczeniu w innych ośrodkach. Analiza przyczyn zmian miejsca leczenia, np. czy był to wybór pacjenta, nieprawidłowe leczenie bądź rozpoznanie, czy tzw. rzadki i trudny przypadek, mogłaby być przełomowa dla zarządzania pieniędzmi i organizacją systemu opieki zdrowotnej.

W medycynie mamy do czynienia z milionami danych. Pozwolę sobie na stwierdzenie, że dane te są dużo większym wyzwaniem niż te, którymi się zazwyczaj operuje w biznesie. Są dużo trudniejsze do analizy. Zawierają wiele parametrów zapisanych w różnych miarach i skalach. Są gromadzone w różnych formatach (liczby, teksty, obrazy). Potencjalne korzyści też są innego wymiaru. Analityka pozwala np. skuteczniej leczyć rzadkie nowotwory. Dzięki Big Data możemy np. szybciej zidentyfikować osoby, które charakteryzują się daną cechą, a więc są w grupie ryzyka. Możemy precyzyjniej dobierać najlepsze sposoby leczenia. Takie analizy były do niedawna niemożliwe lub niezwykle czasochłonne. Dla lekarzy, którzy po raz pierwszy korzystają z dobrze zorganizowanych danych jest zaskoczeniem, że w pół dnia mogą rozwiązać problem, nad którym wcześniej musieliby ślęczeć przez kilka miesięcy w archiwum.

Kolejną kwestią jest szkolenie personelu. Jak na razie tylko nieliczni korzystają z narzędzi analitycznych skutecznie. Miejmy nadzieję, że z czasem coraz więcej lekarzy, naukowców i zarządzających nauczy się korzystać z tych narzędzi, i że dzięki temu niezwykłe zasoby danych jakimi dysponujemy będą wykorzystywane w celach bieżących i poznawczych.

Olaf Piotrowski: Analityka jest rozszerzeniem przestrzeni poznawczej. Daje możliwość bardziej racjonalnej argumentacji. Unikałbym fetyszyzacji Big Data i Data Science. Trend jest zgrabnie podchwytywany przez dostawców oprogramowania, którzy zamieniają go w buzz word dla celów marketingowych. Twierdzą, że wyręczą ludzi w pracy z danymi. A tego nie da się zrobić. Kluczowe są: percepcja analityczna i umiejętności zadawania właściwych pytań. Częściej niż technologia, barierą bywa brak odpowiednich ludzi w organizacjach.

Marcin Choiński: Dane są jak ropa naftowa. Nie mają wartości same w sobie, za to służą do osiągania konkretnych celów. Ropę trzeba zlokalizować, wydobyć z głębi, przetransportować do rafinerii, oczyścić, rektyfikować, wyodrębnić benzynę i dostarczyć ją do stacji benzynowych. Taka jest właśnie rola ekosystemu analitycznego, którego finalnym produktem są odpowiednio zintegrowane i wyczyszczone dane, dostępne dla biznesu. Samochód zatankowany benzyną to pewien potencjał, dzięki któremu możemy dotrzeć do wyznaczonego celu. Insight zbudowany przez analityka na danych jest właśnie takim potencjałem, ale wartość przynosi dopiero osiągnięcie celu biznesowego. Dlatego właśnie liczenie zwrotu z inwestycji w analitykę nie jest proste, bo to nie analityka bezpośrednio generuje wartość, tylko ludzie z niej korzystający.

Analityka danych jest dziedziną interdyscyplinarną, ale faktem jest, że większość osób ‘z branży’ jest po studiach technicznych. Ja, pomimo że zaliczam się do tej grupy, z podziwem patrzę na psychologów i socjologów. Te dziedziny skupiają się na zrozumieniu człowieka jako jednostki, jak również jednostki działającej w ramach pewnej zbiorowości. Nie dość, że ich badania z reguły opierają się na wydobywaniu wiedzy z danych metodą naukową, to na dodatek dążą do kluczowego aspektu większości z analiz biznesowych – lepszego poznania i zrozumienia zachowań człowieka. Tutaj, jak i w ogóle w środowisku naukowym, tkwi spory potencjał w znajdowaniu odpowiednich ludzi.

Mamy mnóstwo informacji o klientach i ryzyku – dane wewnętrzne i zewnętrzne. Przetwarzamy je, tworzymy wzory. Cały ten system polega na pracy z danymi, które w momencie wykorzystywania posiadają najwyższą jakość. Jeśli jej nie będzie, nic nie zadziała poprawnie i wiarygodnie. Lepiej jest wykorzystać świadomie 15 danych z 300 niż całe „jezioro danych”, które nie ma wartości związanej z jakością. Wtedy będziemy mieli efekt – Przemysław Pawlak, koordynator programu Data Quality w MetLife.

Biznes oczekuje otrzymywania użytecznych insightów, a nie dostępu do danych i możliwości analitycznych. Oczywiście jest zawsze paru zaawansowanych użytkowników, którzy zagłębią się w dane i sami potrafią wydobyć z nich wiedzę, ale z perspektywy ostatniej dekady, znaczącej różnicy jakościowej w wykorzystaniu analityki przez ludzi w biznesie nie widzę.

To, co się zmienia i gdzie analityka zmienia biznes jakościowo, to pewne rozwiązania, które możemy zamknąć i kupić w tzw. pudełku. Jeżeli na ten przykład chcieliśmy na platformie player.pl lepiej rekomendować content użytkownikom, mogliśmy skorzystać z pudełkowego systemu rekomendacyjnego i serwować rekomendacje online dla milionów odbiorców naszego serwisu. Silnik potrafi się uczyć przy każdym kliknięciu użytkownika i przy każdej jego akcji podawać mu najlepsze spersonalizowane rekomendacje. Big Data i usługi chmurowe umożliwiły powstanie tego typu rozwiązań i jakościową zmianę na rynku. Przy tego typu analizach nie można też zapominać o prywatności użytkowników i aspektach prawnych. Bardzo dużo zmienią i już zmieniają tutaj na pewno nowe regulacja UE w tym zakresie, takie jak RODO, czy e-Privacy.

Wracając do meritum mojej wypowiedzi, wydaje mi się, że największe pole do działania, jako ewangeliści analityki, mamy w obszarze praktycznego wykorzystanie jej do realizacji konkretnych celów biznesowych. Potrzebujemy więcej socjologów, więcej naukowców w biznesie, którzy pomogą nam to zadanie zrealizować.

Piotr Krawczyk: Moim zdaniem i w biznesie, i w administracji jesteśmy na podobnym etapie. Mimo, że w biznesie mamy więcej rozwiązań analitycznych to sekwencja działania przy przygotowaniu oferty rynkowej nie zmieniła się znacznie. Upraszczając: w pierwszej kolejności przygotowujemy produkty i usługi, które wprowadzamy na rynek, w drugiej budujemy rozwiązania analityczne, które mają wspierać sprzedaż. Przykładowo budujemy modele analityczne pozwalające na generowanie bezpośrednich kampanii marketingowych. Prowadzimy kampanie sprzedażowe optymalizując skuteczność sprzedaży naszych rozwiązań.

Warto podkreślić, że wyniki zaawansowanej analityki, odkrycia Data Scientists, często są trudne do przełożenia na praktykę biznesową. Dlatego z czasem konieczne będzie odwrócenie tego procesu, tj. wyjście od analityki, wniosków na temat klienta i jego realnych potrzeb i dopiero na tej podstawie przygotowanie rozwiązań mogących zaspokoić te potrzeby. To będzie rewolucja związana z analityką, a w szczególności Big Data. Będziemy przechodzić od analityki do działania. Trzeba przy tym pamiętać, że dzięki przewidywanej dalszej integracji usług, oczekiwania klientów będą ewoluować. Ludzie będą oczekiwać zakupu samochodu czy domu jako jednego zintegrowanego produktu razem z finansowaniem i innymi wymaganymi elementami. Jesteśmy w przeddzień rewolucji, która sprawi, że na nowo będziemy się uczyć klienta. Narzędzia analityczne w tym kontekście są niezbędne, żeby rozpoznać i wyjść naprzeciw potrzebom klientów.

Krzysztof Słotwiński: W banku wykorzystujemy analitykę w wielu obszarach. Dane o swoich klientach wykorzystujemy do usprawnienia procesów, np. scoringowych i lepszego dopasowania swojej oferty do ich potrzeb. Big Data to nie tylko zautomatyzowanie procesów bankowych i usprawnienie pracy samego banku. To przede wszystkim korzyść dla klienta. Jeszcze kilka lat temu klient w placówce banku pozostawiał tony papierowych dokumentów. Dzisiaj całym procesem mogą zarządzać algorytmy, analizujące dane ze źródeł zewnętrznych podejmując decyzje niemal w czasie rzeczywistym.

Przetwarzanie dużej ilości niestrukturyzowanych danych ma pomagać klientom zgodnie z koncepcją Customer Centricity. Do profilowania klienta wykorzystuje się przeróżne dane, np. typ urządzenie, z jakiego korzysta. Już nawet informacja, iż posiada smartfon z iOS czy Androidem pozwala sprofilować go tak, aby zaoferować mu odpowiedni produkt. Potrafimy oferować klientom jeszcze lepsze produkty bez konieczności fizycznej interakcji – Krzysztof Słotwiński, dyrektor Departamentu Bezpieczeństwa i Zapewnienia Ciągłości Działania w BGŻ BNP Paribas.

Przetwarzanie dużej ilości niestrukturyzowanych danych ma pomagać naszym klientom zgodnie z koncepcją Customer Centricity. Do profilowania klienta wykorzystuje się przeróżne dane, np. typ urządzenie, z jakiego korzysta. Już nawet informacja, iż posiada smartfon z systemem iOS czy Android pozwala sprofilować go tak, aby na tej podstawie zaoferować mu odpowiedni produkt. Już dziś potrafimy oferować naszym klientom jeszcze lepsze produkty bez konieczności fizycznej interakcji.

Nie możemy zapominać również o wymaganiach regulacyjnych. Praktycznie na każdej płaszczyźnie działalności wykorzystując zbiory danych, tworzymy raporty na potrzeby instytucji nadzorujących działania banków.

Leszek Maśniaki: Sektor finansowy rzeczywiście jest w ciekawym położeniu, bo to regulatorzy nakazują bankom gromadzić dane i analizować ryzyko na ich podstawie. W zdrowiu nie ma takiego przymusu. Kredyt trzeba przyznać po dokładnej analizie klienta, a lekarz nie ma obowiązku zapoznania się z ostatnimi statystykami skuteczności przed przepisaniem antybiotyku.

Dominik Batorski: W sektorze publicznym też mamy Evidence-based Policy. Potrzebna są bowiem oceny skutków tworzonych ustaw. Tylko że dziś jest to często robione na niewystarczającym poziomie. Często też prowadzi się postępowania w trybie, które tych ocen nie wymagają. Wydaje mi się więc, że problem tkwi we wprowadzeniu tych założeń w życie. Konieczne jest wypracowanie praktyk i zwyczajów wykorzystania analizy, która tak dobrze sprawdza się w biznesie w administracji publicznej.

Chciałbym wrócić do pytania, jak widzimy przyszłość. Podobała mi się ta analogia z ropą i to, co powiedziano o wykorzystaniu danych w pewnych procesach, które już automatyzują decyzje. Moim zdaniem nie jest najważniejsze to, że mamy do dyspozycji coraz bardziej zaawansowaną analitykę, ale to, że nie ograniczamy się wyłącznie do analizy ad hoc. W coraz większym stopniu wykorzystujemy dane w zaplanowanych i zautomatyzowanych procesach.

Przed wynalezieniem maszyny parowej, mało kto zastanawiał się nad niezliczonymi jej zastosowaniami, które potem doprowadziły do rewolucji przemysłowej. A para zawsze leciała, gdy coś gotowaliśmy. Teraz jesteśmy na podobny etapie. Do niedawna mało kto myślał o tym, że dane mogą wykonywać pracę. Ale, podobnie jak w czasach rewolucji przemysłowej, zanim stworzymy taśmę produkcyjną, zanim to podniesie produktywność, to jeszcze trochę czasu minie. Faza zaszycia danych w systemach, przeorganizowania procesów tak żeby w pełni wykorzystywały dane, jest wciąż przed nami.

Leszek Maśniaki: Parę do pracy zaprzągł już Heron z Aleksandrii w I wieku naszej ery. Potem nastąpiła przerwa aż do XVIII wieku…

Odczytywanie intencji osób, budowanie wśród nich poczucia, że znajdują to, czego szukają, jest dla nas istotnym obszarem analitycznych eksploracji. Odczytanie intencji osób trafiających na Allegro z mediów społecznościowych i sugerowanie im odpowiednich ofert i doświadczenia zakupowego jest trudne, ale ma ogromny potencjał w zakresie lojalizacji oraz pozytywnego i emocjonalnego skojarzenia z marką Allegro – Olaf Piotrowski, Chief Data Officer, Allegro.

Dominik Batorski: Mam nadzieję, że w przypadku danych tak się nie stanie.

Dla mnie najciekawsze są obszary, gdzie dane mogą doprowadzić do pełnej reorganizacji procesów. Pokazuje to przykład z samochodami wspomniany przez Andrzeja. Skoro samochód 96% czasu stoi, to przejście do modelu własnościowego, do wynajmowania go tylko wtedy, kiedy go potrzebuję, wydaje się dużo bardziej opłacalne. Przyjechałem tutaj zresztą Uberem. Innym, fascynującym dla mnie obszarem jest sektor opieki zdrowotnej. Czekam na rewolucję, która moim zdaniem się tutaj wydarzy, zwłaszcza w zakresie Predictive Health.

Obecnie doradzam startupowi Predictail, który zajmuje się problemem Predictive Maintenance. Z wieloma urządzeniami jest jak z samochodami. Kiedyś były naprawiane dopiero w momencie, gdy się psuły. Potem – na podstawie danych – ktoś stwierdził, że przydatne są okresowe przeglądy, że niektóre części mają określony czas życia, np. że rozrząd należy wymienić co jakiś czas albo ileś tysięcy kilometrów. W tej chwili jesteśmy na kolejnym etapie. Lokomotywy, samoloty, a nawet mniejsze urządzenia mają już gigantyczną liczbę sensorów, które gromadzą i analizują dane w czasie rzeczywistym po to, aby przewidywać, kiedy może pojawić się problem, aby dokonywać naprawy lub wymiany przed awarią.

W ochronie zdrowia wciąż jesteśmy na etapie, gdzie jesteśmy leczeni dopiero wtedy, gdy zachorujemy. Mam nadzieję, że dane pozwolą nam dokonać rewolucji w tej dziedzinie. Będziemy w stanie monitorować dane, które nam powiedzą, co powinniśmy robić, aby utrzymać się w zdrowiu. Interesowałem się kiedyś medycyną chińską, która opiera się na ziołolecznictwie i diecie. W dużo większym stopniu skupia się więc na utrzymywaniu pacjentów w zdrowiu niż na leczeniu ich, gdy zachorują. Powstanie takiego systemu było możliwe, bo w Chinach lekarzom płaciło się za utrzymanie w zdrowiu. U nas płaci się, gdy jesteśmy chorzy. Jak przejdziemy do systemu skupiającego się na utrzymywaniu nas w zdrowiu, to będzie rewolucja. Dane to umożliwiają, ale trudno przewidzieć, kiedy to się stanie. Natomiast nie mam wątpliwości, że jest to właściwy kierunek.

Magdalena Chechlińska: Pan mówi o wielu rzeczach, które się dzieją. Są jeszcze w powijakach, ale się dzieją. Wracając do reklamy, analizę nastroju w kontekście decyzji zakupowych można porównać do dostosowania przez lekarza leczenia do konkretnego pacjenta. To jest personalizacja leczenia, o której głośno ostatnio również w mediach. Mówimy o medycynie „personalizowanej”, przez Amerykanów zwanej Precision Medicine.

Zastanawiamy się, jak dopasować leczenie do danej osoby, a nie do jednostki chorobowej czy grupy osób; do pacjenta uwarunkowanego genetycznie, z historią innych chorób i milionem indywidualnych cech. Już obecnej dysponujemy lekami, o których wiemy, że zadziałają w przypadku wystąpienia lub braku określonej mutacji. To się w medycynie nazywa predykcją. Staramy się przewidzieć, czy dany lek zadziała u konkretnego pacjenta.

Chcemy też wiedzieć, czy dana osoba ma jakieś uwarunkowania albo nieswoiste objawy, które mogłyby świadczyć o ryzyku lub istnieniu konkretnej choroby. To jest szczególnie istotne w onkologii. Prof. Jan Zieliński, nieżyjący już szef kliniki ginekologii onkologicznej mawiał, że rak jajnika to taka choroba, która jest wykrywana przez krawcową. Długo nie daje objawów. Pierwszą zauważoną zmianą często jest szybkie zwiększenie obwodu brzucha o kilkadziesiąt cm. To już bardzo zaawansowane stadium. Badania przesiewowe i wczesne wykrywanie nowotworów to wielkie wyzwanie. Pytanie jak skutecznie zbierać dane, jak identyfikować osoby o wysokim ryzyku zachorowania i jak wykryć już istniejącą, ale jeszcze bezobjawową chorobę. To zadanie m.in. dla analityki.

Finalnym produktem ekosystemu analitycznego są odpowiednio zintegrowane i wyczyszczone dane, dostępne dla biznesu. Samochód zatankowany benzyną to pewien potencjał, dzięki któremu możemy dotrzeć do wyznaczonego celu. Insight zbudowany przez analityka na danych jest właśnie takim potencjałem, ale wartość przynosi dopiero osiągnięcie celu biznesowego – Marcin Choiński, szef Działu Big Data i Analityki, TVN Digital.

Big Data w medycynie to wielka rzecz. Przyspieszenie gromadzenia danych i możliwości ich wykorzystania są niesłychane. O danych gromadzonych w HIS wspomniałam wcześniej. Innym źródłem są masowe analizy, np. genomu czy białek, w których to analizach otrzymujemy wynik w postaci dziesiątków tysięcy danych. Przy takiej liczbie danych można by udowodnić każdą tezę. Zupełnie jak w popularnej książce z lat 1950. „How to Lie with Statistics”, której autor opisywał, że wszystko można udowodnić za pomocą statystyki. Istotnym pytaniem jest więc: co zrobić, aby nie uzyskać artefaktu? Należy stawiać precyzyjnie sformułowane pytania, odpowiednio filtrować i analizować dane z zastosowaniem właściwych narzędzi, rozumiejąc jednocześnie naturę analizowanej materii.

Naszym dążeniem jest również to, aby – na podstawie analizy danych – zbudować odpowiednie algorytmy. Algorytmy, dzięki którym będziemy mogli stwierdzić, że osoba o danej konfiguracji mutacji, własności i cech obciążona jest określonym ryzykiem. Powinna więc zachowywać się w określony sposób, aby zmniejszyć ryzyko zachorowania lub zwiększyć szanse wczesnej diagnozy. Przekrojowe analizy danych i tego typu algorytmy dają szanse na znacznie szersze i dokładniejsze wnioskowanie niż analiza karty pacjenta. Wielość danych daje nam nowe możliwości patrzenia na pacjenta. Taki algorytm wspomagający decyzje terapeutyczne powstał w jednej z klinik Centrum Onkologii – Instytutu. Ma ułatwiać dobór leczenia, nie ma jednak zastępować myślenia, wiedzy i intuicji lekarza. Algorytm ten pomaga podejmować najlepsze dla pacjenta decyzje, zgodne z najnowszymi badaniami i z możliwościami finansowania. Czy określony lek, najnowszy, najbardziej zaawansowany, powinniśmy podać akurat temu pacjentowi? Czy dany pacjent odniesie oczekiwane korzyści terapeutyczne? To jest szczególnie istotne w onkologii. Nie bez znaczenia są również uwarunkowania finansowe wynikające z kosztów i zasad refundacji przez NFZ.

Powiedziała Pani o zalewie danych. Jeśli mówimy o predykcji, to otrzymamy dobre wyniki, tylko bazując na dobrych danych. Dane są gromadzone w sposób nieograniczony, trzeba je uporządkować. Jak sobie Państwo radzicie z polityką Data Governance?

Przemysław Pawlak: Z zaciekawieniem przysłuchuję się dyskusji. Uwielbiam ten temat, osobiście zajmuję się i jestem odpowiedzialny za jakość danych. Ilość danych która została zgromadzona przez lata działalności firmy jest ogromna i posiada ogromną moc informacyjną. Najważniejsze jest jednak to, aby zrozumieć, co zostało w nich zapisane.

Nasze towarzystwa wdrożyły jakość danych w najważniejszych obszarach biznesowych, nie zmienia to oczywiście faktu, że dążymy do tego, aby proces obejmował także te obszary biznesowe, które zostały uznane jako „nie istotne lub mniej istotne”. Pierwszym krokiem było sprzedanie strategii. Drugi to dostosowanie się do masy zewnętrznych regulacji między innymi takich jak zapisy Solvency II (wypłacalność) oraz Wytyczne IT wydane przez KNF dla Ubezpieczycieli. Kolejnym krokiem było dostosowanie zapisów regulacji do potocznie stosowanej praktyki oraz wymogów biznesowych. Trend we wszystkich gałęziach jest ukierunkowany na klienta także w instytucjach finansowych, aby produkt był zrozumiały, odpowiedni dla klienta. Produkt musi być atrakcyjny dla konkretnego odbiorcy, ale też zyskowny dla sprzedawcy.

Każdy biznes działa poprawnie tylko wtedy, gdy rozumie to co robi. Poprosiłem więc, aby przygotował informację o tym jakimi narzędziami, a co za tym idzie danymi lub grupami danych się posługuje. Następnie poprosiłem o opisanie danych, ale tych najważniejszych najbardziej istotnych. Ostatecznie wrzuciliśmy do systemu dane, które są świadomie wykorzystywane przez użytkowników. W ten sposób powstała baza informacji, która jest wspierana przez proste i intuicyjne narzędzie, a jednocześnie pozwala na czytelne przedstawianie informacji. W procesie, który jest ładnie mówiąc językiem IT „wygrzany” ludzie wrzucają dane, co może odbywać się w sposób manualny lub automatyczny. Następnie dla każdych danych wykonywane są określone cykliczne lub na żądanie aktualizacje, co także przyjmuje zarówno formę manualną lub automatyczną. Każda grupa danych ma przypisanego Właściciela (Data Steward), który sprawuje piecze nad utrzymaniem kompletności, aktualności i dokładności przechowywanej informacji. Często, gdy mówimy, że wiemy, gdzie co się znajduje, to tak naprawdę dopiero po spisaniu pełnej informacji odkrywamy co jeszcze możemy z nią zrobić. Jest to efekt ukazania się zależności i powiązań, które często umykają nam, gdy nie przedstawimy tego graficznie, pokazują zupełnie inne światło rzeczywistości. W rezultacie osoby czerpiące wiedzę z takiego procesu jakim jest Jakość Danych lub szerzej Data Governance podejmują lepsze decyzje, poprzez bazowanie na wiarygodniejszej informacji, a co za tym idzie minimalizują ilość popełnianych błędów.

Naszym dążeniem jest to, aby – na podstawie analizy danych – zbudować algorytmy, dzięki którym będziemy mogli stwierdzić, że osoba o danej konfiguracji mutacji i cech obciążona jest określonym ryzykiem. Powinna więc zachowywać się w określony sposób, aby zmniejszyć ryzyko zachorowania lub zwiększyć szanse wczesnej diagnozy. Przekrojowe analizy danych i tego typu algorytmy dają szanse na dokładniejsze wnioskowanie niż analiza karty pacjenta – prof. Magdalena Chechlińska, koordynatorka platformy integracyjno-analitycznej, Instytut Onkologii w Warszawie.

Tak jak mówiła Pani profesor, zarządzanie danymi wymaga jednak konsekwentnego, dobrze zaplanowanego procesu. Jeśli nie będziemy szli konsekwentnie do celu, to nie będziemy mieli danych o jakości, na jakiej nam zależy. We wszystkich systemach najważniejsza jest jakość. Wykorzystujemy ją do wyliczania przyszłości, przewidując trendy a także ryzyka z nimi związane. Mamy mnóstwo informacji o klientach i ryzyku – dane wewnętrzne i zewnętrzne. Przetwarzamy je, tworzymy wzory. Cały ten system polega na pracy z danymi, które w momencie wykorzystywania posiadają najwyższą jakość. Jeśli jej nie będzie, nic nie zadziała poprawnie i wiarygodnie. Lepiej jest wykorzystać świadomie 15 danych z 300 niż całe „jezioro danych”, które nie ma wartości związanej z jakością. Wtedy będziemy mieli efekt.

Piotr Krawczyk: Wydaje mi się, że w najbliższej przyszłości nie będziemy się koncentrować wyłącznie na jakości danych. Będzie ich coraz więcej i zapewnienie odpowiedniej strukturyzacji w praktyce stanie się niemożliwe. Moim zdaniem liczyć się będzie przede wszystkim użyteczność danych i w konsekwencji skuteczność decyzji, które na ich podstawie będziemy podejmować. Przykład medyczny jest ciekawy. Mamy informacje z różnych źródeł, o różnej jakości, a mimo to analitycy – działając na takich zbiorach – muszą ostatecznie podjąć właściwą decyzję. Dopiero, gdy Data Scientist działając na dużych zbiorach danych znajdzie jakiś wzorzec, który da się wykorzystać, będziemy mogli reguły z nim związane implementować w codziennych procesach biznesowych. Inaczej mówiąc, żeby umożliwić efektywną analitykę nie możemy powstrzymywać pracy na danych, przed ich uporządkowaniem. Jest to oczywiście olbrzymie wyzwanie dla analityków, ale dziś do pracy przy Big Data potrzebujemy właśnie takich ludzi, którzy temu podołają.

Leszek Maśniak: Na Uniwersytecie w Michigan – najpierw rękami studentów, potem powstała z tego komercyjna firma – stworzono system analizy sprawozdań giełdowych. System nie rozumiał i nie analizował liczb. Patrzył wyłącznie na obszar semantyczny, a mimo to niemal ze 100 proc. skutecznością wykrywał nadchodzące bankructwa. Wykrywał je opierając się kwiecistości opisów, na zmianach w zastosowanych zwrotach, charakterystycznych sformułowaniach pokazujących, że raportujący coś ukrywają.

Dominik Batorski: Z danymi trzeba być ostrożnym. Nate Silver w „The Signal and the Noise” opisywał przykład nietypowej korelacji. Analiza danych z ponad 30 lat potwierdzała, że kurs akcji można było przewidzieć na podstawie tego, z jakiej części USA pochodziła drużyna, która wygrała Super Bowl. W danych była ewidentna zależność. Prawdopodobieństwo odstępstwa było minimalne. Okazało się jednak, że po trzydziestu kilku latach przestała obowiązywać. Jak widać, gdy mamy dużo danych, to zależności znajdziemy. Gdy wszyscy zaczęli interesować się Big Data, Chris Anderson stwierdził, że mamy już do czynienia z końcem teorii. Dane załatwią nam wszystko. Jednoznacznie odpowiedzą na pytania. Ja w to zupełnie nie wierzę.

Wrócę do Ubera. Zapytałem kierowcę o jego opinię o nawigacje Waze i Google Maps. On stwierdził, że Google Maps prowokuje niebezpieczne sytuacje w Warszawie. Opowiedział np., że jak jedzie Al. Niepodległości w stronę GUS, to Google Maps mu pokazuje, że może skręcać w lewo, chociaż tam jest wszędzie zakaz. Tymczasem system nie rozumie znaków zakazu. Może wskazywać ten skręt, bo kierowcy często skręcają w prawo, nawracają i w ten sposób radzą sobie z zakazem skrętu w lewo. Nawigacja nie jest w stanie wychwycić tego niuansu i serwuje dosyć niebezpieczną rekomendację. Dlatego z czarnymi skrzynkami – takimi jak narzędzia typu Deep Learning – trzeba być ostrożnym.

Czy można rozróżnić szybką analitykę, służącą do optymalizacji decyzji, której nie trzeba do końca rozumieć, od tej służącej do poznania? W takim przypadku tej pierwszej nie musielibyśmy do końca rozumieć.

Gdy mamy dużo danych, to zależności znajdziemy. Gdy wszyscy zaczęli interesować się Big Data, Chris Anderson stwierdził, że mamy już do czynienia z końcem teorii. Dane załatwią nam wszystko. Jednoznacznie odpowiedzą na pytania. Ja w to zupełnie nie wierzę – Dominik Batorski, socjolog, analityk ICM Uniwersytetu Warszawskiego.

Leszek Maśniak: Nie zawsze można tak robić. Wprawdzie mamy np. systemy antyfraudowe, które działają skutecznie, ale nie wiemy do końca jak, bo oparte są na samouczących się sieciach neuronowych, ale takie podejście jest ryzykowne. Grzegorz Bartler, szef działu Business Intelligence w Polkomtelu, opowiadał publicznie anegdotę o tym, jak robił głębokie analizy przyczyn odchodzenia klientów. Wyszła mu bardzo silna korelacja odejść z zakupem samochodu. Cały zespół stawał na głowie, aby dojść, dlaczego tak się dzieje. Czy to częstotliwość sygnału? Może ludzie rozmawiający w samochodach wolą konkurencję? A jeśli tak to z jakiego powodu? Wstępne obserwacje pokazano zarządowi. Ostatecznie okazało się, że dziewczyny z call center rejestrujące odejścia wpisywały luźne notatki na końcu formularza, gdzie akurat było pytanie o samochód. Bez wejścia w głąb procesu można podejmować idiotyczne decyzje.

Marcin Choiński: Na mnie ogromne wrażenie zrobiły nilomierze – proste budowle starożytnych Egipcjan na różnych odcinkach Nilu, często w postaci kamiennych schodków, które wypełniały się wodą zgodnie z poziomem rzeki. Obserwacja tego KPI – poziomu rzeki w różnych porach roku, pozwalała przewidywać poziom użyźnienia gleb, a co za tym idzie, ustalać optymalne obciążenia fiskalne na dany rok. Egipcjanie nie musieli rozumieć dokładnie przyczyn tej korelacji, żeby ją efektywnie wykorzystywać do celów biznesowych.

To, czy potrzebujemy rozumieć ‘wnętrze’ modelu, czy nie, zależy od przypadku użycia. Jako anegdotę mogę opowiedzieć, jak w dawnych czasach, gdy miesięczny abonament kosztował setki złotych, znajomi budujący modele antychurnowe u jednego operatora komórkowego, opowiadali mi o wynikach swojej pracy. Dzięki temu domyśliłem się, że kontaktując się z często z BOK oraz zgłaszając reklamacje dotyczące jakości sygnału i chęć rozwiązania umowy, na kilka miesięcy przed końcem kontraktu mogłem liczyć na nową, bardzo atrakcyjną ofertę – tutaj zrozumienie wnętrza modelu było bardzo użyteczne. Czy potrzebujemy rozumieć białą skrzynkę? Czy wystarczy czarna skrzynka? Wydaje mi się, że nie ma tutaj jednej odpowiedzi.

Magdalena Chechlińska: Lekarza niebędącego naukowcem także nie interesuje wspomniana czarna skrzynka. On chce wiedzieć, czy jak poda lek uzyska pożądany efekt. Naukowiec patrzy inaczej. Aby wiedzieć, co najlepiej podać, musimy zobaczyć, co jest w środku, jakie mechanizmy decydują o określonym efekcie. Szukamy zależności. Prosta analityka pokazuje korelacje, jednak odkrycie związku przyczynowo-skutkowego wymaga zastanowienia, wykorzystania całej wiedzy i doświadczenia, często także intuicji. Częsty błąd w rozumowaniu polega na tym, że nie zdajemy sobie sprawy, że korelacja nie zawsze oznacza związek przyczynowo skutkowy.

W Japonii w początkach ery telefonizacji zauważono np. korelację między posiadaniem telefonu a zachorowaniem na raka żołądka. Czy wobec tego posiadanie telefonu było tak niebezpieczne? Nie. To wyższy status materialny warunkował posiadanie telefonu, a jednocześnie określony sposób odżywiania się i to te nawyki mają związek z występowaniem raka żołądka.

Analiza danych to także coraz większa wiedza na nasz temat, nawet jeśli anonimizowana…

Leszek Maśniak: Nie wszystko jednak, co technicznie realizowalne, możemy zrobić lub wdrożyć, bo spotka się z to oporem. Dzisiaj mówimy nie tyle o naruszeniu prywatności, ale zbiorowym naruszeniu intymności. Firma nie musi nas znać z imienia i nazwiska, ale wie o mnie wszystko. To ludzi coraz bardziej irytuje. W sektorze publicznym w Wlk. Brytanii dwie niezależne instytucje upubliczniły: jedna dane o chorobach z kodami pocztowymi, druga wyniki wyborów z atrybutami geograficznymi. Oba te zbiory analizowane łącznie pozwoliły zidentyfikować pojedyncze osoby. W rezultacie każdy mógł zobaczyć, na co dany obywatel jest chory i na kogo głosował, mimo że nazwisko teoretycznie nie było znane. Żaden z urzędów nie popełnił błędu, ale zbieg okoliczności spowodował naruszenie prywatności.

Analityka staje się krwioobiegiem biznesu, administracji i wszelkiej innej działalności. Organizacja, która nie będzie umiała tego zrobić, prawdopodobnie upadnie. Mimo to przestrzegam przed przesadzeniem w drugą stronę – przesadnym skupieniu się na tego rodzaju przewadze jak Big Data, zaawansowane zarządzanie lojalnością czy cyfrowy marketing. Biznes jakikolwiek by nie był, na koniec dnia opiera się na dobrach realnych, a rzeczywista jakość oferowanego produktu jest najważniejsza. Pokazuje to historia Tesco – Leszek Maśniak, Chief Data Officer, Ministerstwo Cyfryzacji.

Dominik Batorski: W USA wymiana danych między podmiotami jest rozwinięta na gigantyczną skalę. Powoduje to konflikty. Firma Target kiedyś chwaliła się przypadkiem, w którym ponoć przewidziano, że nastolatka jest w ciąży zanim jeszcze dowiedzieli się o tym jej rodzice. Podobna historia spotkała dziennikarza „The Atlantic”. Jego partnerka była w ciąży, nikt poza nimi tego nie wiedział, a jednak zaczęli otrzymywać reklamy dla rodziców. Dziennikarz uznał to za naruszenie prywatności. Tymczasem stało się tak tylko dlatego, że kilka miesięcy wcześniej kupił on kuzynom prezenty, a system uznał, że kupuje dla swoich dzieci. Mechanizmy analityczne działają na podstawie prawdopodobieństwa. Ale ludzie tego nie rozumieją. Wydaje im się, że są bezpośrednio podglądani, a ich zachowania bardzo precyzyjnie przewidywane. Mój kolega powiedział, że przeraża go to, że Amazon wie lepiej, jaką książkę chce przeczytać. To nie tak działa.

Olaf Piotrowski: Potencjał w wymianie informacji i doświadczeń z różnych sektorów jest duży. Gromadzimy dane nieustrukturyzowane i słabo ustrukturyzowane, w tym tekstowe. W modelu e-commerce kluczowe jest dopasowanie frazy opisującej przedmiot do frazy wpisywanej w wyszukiwarkę przez kupującego. Ciekawym wyzwaniem jest ocena jakości obrazków opisujących ofertę. Wykorzystujemy do tego metody Deep Learning, stosowane m.in. w medycynie. Z drugiej strony, szanse, jakie stworzył cloud computing firmom komercyjnym – m.in. rozwiązania analityczne w chmurze, brak konieczności budowy i utrzymywania własnej infrastruktury i jej skalowalność – są również dostępne dla organizacji publicznych. Dynamicznie rozwija się ekosystem aplikacji, z których mogą korzystać instytucje niekomercyjne.

Magdalena Chechlińska: Dane medyczne nie mogą być niestety przechowywane w chmurze…

Olaf Piotrowski: To faktycznie ograniczenie formalne. Tak czy inaczej technologie przetwarzania danych się rozwijają i benefity zbieramy wszyscy. Wracając do pytania związanego z eksploracją wyników: coraz mniej czasu wymaga weryfikacja hipotez. Nowe technologie Big Data sprawiły, że czas ten radykalnie się skrócił. Szybciej sprawdzamy efekt. Analizujemy większe zbiory danych. To otwiera nowe możliwości. Oczywiście nadal kluczową rolę odgrywają osoby, które formułują hipotezy. Wnioskowanie wciąż jest sporym wyzwaniem, ale fakt, że iteracyjny cykl pracy z danymi się skraca jest przełomowy. Błędne hipotezy możemy odrzucać szybciej.

Krzysztof Słotwiński: Możliwość obracania ogromną ilością danych sprawia, że powstają nowe modele biznesowe. Amazon gwarantuje, że jeśli wybierzesz produkt z listy najchętniej kupowanych, to jeszcze tego samego dnia dostaniesz go do domu. Aby zrobić analizę takich produktów, które są najchętniej kupowane, Amazon zainwestował w infrastrukturę serwerów Amazon Web Serrvices (AWS), które potem stały się jedną ze sztandarowych produktów firmy. Zrobili chmurę z wielką mocą obliczeniową dla siebie, a potem zaczęli ją sprzedawać jako usługę klientom zewnętrznym.

Dominik Batorski: Podobnie z Hadoopem, który też powstał jako produkt uboczny.

Jak sobie wyobrażacie wykorzystanie analityki w swoich branżach? Gdzie są obszary oferujące największe korzyści? Gdzie leży największy potencjał w analizie danych?

Krzysztof Słotwiński: Najważniejsze jest zadowolenie klienta, zaoferowanie mu produktów i usług, których najbardziej potrzebuje, dzięki analizie jego zachowań oczywiście na podstawie dużych zbiorów danych.  Z racji mojego zakresu obowiązków w drugiej kolejności wymienię ogromny potencjał analityki w zakresie systemów bezpieczeństwa. Analiza dużej ilości danych połączeniu z narzędziami Machine Learning pozwalają na budowę skutecznych systemów predykcyjnych. W BGŻ BNP Paribas już to robimy. Swoja drogą, nie wiem, czy Państwo wiedzą, ale w Stanach Zjednoczonych największy udział zastosowań kognitywnego systemu IBM Watson – aż 70-80% rynku – to opieka zdrowotna. Następnie zaś właśnie cyberbezpieczeństwo.  Bank może także zagregować dane, a następnie udostępniać je np. klientom tak, aby firmy np. z sektora SME mogły wspólnie prowadzić pomiędzy sobą wymianę handlową. Oczywiście jeśli klienci wyrazili na to zgodę.

Marcin Choiński: Większość biznesu dąży do tego, aby zrozumieć potrzebę klienta i jak najlepiej ją zaadresować. Zapewne wielu z nas, mówiąc o potencjale analityki, powie w którymś momencie właśnie o lepszym dotarciu do potrzeby klienta. W mojej ocenie jest to jednak równocześnie pewien limit analityki. Dane historyczne mogą pokazać nam to, co jest ewentualną przyszłością, ale tylko i aż taką, ewolucyjnie wynikającą z historii.

Prawdziwą innowacją wg mnie jest jednak to, co robił Steve Jobs. On tworzył potrzebę, nie oglądając się na historię. Tam, gdzie możemy coś stworzyć od zera, zrobić rewolucję, tam analityka może w pewnym stopniu pomóc, ale jest też wartość dodana człowieka, której – moim zdaniem – analityką w pełni zastąpić się nie da.

Piotr Krawczyk: Dla nas analityka związana jest z poprawą bezpieczeństwa, niższymi kosztami obsługi i ryzyka oraz polepszeniem doświadczeń klienta. Bardzo trudno powiedzieć, do jakich wniosków będziemy dochodzić dzięki Big Data i czy na tym zyskamy. Trudno to przewidzieć zanim przystąpimy do działania i analizy dużych zbiorów danych.

W najbliższym czasie na pewno widzimy potencjał w analizach sieciowych klientów. Możemy rozpatrywać potrzeby klienta w kontekście rodziny, bliskich, firmy, w której pracuje. Przykładowo już analiza przepływów transakcyjnych w sieciach społecznych jest obiecująca. Wiele można się z nich dowiedzieć o Klientach i tym samym potencjale rozwoju biznesu.

Olaf Piotrowski: Dostrzegamy wielką szansę w tym, jak chętnie dzielimy się prywatnością w mediach społecznościowych. Na podstawie tych danych możemy szukać powiązań między realizacją potrzeb zakupowych a emocjami. Potencjał w analizie treści publikowanych w mediach społecznościowych jest ogromny.

Dominik Batorski: W mediach społecznościowych ludzie realizują nie tylko swoje potrzeby psychologiczne. One zapewniają im także dostęp do słabych więzi społecznych, gdzie korzyść jest bardzo wymierna. W momencie, gdy czegoś potrzebujemy – pracy, rady, pieniędzy – możemy się zwrócić do znajomych z mediów społecznościowych. Pisanie o swoich problemach i potrzebach przynosi nam realne korzyści. To faktycznie działa. Natomiast ludzie często nie rozróżniają, które treści są widoczne dla znajomych, a które publicznie.

Olaf Piotrowski: Odczytywanie intencji osób, budowanie wśród nich poczucia, że znajdują to, czego szukają, jest dla nas istotnym obszarem analitycznych eksploracji. Odczytanie intencji osób trafiających na Allegro z mediów społecznościowych i sugerowanie im odpowiednich ofert i doświadczenia zakupowego jest trudne, ale ma ogromny potencjał w zakresie lojalizacji oraz pozytywnego i emocjonalnego skojarzenia z marką Allegro.

Piotr Krawczyk: Współcześnie konsument, jest nieustannie zmuszany do dokonywania wyborów. Podejmując decyzje zakupowe otwieramy się na podpowiedzi. Myślimy: „Niech Allegro albo Amazon mi powie, co jest dla mnie dobre”. Bo jako klienci chcemy uniknąć negatywnego wrażenia, że sami dla siebie źle wybraliśmy. To samo dotyczy klientów instytucji finansowych.

Dominik Batorski: Dobrym przykładem są gry komputerowe. Robione są tak, aby były bardzo uzależniające. Stoją za tym gigantyczne badania i analiza danych. Drugi obszar to targetowanie polityczne. Sukces Donalda Trumpa, to nie mikrotargetowanie w oparciu o Big Data, ale po prostu wykorzystanie Facebooka. Facebook – przez dużą personalizację wyświetlanych treści oraz udostępnienie tych mechanizmów reklamodawcom – dał narzędzie manipulacji. Barack Obama wykorzystał Big Data, aby mobilizować wyborców do rejestracji. Teraz – oprócz aspektu pozytywnego – uruchomiono mechanizm mikrotargetowania w celu zniechęcenia wyborców Hillary Clinton do głosowania. To nieprzejrzysty mechanizm. Tego typu wyzwań i problemów będzie sporo i pewnie coraz więcej.

Magdalena Chechlińska: W medycynie idziemy w kierunku hiperindywidualizacji, ale nie tak, jak się o tym mówi. Organizm jest wielce skomplikowaną maszyną, każdy proces może zachodzić poprzez alternatywne ścieżki. To się dzieje na każdym poziomie, najwyraźniej obecnie to widzimy na poziomie molekularnym. Personalizację leczenia rozumiałabym bardziej ogólnie – jako poszukiwanie mechanizmów, poznawanie cech związanych z chorobami, badanie nowych możliwości leczenia i zastosowanie leków w określonych wieloczynnikowych uwarunkowaniach. Szansą, jaką w tym kontekście daje analityka naszej dziedzinie, jest poszukiwanie związków przyczynowo-skutkowych, których nie zauważylibyśmy bez analizy dużych liczb danych i wielu różnych czynników jednocześnie. Np. dawniej uznawano, że choroba nowotworowa zależy tylko od własności komórek nowotworowych. Dziś wiemy, że problem jest dużo bardziej złożony. Nie tylko komórki nowotworowe i ich cechy decydują o rozwoju choroby, ale też to, co się dzieje w otoczeniu i w całym ustroju. To zjawisko wybitnie wieloczynnikowe. Wyobrażam sobie, że analityka może nam pokazać zależności, które dziś nawet nie przychodzą nam do głowy.

Wreszcie dostrzegam duży potencjał zastosowań analityki przy wspomaganiu decyzji terapeutycznych i diagnostycznych. O decyzjach terapeutycznych już wspominałam. Postawienie diagnozy jest również często bardzo trudne, szczególnie w onkologii. Analityka może również tutaj przyjść z pomocą.

Chciałabym też zwrócić uwagę na inny aspekt zastosowania analityki w realizowaniu opieki zdrowotnej. Medycyna jest też swego rodzaju biznesem. Szpitale muszą bilansować koszty i przychody. Jesteśmy finansowani z Narodowego Funduszu Zdrowia. Co roku wszystkie szpitale podpisują nowy kontrakt. Dodatkowo co roku wchodzą nowe rozporządzenia, zmieniające zasady „gry”. Podam najbardziej banalny przykład: aby jednostka mogła otrzymać finansowanie danej procedury musi spełnić wiele warunków formalnych, np. musi dysponować gabinetem o określonej nazwie, zatrudniać lekarzy o określonych uprawnieniach itp. Te wymagania często zmieniają się każdego roku. Proszę sobie wyobrazić, jak w takich warunkach trudno cokolwiek długofalowo planować i zarządzać taką „firmą”. Dodatkowo kontrakt jest podzielony na ścieżki, które są realizowane w różnych jednostkach danej placówki i – ujmując to w wielkim uproszczeniu – np. niedobory środków w jednej klinice nie mogą po prostu być finansowane z „oszczędności” w innej, w obrębie tego samego szpitala. Analityka mogłaby tu mieć istotne miejsce jako narzędzie skuteczniejszego pozyskiwania środków i bieżącego nimi zarządzania w ramach tego bardzo złożonego systemu.

Utworzenie systemu ONKOSYS miało na celu podwyższenie potencjału naukowego jednostki. Wszystko, co zostało umieszczone w systemie wiąże się z działalnością naukową. Pod tym kątem zrobiliśmy selekcję danych zasilających hurtownię, zostało zaprojektowanych szereg predefiniowanych raportów, m.in. po to, aby podnieść jakość analiz i ułatwić ich prowadzenie. Już teraz kadra zarządzająca widzi szanse w wykorzystaniu narzędzi analitycznych ONKOSYS również do celów zarządczo-finansowych. Niektóre mniej zorientowane osoby są bardzo zdziwione, że – aby uzyskać np. raporty finansowe – należy najpierw zasilić hurtownię określonymi danymi finansowymi…. Ten przykład jednocześnie nawiązuje do wcześniejszego wątku dyskusji jak ważne jest rozumienie danych i analityki dla właściwego wnioskowania.

Przemysław Pawlak: Przyszłość to jedna platforma służąca do zbierania i analizy danych oraz do komunikacji. Integrowałaby powiązania między strefą technologiczną a biznesową. Platforma, z której mogą skorzystać sprzedawcy, analitycy, ale i menedżerowie przygotowujący strategiczne prezentacje dla zarządu. Efektem będzie informacja, z której skorzystają członkowie organizacji. Będzie to informacja wspólna, ustandaryzowana, spójna i zrozumiała. Ważne, aby ujednolicić język, jakim opisujemy dane. Jak wspomniałem, porządkowanie danych to wielkie wyzwanie…

Notował i spisał Bartosz Ciszewski

The following two tabs change content below.
Andrzej Gontarz

Andrzej Gontarz

Współtwórca pierwszych polskich serwisów internetowych i baz danych poświęconych kulturze, autor analiz na temat polityki kulturalnej samorządów lokalnych w Polsce. Od 2007 r. wykłada w Studium Podyplomowym „Społeczeństwo Informacyjne” na UJ. Współautor scenariuszy rozwojowych Polski w ramach Narodowego Programu Foresight „Polska 2020″ – Technologie informacyjne i komunikacyjne (2008). Do 2013 roku dziennikarz Computerworld. Wiceprezes fundacji Instytut Mikromakro.

Podobne tematy:

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

« »