MENU

Odnajdziemy wartość dodaną w danych biznesowych klientów
EVP

31 maja 2017Artykuł z magazynu ITwiz, Executive ViewPoint, Polecane tematy

Executive ViewPoint
O możliwościach wykorzystania koncepcji internetu rzeczy, fundamentach efektywnego stosowania analityki biznesowej, potencjale biznesowym Big Data, roli Data Scientists w biznesie, a także unikalnych kompetencjach nowego działu biznesowego Sygnity i planach oferowania zaawansowanej analityki biznesowej w formie usługi mówi Patryk Choroś, dyrektor działu Business Intelligence & Data Science w Sygnity S.A.

Jeśli spojrzeć na zestaw kompetencji potrzebnych osobie zajmującej się Data Science, to najważniejsze znaczenie ma zrozumienie procesu biznesowego, który będzie wspierany w podejmowaniu decyzji z wykorzystaniem analityki. Chodzi o umiejętność znalezienia w całym procesie punktu, który – z wykorzystaniem narzędzi analitycznych, programistycznych i wiedzy ekonometrycznej – umożliwi zbudowanie modelu analitycznego i dostarczenie danych pozwalających na podejmowanie lepszych decyzji. To ważne, ponieważ punktem wyjścia nie zawsze jest punkt podejmowania decyzji.

Czy internet rzeczy jest dobrym źródłem danych biznesowych?

To zależy od potrzeb biznesu. Idea internetu rzeczy – bez względu na to, czy mówimy o rozwiązaniach przemysłowych, czy automatyce domowej i inteligentnym domu – zakłada wykorzystanie dużej liczby urządzeń, które wy-mieniają ze sobą komunikaty niosące pewne dane. Naturalnie komunikacja ta jest realizowana w czasie rzeczywistym. Jednym z najbardziej nośnych przykładów tego typu rozwiązań jest opomiarowanie silników napędzających samoloty koncernu Boeing. Jeśli połączymy kilkadziesiąt czujników, które w czasie rzeczywistym raportują najważniejsze wskaźniki funkcjonowania silnika, to mamy do czynienia z wykorzystaniem założeń IoT.

Czy dane, które mogą być gromadzone w oparciu o internet rzeczy, pasują do założeń Big Data?

Nie jest to jednoznaczne powiązanie. Idea Big Data zakłada zróżnicowanie danych, różnorodności sposobów i skali ich uporządkowania oraz wysoki wolumen. W kontekście internetu rzeczy jednak – co do zasady – dane są do siebie podobne. Są nośnikiem pewnych parametrów lub informacji o wystąpieniu zdarzenia. Wysoka dynamika i ich wolumen przekłada się jednak na to, że przetwarzanie danych płynących z infrastruktury IoT wymaga zastosowania specyficznej architektury systemów – często są to właśnie rozwiązania Big Data.

Jeśli spojrzymy na to zagadnienie od strony rozwiązań narzędziowych, to klasyczna architektura przetwarzania zbiorów Big Data – Hadoop i rozwiązania pokrewne – jest niewystarczająca, aby sprostać potrzebom IoT w zakresie dynamiki i ilości danych. Aby je efektywnie zaadresować, musimy zbudować infrastrukturę, która będzie w stanie przetwarzać dane strumieniowo, poddać dane analizie i wnioskowaniu bez ich retencji. Na odłożenie danych i przetwarzanie ich post factum brak jest czasu i mocy obliczeniowej.

W jaki sposób najlepiej podejść do przetwarzania danych z internetu rzeczy?

Wzorzec architektury przetwarzania określany jako „Lambda” mówi de facto o tym, że dane powinniśmy analizować dwuprzebiegowo. Po pierwsze, musimy analizować je klasycznie. Gromadzimy więc dostępne sygnały i w oparciu o zgromadzone dane budujemy modele analityczne, poszukując wzorców pewnych zjawisk – typowe podejście Big Data. Po drugie, przetwarzamy je strumieniowo, w sposób, dla którego zauważone wcześniej wzorce stanowią punkt odniesienia. Warto nadmienić, że wzorzec architektury przetwarzania znany jako Kappa zakłada tylko strumieniowe przetwarzanie danych. Tracony jest wówczas szerszy kontekst analityczny.

Dlaczego tak ważne jest przystosowanie posiadanej infrastruktury IT do problematyki przetwarzania Big Data?

Dążenie do wykorzystania dostępnych informacji w celu zmiany modeli biznesowych stanowi dziś kluczowy element walki konkurencyjnej. Jeśli, jako firma, jestem w stanie wpłynąć na zasady konkurowania na rynku, to jestem w stanie wyprzedzić konkurencję. Jeśli nie mam takiej możliwości, to muszę grać według zasad, które zdefiniowali inni.

Jednocześnie, mamy dziś do czynienia z dwoma głównymi katalizatorami zjawiska Big Data. Pierwszy to fakt, że jako ludzkość produkujemy dane bez opamiętania. Źródłem dużych ilości danych stają się różnego rodzaju systemy, a także rejestrowane za ich pośrednictwem – często na poziomie detalicznym – aktywności. Na to nakładają się całe strumienie danych powiązanych z nowoczesnymi procesami biznesowymi, które są w całości oparte na świecie cyfrowym oraz internet rzeczy właśnie. Drugi katalizator stymulujący upowszechnienie Big Data to powstanie relatywnie taniej technologii umożliwiającej obsługę dużych zbiorów danych na ogólnodostępnej platformie sprzętowej. Pojawienie się Hadoop sprawiło, że wszystkie firmy zaczęły gromadzić dane z myślą o poszukiwaniu w nich wiedzy, która zasili cyfrową transformację biznesu.

Czy polskie firmy faktycznie sięgają po dostępne dla nich dane i próbują szukać w nich sposobów na usprawnienie działalności?

Zdecydowanie tak. Jest to zmiana, która ma miejsce od paru lat, chociaż nie zawsze opiera się na przetwarzaniu Big Data. Często okazuje się, że przedsiębiorstwo zainspirowane hasłem Big Data zmierza do tego, aby umiejętnie prognozować popyt na swoje towary albo identyfikować misje zakupowe klientów. Jednak w trakcie implementacji okazuje się, że do realizacji założonego celu wcale nie są potrzebne specjalnie rozległe zbiory danych.
Stosowanie analityki do przełamywania zasad konkurowania i wzmocnienia pozycji rynkowej firmy jest już standardem. Natomiast podążanie za koncepcją Big Data oraz poszukiwanie w oparciu o nią innowacji jest obszarem zdecydowanie trudniejszym. Bardzo wiele przedsiębiorstw inwestuje w budowanie środowisk Hadoop, pracuje nad budową tzw. Data Lake, ale niewiele firm jest w stanie realnie wykreować tu innowację. Nie jest dziś problemem zbieranie danych, nie jest problemem ich analiza. Problematyczny staje się sposób ich analizy pod kątem właściwie wybranego celu biznesowego.

Czego zatem brakuje?

Istotnym elementem kreującym kształt rozwiązań analitycznych będzie automatyzacja i masowe stosowanie analityki w procesach biznesowych. Dziś są to często jedynie punktowe rozwiązania dołączone do klasycznych hurtowni. Tymczasem dopiero domknięcie pętli zwrotnej w zakresie wykorzystania wiedzy zgromadzonej w danych w procesach biznesowych będzie tym elementem, na którym w najbliższych latach powinny skupiać się projekty wdrożeniowe. Weźmy przykład z handlu detalicznego. To, że zauważymy w naszych danych pewien wzorzec zachowania klientów nie znaczy, że jest on stały w czasie.

Dopiero umiejętność zautomatyzowania identyfikacji wzorców zachowania nabywców – choćby na potrzeby dynamicznego dopasowywania rekomendacji produktowych – przełoży się na możliwość uzyskania strategicznej przewagi konkurencyjnej. Nie chodzi przecież jedynie o aspekty taktyczne i wskazówki na temat budowania oferty w danym momencie. Dużo cenniejsze jest zbudowanie trwałej filozofii budowania relacji z klientem w sposób zautomatyzowany. To dlatego w kontekście analityki biznesowej coraz częściej pada hasło: „uczenie maszynowe”. Automatyzacja to tzw. ostatnia mila, która łączy fakt posiadania i przetwarzania danych z ich efektywnym, operacyjnym wykorzystaniem w procesie biznesowym.

W jakich branżach wartość biznesowa z projektów łączących przetwarzanie danych biznesowych na dużą skalę jest osiągalna najszybciej?

Jeżeli miałbym wskazać w której branży koncepcja internetu rzeczy jest w stanie w krótkim czasie dostarczyć dużą wartość biznesową, to skupiłbym się na krystalizacji idei Przemysłu 4.0. Jej prawdziwa wartość leży w możliwości bieżącej i ciągłej weryfikacji efektywności wykorzystania bardzo drogich zasobów. Niezależnie od tego, czy mówimy o maszynach górniczych, czy zaawansowanych liniach produkcyjnych, stanowią one wymierną inwestycję. Powinny więc być wykorzystywane w sposób nieprzerwany i maksymalnie efektywny.

Możliwość zweryfikowania, czy operator w odpowiedni sposób wykorzystuje maszynę, przewidzenia i zaplanowania najlepszych terminów przeglądów, zamówienia części zamiennych z odpowiednim wyprzedzeniem, wreszcie zaplanowania dostaw surowców, przekłada się wprost na efektywność gospodarowania drogim sprzętem. Na to nakładają się aspekty dotyczące bezpieczeństwa maszyn i ludzi. Przykładowo przemysł wydobywczy mógłby skorzystać z dobrodziejstw internetu rzeczy do przetwarzania bardzo dużej liczby sygnałów sejsmograficznych czy gazometrycznych, a także sygnałów dotyczących parametrów pracy maszyn. Dzięki temu można by zwiększyć bezpieczeństwo pracy. Jeśli spojrzeć na to, w jaki sposób za granicą stosowane są zagadnienia związane z koncepcją Przemysłu 4.0, to wystarczy przeanalizować działania firmy Shell, która od wielu lat wykorzystuje tego rodzaju rozwiązania na potrzeby maksymalizacji efektywności oraz bezpieczeństwa funkcjonowania platform wiertniczych.

Przemysł 4.0 to również możliwość zbudowania łańcucha produkcyjnego, który pozwala produkować krótkie serie wyrobów mocno dopasowanych do preferencji indywidualnych klientów. To także możliwość wytwarzania produktów, które na przestrzeni całego cyklu życia pozostaną skomunikowane z producentem i staną się źródłem cennych danych. Te dwa czynniki coraz częściej determinują konkurencyjność producentów na globalnych rynkach. Wychodząc do konsumenta z produktem lepiej odpowiadającym jego oczekiwaniom, możemy żądać wyższych pieniędzy, a jednocześnie zyskać lojalność klienta. Cel ten można osiągnąć jedynie dzięki umiejętności odpowiedniego zarządzania danymi i wyciągania z nich wartościowych biznesowo wniosków.

Zdajemy sobie sprawę, że w wielu firmach funkcjonuje już określony stos technologiczny. Oczywiście jesteśmy w stanie wykorzystać istniejące już rozwiązania, ale to nie one są kluczem wartości biznesowej, którą dostarczamy w zespole Business Intelligence & Data Science. W pierwszej kolejności skupiamy się na określeniu, jaki problem i w jaki sposób rozwiązać, jak ułatwić firmie przejście cyfrowej transformacji, a dopiero potem w optymalny sposób dobieramy narzędzia.

Od czego zacząć praktyczne wdrożenie założeń Przemysłu 4.0?

Przede wszystkim zastanowić się, jakie sygnały mamy już dostępne i dlaczego ich nie wykorzystujemy. W kolejnym kroku warto zbudować prostą infrastrukturę gromadzenia tych danych – choćby przy wykorzystaniu technologii open source. Następnie warto zgromadzone dane skorelować z danymi strukturalnymi, pochodzącymi z systemów klasy ERP i MES, czyli z systemów, które zarządzają planem produkcji i wynikiem przedsiębiorstwa. Powiązanie danych na temat działania maszyn, zyskowności zamówień i utrzymywanych zapasów stanowi fundament nowoczesnej produkcji, który może pokazać wzorce efektywności wykorzystania zasobów i sprawności budowania marży.

Drugi aspekt to składowanie i gromadzenie informacji z przebiegu procesu produkcyjnego pod kątem zarządzania jakością. Chodzi o to, aby w przypadku wykrycia wady w danej partii produkcyjnej mieć możliwość prześledzenia całego procesu produkcyjnego. Być może uda się odkryć wzorzec, który powinien być trwale pilnowany. Warto zacząć od jednej, konkretnej partii i linii produkcyjnej, aby małymi krokami eksperymentować pod kątem poszukiwania wartości dodanej, podnoszenia jakości lub lepszego planowania biznesu.

I tu płynnie przechodzimy do Data Science…

Tak, bo to jest Data Science.

Jakie są główne zadania inżynierów danych oraz ich rola w organizacji biznesowej?

Inżynier danych to człowiek, który ma wskazać sens biznesowy przetwarzania, gromadzenia i analizowania danych. Jeśli spojrzeć na zestaw kompetencji potrzebnych osobie zajmującej się Data Science, to najważniejsze znaczenie ma zrozumienie procesu biznesowego, który będzie wspierany w podejmowaniu decyzji z wykorzysta-niem analityki. Chodzi o umiejętność znalezienia w całym procesie punktu, który – z wykorzystaniem narzędzi analitycznych, programistycznych i wiedzy ekonometrycznej – umożliwi zbudowanie modelu analitycznego i dostarczenie danych pozwalających na podejmowanie lepszych decyzji. To ważne, ponieważ punktem wyjścia nie zawsze jest punkt podejmowania decyzji. Takie podejście często blokuje innowacyjność wykorzystania analityki biznesowej, która powinna umożliwiać kreowanie nowego podejścia do biznesu.

Czyli inżynier danych to człowiek, który jest w stanie samodzielnie wybrać konkretny problem danej organizacji i wskazać jego rozwiązanie w oparciu o dane…

… albo dostrzega szanse na zaadresowanie rozwiązaniem analitycznym problemu, z którego może organizacja nie do końca zdaje sobie sprawę. Oczywiście ważna jest też umiejętność doboru właściwych metod analitycznych oraz interpretacji ich wyników w kontekście danego procesu czy posiadanego zbioru danych. Bezcenna jest też wiedza ekonometryczna i umiejętności stosowania narzędzi, także tych, które w danym momencie nie są stabilne i mocno upowszechnione, ale pozwalają na zupełnie nowe wykorzystanie danych. Inżynier danych nie może obawiać się stosowania innowacji narzędziowych na potrzeby wnioskowania służącego innowacjom biznesowym.

A co z usługami bardziej widocznymi dla konsumentów?

W kontekście budowania biznesowej wartości dodanej w oparciu o ideę IoT warto wymienić też nowoczesny transport. W branży transportowej liczy się możliwość monitorowania i analizowania funkcjonowania maszyn oraz pracy ludzi na potrzeby zapewnienia bezpieczeństwa, ciągłości pracy, a także możliwości ucieczki do nowych modeli biznesowych. Ciekawy jest tu przykład Volvo Trucks. Model biznesowy tej firmy skupia się dziś na produkcji i sprzedaży ciężarówek. Jednak wprowadzając do swoich pojazdów wiele czujników, Volvo Trucks zyskuje dostęp do wiedzy pomocnej w proaktywnym zarządzaniu serwisem i kontrolowania eksploatacji samochodów. Pozwala to sądzić, że wraz z maksymalizacją efektywności eksploatacji i serwisu – oraz przy odpowiednim zarządzaniu kosztami – Volvo Trucks będzie w stanie zmienić model biznesowy w kierunku wynajmu ciężarówek. Skoro zaś będą w stanie wynajmować sam pojazd, to dlaczego nie wprowadzić do oferty usług wynajmu ciężarówki wraz z kierowcą albo pojazdów autonomicznych? Jest to doskonały przykład poruszania się po piramidzie tzw. Experience Economy. Na jej szczycie, w przypadku Volvo Trucks, może być np. zmiana modelu biznesowego w kierunku wysoko marżowych usług operatora logistycznego. W tym kontekście internet rzeczy stanie się dźwignią dla gruntownej, ale prowadzonej w bezpieczny biznesowo sposób, przebudowy modelu biznesowego Volvo Trucks.

W kontekście IoT często wspomina się o tzw. inteligentnych miastach – Smart City…

Jeśli chodzi o miasta, to warto spojrzeć na ich funkcjonowanie z perspektywy konkurencyjności. W końcu poszczególne miasta konkurują ze sobą o inicjatywy biznesowe oraz przychylność mieszkańców. Zrozumienie faktu, w jaki sposób dany podmiot konkuruje, pozwala zrozumieć, w jakim obszarze warto budować cenną dla niego wartość biznesową. Kiedy bowiem miasto staje się konkurencyjne? Gdy dostarcza dobrych warunków do życia i pracy, zapewnia potrzebne usługi i poprawnie funkcjonuje ekonomicznie. Optymalizacja detalicznych aspektów każdego z tych obszarów składa się na pozycję konkurencyjną całości.

Znam przykład miasta z Wielkiej Brytanii, które wykorzystuje zaawansowaną analitykę biznesową na potrzeby optymalizacji działania służb porządkowych. Informacje o zgłoszeniach i dokonanych przestępstwach są tam wykorzystywane do tego, aby budować modele predykcyjne, przewidujące prawdopodobieństwo wystąpienia w danym czasie i miejscu konkretnego rodzaju zagrożenia. Dzięki temu zarządzający służbami miejskimi są w stanie proaktywnie optymalizować m.in. trasy patroli czy liczbę funkcjonariuszy gotowych do działania w danym obszarze.

Niestety, w wielu przypadkach realizowane w Polsce projekty Smart City zatrzymują się na etapie zakupów infrastrukturalnych. Tymczasem istnieje wiele ciekawych źródeł danych, które stają się osiągalne, ale brakuje pełnego obrazu informacyjnego, umożliwiającego efektywne zastosowanie zaawansowanej analityki. Oczywiście dobrze robimy, rozbudowując infrastrukturę, bo bez niej nie będziemy mieli danych potrzebnych do lepszego zarządzania miastami czy przemyślanego planowania ich rozwoju.

Kieruje Pan nowym działem w strukturach Sygnity. W oparciu o jakie rozwiązania i technologie będą Państwo świadczyć usługi dla klientów?

Nie chciałbym, aby istotnym elementem tego, w jaki sposób definiujemy naszą ofertę, była konkretna technologia. Zdajemy sobie sprawę, że w wielu firmach funkcjonuje już określony stos technologiczny. Oczywiście jesteśmy w stanie wykorzystać istniejące już rozwiązania, ale to nie one są kluczem wartości biznesowej, którą dostarczamy w zespole Business Intelligence & Data Science. W pierwszej kolejności skupiamy się na określeniu, jaki problem i w jaki sposób rozwiązać, jak ułatwić firmie przejście cyfrowej transformacji, a dopiero potem w optymalny sposób dobieramy narzędzia. Czasem potrzebne są nowe narzędzia, jednak naszym wyróżnikiem rynkowym jest zrozumienie potrzeb biznesu oraz umiejętność sprostania im za pomocą analityki w powiązaniu z wykorzystaniem w optymalny sposób narzędzi istniejących już w firmie bądź dostępnych na rynku.

Sygnity świetnie rozumie biznes klientów. To fundament, na którym budujemy dział Business Intelligence & Data Science, dodając kompetencje ekonometryczne i narzędziowe, zarówno w kontekście rozwiązań open source, jak i tych rozwijanych przez komercyjnych dostawców. Należy pamiętać, że to duzi dostawcy rozwiązań analitycznych wprowadzili Hadoop pod strzechy. Jeśli spojrzeć na oferty firm IBM, Teradata, Oracle czy SAS, to widać, że tam wszędzie przewijają się technologie open source lub możliwość łączenia rozwiązań komercyjnych i tych opartych na otwartym kodzie.

Stosowanie analityki do przełamywania zasad konkurowania i wzmocnienia pozycji rynkowej firmy jest już standardem. Natomiast podążanie za koncepcją Big Data oraz poszukiwanie w oparciu o nią innowacji jest obszarem zdecydowanie trudniejszym. Bardzo wiele przedsiębiorstw inwestuje w budowanie środowisk Hadoop, pracuje nad budową tzw. Data Lake, ale niewiele firm jest w stanie realnie wykreować tu innowację.

Jakie są główne zadania zespołu Big Data & Data Science? W jakiego rodzaju inicjatywach biznesowych chcą Państwo uczestniczyć?

Bardzo chciałbym zaczynać współpracę z klientami od rozmowy o tym, w jaki sposób zacząć budować kulturę w organizacji wykorzystania danych do wsparcia podejmowania decyzji. Zaraz za tym idzie zaplanowanie, w jaki sposób kolejno adresować poszczególne punkty wykorzystania analityki w organizacji. Chodzi o wprowadzenie Data Science do DNA organizacji. W sytuacji, gdy skala stosowania analityki w organizacji będzie wzrastała i pojawią się nowe wyzwania, zapewnimy klientom wsparcie dostosowane do kolejnego etapu dojrzałości w tym obszarze. Następnie zajmiemy się np. automatyzacją i operacjonalizacją analityki. Chcemy być doradcą i partnerem dla klienta.

Fundamentalne jest to, aby – po pierwsze – zacząć zamykać pewien cykl podejmowania decyzji, zbierać dane, budować model analityczny, wykorzystywać go, mierzyć wyniki, a następnie powtarzać ten cykl. Kiedy nauczymy organizację działać w ten sposób, będziemy mogli sprawniej budować większą liczbę modeli analitycznych i podnosić ich dokładność. To przyniesie realne korzyści biznesowe. Przełoży się też na konieczność zautomatyzowania środowiska analitycznego i wdrożenia narzędzi Analytical Governance. Wesprą one bezpieczeństwo i efektywność maszynowego stosowania analityki jako wsparcia podejmowania decyzji biznesowych.

Naszym klientom proponujemy też zastosowanie dziedziny badań operacyjnych do optymalizacji strategii biznesowej. Widzimy, że potencjał badań operacyjnych jest dziś mocno niedoceniany. Mówiąc o kompleksowym spojrzeniu na analitykę, chcemy przyglądać się nie tylko temu, co dane biznesowe mówią o przyszłych zjawiskach, ale też temu, w jaki sposób organizacja powinna zachować się wobec prognozowanych zdarzeń. Tego typu optymalizacja stanowi zwieńczenie inteligencji biznesowej, która opiera się na Data Science. Fakt, że będziemy dysponować najlepszymi modelami predykcyjnymi stanowi zaledwie początek drogi, bo na ich podstawie należy podjąć konkretne, najbardziej optymalne działania i to w warunkach ograniczonych zasobów.

W jaki sposób wpłynie to na konkurencyjność firm, które zdecydują się skorzystać z usług nowego działu Sygnity?

Pomożemy klientom wygrać z konkurencją, poszukując takich obszarów, w których dana firma może zmienić zasady konkurowania, a także wskazując strategie biznesowe pozwalające na ucieczkę od konkurowania ceną. Ułatwimy im też budowanie strategicznych wyróżników, opartych na racjonalnym podejściu do kosztów, dopasowaniu oferty do oczekiwań klienta oraz budowaniu pozytywnych doświadczeń w sposób przekładający się na lojalność klientów. To mierzalne cechy, które dają fundament finansowy do dalszego poszukiwania innowacji biznesowych. Pomożemy też w budowaniu innowacyjnych produktów i usług, wiedząc, jak wykorzystać nowoczesną technologię, aby stworzyć inteligentny produkt. Ale to dana organizacja musi stworzyć jego koncepcję.

Czy kompetencje zespołu Big Data & Data Science znajdą zastosowanie w innych rozwiązaniach Sygnity?

Mamy silny udział w sektorze publicznym, branży użyteczności publicznej i wśród organizacji finansowych. Jest to bardzo dobra baza do wzmocnienia naszej oferty w tych segmentach zaawansowaną analityką. Przykładowo, w sektorze publicznym pomożemy wykrywać nadużycia, w branży utilities – ułatwimy budowę infrastruktury internetu rzeczy, a w bankowości – zadbamy o sprawne wykorzystanie Big Data na potrzeby nowoczesnego CRM i marketingu czasu rzeczywistego. Świadczymy też usługi niższego poziomu niż analityka, jak wsparcie w tworzeniu infrastruktury IoT dostosowanej do potrzeb firmy.
W dalszej perspektywie planujemy wprowadzenie usług typu Analytics-as-a-Service. Ich fundamentem będzie kompetencyjnie mocny zespół Data Science oraz doświadczenie technologiczne i branżowe. Będziemy przekonywać klientów, aby powierzyli nam swoje dane. My zadbamy o potrzebne modele analityczne i narzędzia IT, aby w oparciu o nie podpowiedzieć, gdzie tkwią szanse biznesowe klientów, gdzie zagrożenia i jakie jeszcze dane wykorzystać, aby lepiej optymalizować biznes. Oferta usług analitycznych będzie atrakcyjna także dla mniej-szych firm, które nie chcą inwestować w infrastrukturę i kompetencje.

Do jakich firm skierowana jest nowa oferta Sygnity?

Nie zamykamy się na potrzeby żadnej branży, budując rozwiązania, które podnoszą konkurencyjność każdej firmy. Oferta działu Business Intelligence & Data Science jest uniwersalna. Dział ten pozwoli nam również na wzmocnienie pozycji w nowych sektorach gospodarki. Z naszymi usługami zamierzamy także aktywnie wychodzić poza granice Polski.

Podobne tematy:

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

« »