Case StudyAnalitykaPREZENTACJA PARTNERA

Nowe narzędzie na rynku to zarówno wyzwanie, jak i wartość

Executive ViewPoint

Z Adrianem Guzy, BI Development Manager w CTDI, rozmawiamy o otwartości na innowacje, zmianie kultury pracy z danymi i zaawansowanej analityce w Microsoft Fabric. 

Nowe narzędzie na rynku to zarówno wyzwanie, jak i wartość
Adrian Guzy, BI Development Manager w CTDI

W nowej siedzibie CTDI w Sękocinie Starym pod Warszawą tafle szkła odbijają poranne słońce, a wnętrza zaskakują nowoczesnym sznytem; energooszczędne oświetlenie LED, stała temperatura 20°C, podłogi o właściwościach antyelektrostatycznych; od 2024 roku budynek jest zasilany wyłącznie zieloną energią. Polska siedziba CTDI została oddana do użytku w 2019 roku i stała się symbolem inwestycji w przyszłość – jak mówią przedstawiciele firmy – odzwierciedla podejście organizacji: odważnie wkraczać w nowe obszary biznesu, wykorzystując najnowsze technologie. I to podejście również wpisuje się w ideę projektu wdrożenia Microsoft Fabric w europejskiej dywizji CTDI.

CTDI (Communications Test Design, Inc.) od ponad 50 lat dostarcza usługi inżynieryjne, serwisowe i logistyczne dla branży telekomunikacyjnej i elektronicznej w skali globalnej. Firma działa w ponad 100 lokalizacjach na całym świecie i zatrudnia ponad 20 000 pracowników, w tym 4 200 w Europie. W Polsce znajduje się największy europejski oddział firmy, który współpracuje z takimi markami jak Samsung, Google, Motorola Solutions, Zebra, Dell, a także operatorami Orange czy Plus.

Spacerujemy między stanowiskami w głównej hali serwisowej. Na jednym z nich precyzyjne ramię robota symuluje na ekranie smartfonu ruch palca użytkownika.

Naszym przewodnikiem po siedzibie jest Adrian Guzy, BI Development Manager w CTDI. To on i jego zespół wybrali Microsoft Fabric na swoją nową platformę analityczną. Choć w momencie, gdy rozpoczynali proces ofertowy, Microsoft dopiero uruchamiał platformę do testów.

Jak doszło do tego, że wybrałeś debiutujące na rynku BI narzędzie?

Po 10 latach używania jednego oprogramowania uznaliśmy, że najwyższy czas, żeby przyjrzeć się całemu rynkowi i przekonać się, czy to nadal jest najlepsza opcja dla nas, biorąc pod uwagę możliwości względem kosztów. Wyszliśmy z zapytaniem do rynku i w procesie poszukiwań okazało się, że oprócz naszego rozwiązania – Sisense – powinniśmy wziąć pod uwagę jeszcze dwa – Tableau i Power BI – wówczas głównych graczy na rynku business intelligence. Chcieliśmy mieć pewność, że używamy najlepszych narzędzi.

Kolejnym ważnym aspektem było to, żebyśmy, gdy już wybierzemy konkretny produkt, mieli partnera, który może nam pomóc w implementacji. Chcieliśmy, żeby była to firma, która ma wiedzę i będzie nam towarzyszyć w nadchodzących latach, a nie zniknie za rok czy dwa. Odbyliśmy kilka rozmów z ANEGIS – partnerem Microsoft, a ANEGIS dopasował się do naszego procesu RFQ (Request for Quotation – przyp. red.). Ta elastyczność, możliwość dostosowania się do naszych wymagań, też nam się spodobała. A w trakcie procesu RFQ Microsoft wypuścił rozwiązanie Microsoft Fabric, jeszcze w wersji public preview.

Microsoft Fabric został udostępniony w wersji general availability w listopadzie 2023. W momencie rozpoczęcia projektu, lutym 2024, to było jeszcze młode rozwiązanie. Czy wybór narzędzia, całkiem nowego dla was, nie wiązał się z większymi wyzwaniami niż w przypadku platform już znanych CTDI?

Zdawaliśmy sobie sprawę, że wybierając produkt, który jest zupełnie nowy, będziemy mierzyć się z pewnymi wyzwaniami. I one są, bo jest to produkt, który cały czas się rozwija i widać tę jego niedojrzałość. Ale ogromnym plusem jest to, że startujemy z tym produktem – rośniemy z nim i jesteśmy jedną z pierwszych firm, które na taką skalę wprowadzają go od początku jego istnienia. Drugi plus jest taki, że to rozwiązanie integruje wszystkie narzędzia, a o to nam chodziło.

Czyli świeżość rozwiązania stanowiła wyzwanie, ale i wartość. Jakie jeszcze kryteria zadecydowały o wyborze Fabric?

Bezpieczeństwo. Ta integracja źródeł danych i narzędzi powoduje, że dużo łatwiej zarządzać bezpieczeństwem i przeprowadzać audyty danych. Ten aspekt na pewno spodobał się naszemu zespołowi Information Security. Wiedzieliśmy, że odrobinę będziemy się uczyć tego produktu razem z zespołem ANEGIS, który znał Microsoft jako firmę, znał produkty, znał różne aspekty Fabric – Azure Synapse, Power BI, OneLake – ale nie platformę jako całość. Więc na początku było kilka wyzwań, ale byliśmy i jesteśmy nadal przekonani, że te plusy zaprocentują z czasem. To, co Fabric daje, to też zmiana myślenia w ramach firmy, zmiana kultury wokół danych.

Na czym ta zmiana polega?

Każda firma boryka się z silosami danych. To grupy, zespoły robiące podobne rzeczy, ale w inny sposób. Od początku przyświecała nam idea, że chcemy połączyć dwa aspekty – standaryzację i stworzenie od nowa kultury pracy z danymi i wymiany idei związanych z danymi. To oznacza, że za każdym razem, gdy nowy zespół dołącza do Fabrica, to pozwalamy mu skonsolidować jego dane. Rozpoczynamy pracę od serii szkoleń. Każdy kolejny team uczy się pracy z danymi według najlepszych praktyk. Jeśli staniemy się w tym dobrzy, to będzie to miało ogromny wpływ na oszczędności związane z niepowtarzaniem tej samej pracy kilka razy w różnych działach, tylko wykorzystywaniem istniejących już rozwiązań.

A jakie możliwości Fabrica były dla was game changerem?

Największa zmiana jakościowa dla nas, to wykorzystanie machine learning. Była to pracochłonna, ale i ekscytująca rzecz – funkcjonalność, którą minimalnie wykorzystywaliśmy w poprzednim narzędziu. To był game changer, bo po raz pierwszy na taką skalę wykorzystywaliśmy machine learning i advanced analytics – projekt ukierunkowany na predykcję danych. Ten projekt rozpoczął się po implementacji głównej. To był w zasadzie projekt flagowy, żeby, po pierwsze, pokazać na co stać Fabric, a po drugie, żeby nauczyć się całego procesu predykcji.

Jak jeszcze skorzystaliście z wdrożenia?

To, co dał nam projekt, to zrozumienie możliwości tych wszystkich narzędzi i był pierwszym krokiem w implementacji machine learning w różnych dziedzinach. Od czasu jednego projektu z predykcją cen prowadzimy już kilka kolejnych, wykorzystujących ten sam zestaw narzędzi i procesów Fabrica, np. pracujemy teraz nad usprawnieniami warehouse slot, czyli optymalizacją wykorzystania przestrzeni magazynu. Nie bylibyśmy w stanie pracować w ten sposób nad nowym projektem, gdyby nie projekt machine learning zrealizowany z zespołem ANEGIS.

O czym należy pamiętać, rozpoczynając projekty z użyciem analizy predykcyjnej?

Ogromnym wyzwaniem, z którym mierzą się firmy, jest jakość i ilość danych. Trzeba sobie zdawać sprawę z tego, że takie projekty nie zawsze dają oczekiwane rezultaty. Dopiero po zakończeniu projektu okazuje się, czy w ogóle dane, które mamy, są wystarczające, żeby usprawnienie wprowadzić. Dla każdego biznesu to jest niewiadoma. Dopóki jakiś specjalista się temu nie przyjrzy i nie powie: „Słuchajcie, to daje wam takie rezultaty, ale musicie jeszcze zgromadzić więcej danych, a dodatkowo, gdy będziecie je gromadzić, musicie pamiętać, żeby takie i takie parametry uwzględnić”. To również była dla nas wartościowa informacja – dowiedzieliśmy się, że gdy pracujemy nad takimi projektami, to jest kilka kryteriów, które muszą zostać spełnione, aby projekt był sukcesem.

Gdybyś miał, patrząc na ten projekt całościowo, zasugerować coś firmom, które też chciałyby się zdecydować na wdrożenie Microsoft Fabric, to na co powinny zwrócić uwagę?

Mam trzy rady dla takich firm. Pierwsza to: inwestuj proaktywnie w programy szkoleniowe dla swojego zespołu do spraw danych. Microsoft Fabric rozwija się bardzo dynamicznie, dlatego równie ważne jest to, żeby wdrożenie projektować elastycznie, aby móc łatwo dostosować się do zmian i nowości. I korzystaj ze wsparcia Microsoft i forów społecznościowych. To dobre źródła wiedzy, które pomogą w przygotowywaniu dokumentacji i obejściu pewnych ograniczeń.

Czy jest coś, co z perspektywy czasu zrobiłbyś w tym projekcie inaczej?

Jestem zadowolony z projektu. Na pewno nie zmienimy tej decyzji i nie wybierzemy czegoś innego, mimo wszystkich wyzwań, które mieliśmy i które są jeszcze przed nami. Cały czas mamy też na uwadze standaryzację i myślenie o tym, żeby wszystkie dane, wszystkie nasze projekty, wszystkie repozytoria były w naturalny sposób rozumiane przez maszyny. Druga sprawa jest taka, że korzystamy z wiedzy zaczerpniętej z projektu machine learning i ludzie pytają nas o ten projekt, chcą wdrażać machine learning u siebie. Zatem jeśli chodzi o zmianę kultury wokół danych i technologie, które były dla nas do odkrycia – takie jak machine learning – przechodzimy ewolucję.

Adrian Guzy będzie gościem specjalnym wydarzenia Digital Transformation Day – 22 maja 2025 w Warszawie. Podczas wystąpienia opowie więcej o podejściu CTDI do danych, wyzwaniach projektowych i zmianie kultury pracy z narzędziami analitycznymi. To okazja, aby zadać mu pytania, wymienić się doświadczeniami i porozmawiać o tym, jak skutecznie wdrażać nowoczesne platformy danych w dynamicznych organizacjach, takich jak CTDI.

Rejestracja i szczegóły wydarzenia dostępne są na stronie organizatora: https://www.anegis.com/pl/konferencje/digital-transformation-day

Więcej o samym projekcie – jego celach, przebiegu i efektach – można przeczytać w pełnym case study przygotowanym wspólnie z firmą ANEGIS: https://www.anegis.com/pl/klienci/ctdi

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *