BiznesAnalitykaCDOPolecane tematy

Analityka biznesowa: z czego wynika powodzenie prognozowania

Bez względu na horyzont czasowy, prognoza może być efektywnym narzędziem wspierającym proces planowania. Dla niektórych mechanizmów jest łatwiejsza, dla innych bardziej skomplikowana. Procesy powtarzające się w cyklach bądź generowane prawami natury, mogą w teorii wydawać się łatwiejsze do estymacji, inne, takie jak rezultaty wydarzeń sportowych są mniej przewidywalne.

Analityka biznesowa: z czego wynika powodzenie prognozowania

Od wieków, w niemal każdej kulturze na świecie, próbowano przewidywać przyszłość na rożne sposoby i w różnych celach. W czasach starożytnych i średniowieczu przewidywanie przyszłości było swego rodzaju przygotowaniem się na niepojęte zjawiska i działanie żywiołów. Podobnie jak obecnie, człowiek pragnął podporządkować sobie wiedzę o przyszłości i wykorzystać ją do własnych celów. Dziś przewidywanie przyszłości opiera się na matematyce, skomplikowanych algorytmach i dostępności danych historycznych.

Prognozowanie to niewątpliwie trudne zagadnienie. Dobrze zdefiniowana i wykonana prognoza ma kluczową wartość w biznesie czy w codziennej egzystencji każdego z nas. O ile łatwiej i taniej – w kontekście doboru lokalizacji – byłoby, gdybyśmy wiedzieli jaka dokładnie będzie pogoda w miejscu, w którym planujemy urlop. Każdy z nas mógłby być zamożnym obywatelem, gdybyśmy potrafili bardzo dokładnie przewidzieć wahania kursów walut bądź ceny akcji spółek notowanych na giełdzie. Niestety, jest to mało prawdopodobne, ponieważ zbyt wiele czynników wpływa na statystyczne modele prognozowania. Większość z nich nigdy nie zostanie do końca poznana i co więcej zrozumiana.

Naiwnym jest myślenie o idealnej prognozie, której wynik dokładnie odzwierciedla rzeczywistą wartość. Taka bowiem nie istnieje. Jeśli się pojawi, to raczej jako dzieło przypadku, aniżeli dowodu empirycznego.

Znaczenie prognozy i co wpływa na jej jakość

Prognozowanie stało się nieodzownym elementem strategii w biznesie, ekonomii czy naukach ścisłych i społecznych. Prognozy wymagane są w procesach decyzyjnych w odniesieniu do różnych przedziałów czasu – na najbliższe lata, dni czy nawet godziny. Inwestycja w budowę nowego gazociągu to w pierwszej kolejności umiejętność określenia popytu na gaz. Centrum obsługi telefonicznej wymagać będzie prognozy wolumenu połączeń telefonicznych na najbliższe dni bądź godziny, w celu skrócenia czasu oczekiwania klienta na rozmowę z konsultantem (poprzez dopasowanie odpowiedniej ilości personelu do obsługi klienta). Przykłady można mnożyć.

Dobry model prognozy nie replikuje zdarzeń z przeszłości, tworzy natomiast schemat relacji utworzonych w oparciu o dane historyczne. Co więcej, musi brać pod uwagę zmienność procesów w ujęciu dynamicznym, a nie tylko ich stan aktualny. Model raz zbudowany wymagać będzie ciągłej pielęgnacji. Jeśli proces ten zostanie zaniechany, to trudno oczekiwać wiarygodnych prognoz w dłuższym horyzoncie czasowym.

Rob Hyndman w książce „Forecasting: principles and practice” uzależnia powodzenie ilościowego i jakościowego prognozowania od trzech czynników:

  1. 1.     Zrozumienia zmiennych, które partycypują w prognozie. Im więcej zebranych informacji tym większa możliwość manipulacji obserwacjami.
  2. 2.     Ilości dostępnych danych. Problem dotyczy głównie zbyt małej ilości danych wykorzystanych do analizy prognozy. Ograniczona ich ilość może generować wyniki niereprezentatywne dla populacji obserwowanego zjawiska.
  3. 3.     Wpływu prognozy na modelowane procesy. W założeniu prognozy budowane są w celu wspierania procesów decyzyjnych będących przedmiotem zainteresowania. Nie prognozuje się zjawisk, których przewidzieć się nie da.

Do listy można dodać wiedzę operacyjną np. strategię firmy. Wiedza ta może przekładać się na zaangażowanie innych, uprzednio niezdefiniowanych, zmiennych bądź potrzebę tworzenia agregatów (np. jednej zmiennej na postawie kilku) w celu lepszego dopasowania zmienności modelu. Warto również wspomnieć o jakości danych, która jest kluczowa dla procesu prognozowania. Nawet najlepszy model nie wygeneruje wiarygodnych rezultatów, jeżeli macierz danych zawiera puste bądź niezgodne ze stanem rzeczywistym rekordy.

Dobry model prognozy nie replikuje zdarzeń z przeszłości. Tworzy natomiast schemat relacji utworzonych w oparciu o dane historyczne. Co więcej, dobry model prognozy musi brać pod uwagę zmienność procesów w ujęciu dynamicznym, a nie tylko ich stan aktualny. Model raz zbudowany wymagać będzie ciągłej pielęgnacji. Jeśli proces ten zostanie zaniechany, to trudno oczekiwać wiarygodnych prognoz w dłuższym horyzoncie czasowym.

Metody i techniki prognozowania

Jest wiele sposobów prognozowania i służą różnym celom. Na potrzeby tego artykułu terminy prognoza i predykcja używane są zamiennie. Poniżej wyróżniono trzy kategorie modelowania:

  • ·      modele przyczynowo – skutkowe,
  • ·      szeregi czasowe,
  • ·      modele mieszane (często określane są mianem dynamicznej regresji).

Modele przyczynowo – skutkowe – to zespól technik, których model prognozy opiera się na macierzy zmiennych wyjaśniających, będących w bezpośredniej relacji ze zmienną wyjaśnianą. Zmienne wyjaśniające powinny odgrywać niezależną rolę w procesie budowy modelu. Ich korelacja nie jest wskazana i powinna być eliminowana poprzez odrzucenie zmiennej słabiej skorelowanej z danymi historycznymi wyjaśnianego zjawiska. Celem modeli przyczynowo – skutkowych jest predykcja, występująca w ramach uprzednio zdefiniowanego horyzontu czasowego, gdzie znajomość przyczyny ma zwiększać możliwość przewidywania rezultatu.

Współczesne, wielopoziomowe i krótko- oraz długoterminowe planowanie wymaga wykorzystania zaawansowanych metod prognozowania. Co więcej prognozowanie ma coraz szerszy wymiar. Nie dotyczy jedynie ekonomii, biznesu czy nauki. W Australii, gdzie spędziłem ostatnie 14 lat, zaawansowana analityka stosowana jest przez departamenty rządowe np. jako wsparcie w procesach zarządzania państwem, tworzeniu ustaw czy skutecznej ochronie granic kontynentu.

Klasycznym przykładem modelu przyczynowo – skutkowego jest powszechnie stosowana regresja (jej rożne odmiany, w tym modelowanie prawdopodobieństwa). Analiza regresji pozwala na skuteczna ocenę siły i kierunku predykcji zmiennej wyjaśnianej przy bezpośrednim udziale skore­lowanych z nią zmiennych wyjaśniających. Do kategorii modeli przyczynowo – skutkowych zaliczyć należy także niektóre formy sieci neuronowych oraz modele typu additive.

Modele szeregów czasowych – w przeciwieństwie do przyczynowo – skutkowych, koncentrują się na obserwacjach zmiennej historycznej. W typowym modelu szeregu czasowego nie występują zmienne zewnętrzne, próbujące wyjaśniać zachowanie prognozowanego zjawiska. Celem prognozy w szeregu czasowym jest natomiast „zdefiniowanie” jak obserwacje budujące model zachowają się w przyszłości. Ignorując czynniki zewnętrze, model ten trafnie wyznacza trendy i sezonowość obserwacji.

Niewątpliwym atutem modeli szeregów czasowych jest brak potrzeby gromadzenia informacji o zachowaniu zmiennych wyjaśniających zjawisko na przyszłość. Budowa modelu, jak również sama prognoza, oparta jest jedynie na wektorze danych historycznych. Przykładem mogą być techniki liczenia wygładzania wykładniczego, średniej kroczącej, ARMA (Model autoregresyjny ze średnią krocząca), bądź ARIMA (Zintegrowany model autoregresyjny ze średnią kroczącą).

Modele mieszane – łączą technikę szeregów czasowych z uwzględnieniem zmiennych wyjaśniających. Tworzone są na postawie macierzy danych zawierających zmienne zewnętrzne oraz zmienną wyjaśnianą, będącą osobnym elementem modelowania. Przykładem modelu mieszanego jest dynamiczna regresja. Jest to bardzo skuteczna metoda prognozowania pod warunkiem, że zmienne zewnętrzne określające model są zrozumiałe i skorelowane z wyjaśnianym zjawiskiem.

Doskonałym przykładem użycia dynamicznej regresji może być sprzedaż produktu w sieci sprzedaży detalicznej. Prognoza produktu w promocji bądź sprzedaż produktu w okresie przedświątecznym powinny być uwzględnione w macierzy danych. Zagrożeniem, podobnie jak w przypadku modeli przyczynowo – skutkowych jest „overfitting”, czyli sytuacja, w której model staje się nadmiernie rozbudowany w wyniku użycia zbyt dużej liczby parametrów w stosunku to ilości danych historycznych. Taki model zazwyczaj zwraca mało wiarygodne prognozy, ponieważ cześć zmienności (dopasowania) modelu jest wyjaśniana przez niepotrzebnie zaangażowane zmienne.

Klasycznym przykładem modelu przyczynowo – skutkowego jest powszechnie stosowana regresja (jej rożne odmiany, w tym modelowanie prawdopodobieństwa). Analiza regresji pozwala na skuteczna ocenę siły i kierunku predykcji zmiennej wyjaśnianej przy bezpośrednim udziale skorelowanych z nią zmiennych wyjaśniających. Do kategorii modeli przyczynowo – skutkowych zaliczyć należy także niektóre formy sieci neuronowych oraz modele typu additive.

Modele mieszane – podobnie jak modele szeregów czasowych – dedykowane są prognozowaniu zachowania zjawiska w przyszłości i nie są ograniczone jakimkolwiek horyzontem czasowym.

Jak badać jakość modelu i prognozy?

To niewątpliwie trudne zagadnie, gdyż twórca modelu kierować się będzie innymi kryteriami niż odbiorca wyników prognozy. Dla twórcy modelu to wskaźniki matematyczne zadecydują o ocenie jego jakości. Dla odbiorcy (np. działu sprzedaży, któremu model został dedykowany) skuteczność modelu determinowana może być miarą odchyleń sprzedaży rzeczywistej w odniesieniu do prognozy. Interpretacja statystycznych wskaźników oceny jakości modelu prognozowania to złożony temat, w szczególności w obszarze szeregów czasowych. Rozkład wartości rezydualnych, ich autokorelacja i testowanie czy kryteria typu (BIC, AIC, maximized log-likelihood) nie są z reguły przedmiotem zainteresowania finalnego użytkownika.

Dla użytkownika istotnym będzie mierzalny efekt końcowy. W kontekście sprzedaży produktów delta jest często spotykanym kryterium oceny jakości prognozy. Delta rozumiana jako wartość bezwzględna różnicy pomiędzy ilością rzeczywistą a prognozą, pozostaje raczej miarą ułomną. Nie oddaje ona kontekstu biznesowego, ponieważ pomijany jest np. element istotności prognozowanego produktu w procesie generacji przychodu. Dodatkowo delta dzielona przez sprzedaż, w celu uzyskania proporcji jest nieskalowalna w sytuacjach, gdy wartość delty jest większa od samej sprzedaży (wartości od jeden do nieskończoności).

Teorii jak mierzyć i interpretować odchylania wartości rzeczywistych od prognozy jest wiele. Brak jednak odpowiedzi, która byłaby jednoznaczna, a różne techniki generują odmienne wyniki, często sprzeczne.

W jakim celu prognozujemy?

Współczesne, wielopoziomowe i krótko- oraz długoterminowe planowanie wymaga wykorzystania zaawansowanych metod prognozowania. Co więcej prognozowanie ma coraz szerszy wymiar. Nie dotyczy jedynie ekonomii, biznesu czy nauki. W Australii, gdzie spędziłem ostatnie 14 lat, zaawansowana analityka stosowana jest przez departamenty rządowe np. jako wsparcie w procesach zarządzania państwem, tworzeniu ustaw czy skutecznej ochronie granic kontynentu.

Celem prognozy w szeregu czasowym jest „zdefiniowanie” jak obserwacje budujące model zachowają się w przyszłości. Ignorując czynniki zewnętrze, model ten trafnie wyznacza trendy i sezonowość obserwacji. Niewątpliwym atutem modeli szeregów czasowych jest brak potrzeby gromadzenia informacji o zachowaniu zmiennych wyjaśniających zjawisko na przyszłość. Budowa modelu, jak również sama prognoza, oparta jest jedynie na wektorze danych historycznych.

Prognozy tworzone są w celu ułatwienia podejmowania (z wyprzedzeniem) odpowiednich decyzji i działań o charakterze krótkoterminowym i strategicznym. Na ich postawie możliwe jest podjęcie działań korygujących i optymalizacja wyników. Dobra prognoza buduje przewagę konkurencyjną nad podmiotami, które z prognoz nie korzystają.

Prognozowanie jest zagadnieniem złożonym, a im odbiorca posiada większą wiedzę o tym, w jaki sposób interpretować wyniki, tym prognozowanie jest bardziej efektywne. Warto również mieć na uwadze fakt, iż nawet niedokładna prognoza jest często lepsza niż jej brak, bowiem każda kolejna iteracja ma szansę eliminować jej niedoskonałości, generując lepsze wyniki.

Jarek Tkocz jest Data Scientist w SILMINE.

Bibliografia: Hyndman, R. J., Athanasopoulos, G., “Forecasting: principles and practice”, OTexts.com, 2014.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *