BiznesPolecane tematy

6 nieoczywistych zagrożeń biznesowych wynikających z rosnącej popularności sztucznej inteligencji

W świecie kształtowanym przez sztuczną inteligencję (Artificial Intelligence) coraz większe znaczenie odgrywa umiejętność oceny sytuacji i podejmowania decyzji przez człowieka, pisze w artykule Chris Brahm, partner i szef działu Global Advanced Analytics w międzynarodowej firmie doradczej Bain & Company.

6 nieoczywistych zagrożeń biznesowych wynikających z rosnącej popularności sztucznej inteligencji

Praktycznie każdy z nas miał do czynienia z sytuacją, w której mógł się przekonać, jak bardzo zależymy od mechanizmów bazujących na sztucznej inteligencji. Mogło to być na przykład, gdy siedzieliśmy jako pasażer na tylnym siedzeniu samochodu. Właśnie taka sytuacja spotkała mnie kilka miesięcy temu, gdy jechałem z podmiejskiego Scarsdale do Nowego Jorku. Autem kierował Nepalczyk, który niedawno osiedlił się w USA. To, jak szybko był w stanie znaleźć pracę, pokazuje, jak duże możliwości ekonomiczne otwierają przed nami platformy typu „rideshare”, z których korzystałem. Kiedyś, kierowca musiał przed wyruszeniem w trasę długo uczyć się mapy okolicy, aby przewieźć klienta z jednego miejsca w drugie. Dziś aplikacje nawigacyjne bazujące na sztucznej inteligencji sprawiają, że ów człowiek mógł rozpocząć pracę zaledwie kilka tygodni po wylądowaniu w Stanach Zjednoczonych.

Algorytmy realizują coraz poważniejsze zadania. Należą do nich: definiowanie cen w e-sklepie, wyliczanie stawki ubezpieczenia, a nawet podejmowanie decyzji o zatrudnieniu kogoś. Aby zminimalizować skalę potencjalnych zagrożeń, osoby odpowiedzialne za podejmowanie decyzji o wykorzystaniu sztucznej inteligencji już na wstępie powinny przewidywać, w jaki sposób dany algorytm może zostać zmanipulowany i jak go zmienić, aby maksymalnie utrudnić tego typu działania.

Z perspektywy kierowcy Nowy Jork posiada jedną z najbardziej skomplikowanych sieci dróg na świecie. Nawet z pomocą mapy mój kierowca miał sporo problemów. Po wykonaniu kilku nieprzepisowych manewrów i nieplanowanym tankowaniu, ostatecznie dowiózł mnie na miejsce. Aczkolwiek wychodząc z auta nie mogłem powstrzymać się od myśli, że minęły już te czasy, kiedy od kierowcy mogłem oczekiwać dużo większego doświadczenia.

Ponieważ sztuczna inteligencja coraz częściej pojawia się w naszym życiu, ważne jest, byśmy byli w stanie dostrzec i zrozumieć nie tylko jej zalety, ale również nieplanowane, często negatywne skutki. Jeżeli chodzi o zalety, to wystarczy wspomnieć, że AI chroni nas przed zagrożeniami, ułatwia komunikację i dostarcza odpowiedzi szybciej i lepiej, niż robią to ludzie. Wspaniale, że uwalania nas np. od żmudnego śledzenia mapy. Ale czy zdajemy sobie sprawę, że ta nowa wolność powoduje jednocześnie, że tracimy część naszych umiejętności i wiedzy? Czy potrafimy temu zapobiec?

Bain & Company dostrzega sześć zagrożeń związanych z wdrażaniem AI, których powinniśmy być świadomi. Omówmy każde z nich z osobna.

Zagrożenie nr 1: AI może tworzyć ukryte błędy

W przeciwieństwie do tradycyjnego, opartego na regułach, programowania, modele AI są statystycznym odzwierciedleniem świata. Generują odpowiedzi w oparciu o procesy uczenia maszynowego. Procesy te są jednak często nieprzejrzyste a ich zdolność do szybkiego skalowania sprawia, że poważne błędy mogą pozostać ukryte, aby ujawnić się w najmniej oczekiwanym momencie.

Przybywa różnego rodzaju nadużyć opartych na sztucznej inteligencji lub wykorzystującej jej dzisiejsze ograniczenia. Na przykład spamerzy już dawno nauczyli się, jak najlepiej wykorzystać do swoich celów uczenie maszynowe. Mamy przy tym wszelkie powody, by podejrzewać, że hakerzy dopiero zaczynają interesować się wykorzystywaniem AI na dużą skalę. Spójrzmy, jak podczas kampanii wyborczej w USA manipulowano aktualnościami prezentowanymi w serwisach społecznościowych lub jak działa biznes optymalizacji treści dla wyszukiwarek.

Znamy przypadki – działających w mediach społecznościowych – chatbotów, które potrafiły na podstawie dostarczanych im danych prezentować rasistowskie poglądy. Sprawa staje się tym bardziej poważna, kiedy myślimy o programowaniu autonomicznych systemów kierowania autami lub samolotami. Ilość danych, na podstawie których działają dzisiejsze rozwiązania AI, rośnie lawinowo. Stale zwiększają się też możliwości sztucznej inteligencji. Z drugiej strony, ciągle wykrywamy błędy w ich algorytmach. Niestety niekiedy ma to miejsce dopiero wtedy, gdy dojdzie do tragedii.

Zagrożenie nr 2: AI może doprowadzić do zaniku niektórych umiejętności w tym, krytycznego myślenia oraz rozumienia

Nie tylko kierowcy platform ridesharingowych są zagrożeni przesadnym poleganiem na rozwiązaniach sztucznej inteligencji. Pewien inżynier z Doliny Krzemowej wyznał ostatnio, że działający na jego stronie system rekomendacji działa tak dobrze, że „jego zespół nie musi już tak dużo myśleć”. Nieważne, czy prowadzisz dział finansów wykorzystujący algorytm wyliczający prognozy sprzedaży, czy jesteś handlowcem używającym tych samych danych do pozyskiwania klientów – weź pod uwagę, jak bardzo niebezpieczna byłaby dla Ciebie utrata zdolności rozumienia podstawowych mechanizmów, na których opiera się funkcjonowanie twojej firmy lub popyt na Twoje produkty.

Zagrożenie nr 3: AI może generować nowe niebezpieczeństwa

Dzisiejsze algorytmy AI, podobnie jak ludzie, są podatne na manipulacje. Jednak o ile pracownik zazwyczaj nie podejmuje zbyt wielu decyzji każdego dnia i jest nadzorowany przez przełożonego, to o tyle algorytm takich decyzji podejmuje bardzo wiele i często pozostają one niezauważone. W efekcie przybywa nadużyć wykorzystujących dzisiejsze ograniczenia sztucznej inteligencji. Na przykład spamerzy już dawno nauczyli się jak najlepiej wykorzystać do swoich celów uczenie maszynowe. Mamy przy tym wszelkie powody, by podejrzewać, że hakerzy dopiero zaczynają interesować się wykorzystywaniem AI na dużą skalę.

Brak transparentności w zakresie funkcjonowania algorytmów sztucznej inteligencji budzi obawy, że decyzje podejmowane przez AI mogą być w jakiś sposób zmanipulowane i stronnicze. Może zdarzyć się np., że wnioski wyciągnięte przez sztuczną inteligencję po prostu powielą błędy i wypaczenia obecne w dostarczonych im danych. Możemy mieć do czynienia z sytuacją, w której działający na podstawie danych o aktualnych klientach algorytm określający preferencje zakupowe nie będzie dostarczał wartościowych danych, ponieważ zapętli się w powielaniu informacji o klientach, którzy zakupu już dokonali – a co z osobami, które klientami jeszcze nie są?

Spójrzmy, jak podczas kampanii wyborczej w USA manipulowano informacjami prezentowanymi w serwisach społecznościowych lub jak działa biznes optymalizacji treści dla wyszukiwarek. Słabości algorytmów mogą być i są wykorzystywane. Powodów do zmartwień pojawia się coraz więcej, ponieważ algorytmy realizują coraz poważniejsze zadania. Należą do nich: ustalanie cen w e-sklepie, obliczanie stawek ubezpieczenia samochodowego, a nawet podejmowanie decyzji o znalezieniu pracownika. Aby zminimalizować skalę potencjalnych zagrożeń, osoby odpowiedzialne za wdrażanie rozwiązań opartych na sztucznej inteligencji już na wstępie powinny przewidywać w jaki sposób dany algorytm może ulec manipulacji i jak temu zapobiec.

Zagrożenie nr 4: AI może przyczyniać się do tendencyjności

Większość systemów sztucznej inteligencji uczy się w oparciu o dostarczone zestawy danych. Zwykle eksperci rozumieją, w jaki sposób algorytm doszedł do danego rozwiązania, ale nie zawsze.

Brak transparentności w zakresie funkcjonowania algorytmów sztucznej inteligencji budzi obawy, że decyzje podejmowane przez AI mogą być stronnicze. Może zdarzyć się np., że błędnie wyciągnięte wnioski lub negatywne stereotypy będą powielane. Algorytm może np. faworyzować preferencje już istniejących klientów względem nowych. Pytanie co z preferencjami osób, które klientami jeszcze nie są?

Jeżeli weźmiemy pod uwagę, że algorytmy sztucznej inteligencji angażujemy dziś w praktycznie wszystkie sfery naszego życia, od rekrutacji, po dostarczanie usług, to istnieje realne ryzyko , że AI będzie patrzyła wstecz i powtarzała scenariusze z przeszłości.

Zagrożenie nr 5: AI może przyczynić się do zaniku empatii

Coraz więcej firm używa botów i innych zautomatyzowanych rozwiązań do kontaktów z klientami, co jednak może prowadzić do utraty bliskiej więzi z odbiorcami. Sztuczna inteligencja stanowi również zagrożenie dla menedżerów, którzy do zarządzania zespołami używają algorytmów. Oddala ich bowiem od pracowników i ich problemów. Z drugiej strony negatywne skutki wykorzystania AI w relacjach z ludźmi nie muszą być regułą. W ostatnim czasie leciałem liniami Virgin Atlantic i akurat lot był opóźniony o 45 minut. Gdy wylądowałem, linia automatycznie wysłała mi przeprosiny oraz kupon rabatowy na kolejny lot. To sprawiło, że nie czułem irytacji i byłem pozytywnie zaskoczony. Jest to świetny przykład właściwego wykorzystania możliwości AI.

Zagrożenie nr 6: AI może prowadzić do utraty kontroli

Choć systemy wspierane sztuczną inteligencją z pewnością pozwalają na zdynamizowanie procesów biznesowych i uniknięcie wielu typowo ludzkich błędów, to niekiedy człowiek po prostu musi być zaangażowany w procesy decyzyjne. Nie ma chyba lepszego przykładu niż drony wojskowe bombardujące cele militarne. Dziś jest dla nas oczywiste, że ostateczna decyzja o ataku pozostaje w gestii człowieka, ale wraz z upowszechnianiem się AI również i to może się zmienić. Tylko czy będzie to decyzja właściwa? Z czasem podobnych pytań pojawiać będzie się coraz więcej. Dlatego ogromne znaczenie ma tu zaangażowanie liderów w definiowanie celów i zakresu zastosowania sztucznej inteligencji.

Liderzy biznesowi muszą być zaangażowani w definiowanie celów i zabezpieczeń związanych z wdrażaniem sztucznej inteligencji. Instytucje finansowe, które przez dekady coraz mocniej opierały swoje funkcjonowanie na algorytmach kredytowych, będą musiały wdrożyć nowe rozwiązania z dziedziny zarządzania ryzykiem. Podobne rozwiązania, związane z zarządzaniem AI, będą również niezbędne w wielu innych organizacjach na dużą skalę korzystających ze sztucznej inteligencji na potrzeby rozwoju własnego biznesu. Każdy znaczący algorytm w firmie powinien mieć swojego product managera – człowieka odpowiedzialnego za jego sprawdzanie i testowanie.

Każdy znaczący algorytm powinien mieć swojego product managera – osobę, która doskonale rozumie jak on działa oraz odpowiada za audyt efektów, a także wprowadzanie usprawnień z wykorzystaniem uwag klientów, pracowników, partnerów. Zaangażowanie ludzi niezbędne będzie także w całościowym zarządzaniu systemami sztucznej inteligencji w firmach i organizacjach. Tworzenie, wdrażanie i zarządzanie algorytmami powinno przebiegać z uwzględnieniem czynników typowo ludzkich. Każda organizacja musi też być w stanie określić sytuacje, w których sztucznej inteligencji zaufać nie wolno.

Okiełznać sztuczną inteligencję

Specyfika zarządzania procesami biznesowymi realizowanymi przy – coraz szerszym – wykorzystaniu sztucznej inteligencji jest zależna od kontekstu stosowania AI i istoty działalności danej firmy. W każdej sytuacji nieco inne będą korzyści i zagrożenia związane z wdrażaniem AI.

Istnieją jednak pewne podstawowe pytania, które menedżer powinien postawić, aby poprowadzić dyskusję na temat wdrażania sztucznej inteligencji. Oto one:
• Jak dobrze dany algorytm wpisuje się w podstawowe zasady działania naszego biznesu? Czy nie będzie stał w sprzeczności z kluczowymi zasadami działania firmy?
• Kto zadba o to, by wdrożenie sztucznej inteligencji przyniosło zakładane korzyści biznesowe, a nie problemy?
• Kto w sposób bezpośredni odczuje skutki wykorzystania algorytmu? Czy uwzględniono dotychczasowe uwagi tych osób? W jaki sposób będziemy pozyskiwali ich opinie w przyszłości?
• Kto będzie odpowiedzialny za zarządzanie konkretnym algorytmem? Jakie cele stawiamy przed tymi osobami jeśli chodzi o zwiększenie efektywność i innowacyjność algorytmu?

Skalowalność i szybkie upowszechnianie się sztucznej inteligencji sprawia, że jej algorytmy mogą błyskawicznie obejmować swoim zasięgiem miliony osób. Konkurencyjność i postęp sprawiają, że wszyscy chcieliby z niej jak najszybciej skorzystać. Jednak technologia sama w sobie nie prowadzi do rozwoju. To ludzie decydują o tym, w jaki sposób sztuczna inteligencja będzie wykorzystywana. Dlatego w świecie kształtowanym przez AI, rola człowieka staje się ważniejsza niż kiedykolwiek wcześniej.

Chris Brahm,
partner Bain & Company, szef działu Global Advanced Analytics

Artykuł ukazał się na łamach Magazynu ITwiz nr. 12/2018.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *