CDOITwiz 100Polecane tematy

Quo vadis Artificial Intelligence?

PRZYSZŁOŚĆ LUDZKOŚCI

Artificial Intelligence, Machine Learning, Data Science – to pojęcia, które w ostatnich latach zaczęły dominować scenę technologiczną, od Doliny Krzemowej po Shenzen. Mimo że istnieje wiele „książkowych” definicji, nie oddają powszechnego zrozumienia tych haseł.

Quo vadis Artificial Intelligence?

Dzisiejsze AI potrafi m.in.: generować i edytować dowol­ne obrazy i zdjęcia na podstawie tekstu (wystarczy na jednym z serwisów wpisać np. „pies na księżycu w stylu Rembrandta”); tworzyć kilkunastosekundowe filmy na pod­stawie przesłanego scenariusza; wymyślać nowe fasony ubrań i obuwia; projektować meble; rozwiązywać zadania z między­narodowej olimpiady matematycznej; imitować głos i mimikę człowieka na podstawie dostarczonego, krótkiego nagrania; rozwiązywać zadania rekrutacyjne dla programistów; gene­rować podkłady muzyczne; symulować proces fałdowania białek; odkrywać nowe meta materiały; usprawniać własny kod źródłowy, tworząc silniejsze AI…

Z perspektywy ostatnich 10 lat pracy „od kuchni” nad al­gorytmami i zastosowaniami uczenia maszynowego, jedno wydaje się pewne – sztuczna inteligencja jest coraz bliżej nas. Jednak ogólny poziom świadomości na temat status quo AI coraz mocniej odstaje od rzeczywistości. To naturalne zja­wisko. Silna specjalizacja i koncentracja know-how towa­rzyszy wszystkim dziedzinom nauki i techniki. W końcu kto z nas wie, jak dokładnie zaprojektowana jest turbina gazowa w nowoczesnej elektrowni? Jednak w przeciwieństwie do AI, ani turbina gazowa, ani rakieta kosmiczna, ani wiele innych technologii nie mają potencjału, aby zastąpić człowieka w ty­siącach zawodów, przedefiniować dziesiątki tysięcy innych i zatrząść fundamentami cywilizacji.

Traktowanie AI jak „nowoczesnej turbiny gazowej” – technicz­nego aspektu świata, który można mentalnie zaszufladkować jako „egzotyczne zabawki inżynierów i naukowców”, czy za­mknąć w organizacyjnym silosie zwanym często Data Scien­ce – jest szalenie niebezpieczne. W prywatnych rozmowach porównuję często AI do buldożera, który nadjeżdża z bardzo daleka, a napotkane na swojej drodze problemy nie tylko rów­na z ziemią, ale też pożera, stając się coraz bardziej potężny.

Prędzej czy później, każde przedsiębiorstwo i każda dziedzina życia będą musiały „buldożerowi AI” stawić czoła. Tylko od naszego rozeznania, wiedzy i perspektywy zależy, czy wsko­czymy za jego kierownicę, czy też staniemy się jednym z „roz­wiązanych problemów”.

Traktowanie AI jak technicznego aspektu świata – który można zaszufladkować jako „egzotyczne zabawki inżynierów i naukowców” – jest niebezpieczne. W prywatnych rozmowach porównuję AI do buldożera, który napotkane problemy równa z ziemią, ale też pożera, stając się potężniejszy.

Jakie czynniki decydują o rozwoju AI?

Aby zrozumieć dotychczasową ewolucję sztucznej inteligencji i przewidzieć kierunki jej dalszego rozwoju, trzeba zidentyfikować czynniki napędzające i limitujące rozwój tej dziedziny. Większość pomysłów, które w ostatniej dekadzie odniosły sukces i złożyły się na to, co dziś możemy nazwać „rewolucją Deep Learningu”, zostało sformułowanych już w latach 90. XX wieku.

Wtedy to naukowcy-pasjonaci tworzyli pierwsze prototypy systemów przetwarzających teksty czy obrazy przy użyciu sie­ci neuronowych. Stawiali też odważne hipotezy i projektowali (choć często tylko na papierze) architektury systemów samo­uczących i samousprawniających się. Identyfikowali również kluczowe problemy związane z ich budową. Ich prace były jednak mało znane, poza grupką zapaleńców zafascynowa­nych sieciami neuronowymi. Dziś, choć nie jest to wiedza po­wszechna, znaczną część największych sukcesów AI stanowią ucieleśnienia pomysłów z lat 90. lub wariacje na ich temat.

Co więc się zmieniło? Dlaczego teraz te same pomysły po­zwalają osiągać rzeczy, które 30 lat temu pozostawały w sfe­rze fantastyki? Istnieją trzy główne czynniki, które stanowią paliwo dla rozwoju sztucznej inteligencji – mogą go zarówno napędzać, jak i limitować. Są to: moc obliczeniowa, dane oraz dostępne zasoby finansowe i ludzkie.

Czynnik 1: Moc obliczeniowa i hardware

W 2011 roku sieci neuronowe po raz pierwszy pokonały czło­wieka w przetwarzaniu obrazu. Stało się to możliwe dzięki zastosowaniu akceleratorów GPU do trenowania konwolucyj­nych sieci neuronowych (które istniały znacznie wcześniej). Niedostępna wówczas moc obliczeniowa pozwoliła zapocząt­kować rewolucję. W miarę rozwoju technologii, coraz silniejsze akceleratory GPU pozwalały na coraz szybsze uczenie coraz to większych modeli. Dekadę temu rozwojem technologii GPU sterował popyt od graczy. Dziś to popyt na AI decyduje o tym, jaką architekturę będą miały flagowe karty graficzne. Obec­nie najnowsze chipy są wyposażone w specjalne rdzenie do szybkich operacji tensorowych oraz biblioteki software’owe przeznaczone do Deep Learningu.

To, że dostęp do hardware’u nadaje tempo rozwojowi AI jest oczywiste. Najnowsze modele do przetwarzania języka natural­nego mają tryliony parametrów. Ostatnie modele do przetwa­rzania obrazów trenowane są na klastrach o ponad 4000 GPU. Pojedynczy trening potrafi zaś trwać kilka miesięcy, przy kosz­tach trenowania sięgających milionów dolarów. Do tej pory moc akceleratorów podwajała się co ok. 18 miesięcy.

Technologie służące do budowy AI zaczęły być postrzegane przez polityków jako strategiczne. W sierpniu 2022 roku USA zabroniły Nvidii eksportu GPU do Chin, co spowoduje niemałe problemy zarówno dla chińskiego rynku startupów, jak i dziurę w budżecie amerykańskiego producenta.

Czy tak będzie zawsze?

W najbliższej dekadzie hardware może stać się czynnikiem hamującym rozwój sztucznej inteligencji. Nvidia, która ma pozycję monopolisty na rynku AI, ogłosiła, że Prawo Moore’a (podwajanie się mocy obliczeniowej przy tej samej cenie) przestało mieć zastosowanie ze względu na rosnące ceny surowców i problemy z łańcuchami dostaw.

Jednocześnie technologie służące do budowy AI zaczęły być postrzegane przez polityków jako strategiczne. W sierpniu 2022 roku USA zabroniły Nvidii eksportu GPU do Chin, co spowoduje niemałe problemy zarówno dla chińskiego rynku startupów, jak i dziurę w budżecie amerykańskiego produ­centa. Jako że Tajwan stanowi klejnot koronny w łańcuchu produkcji chipów AI, potencjalny konflikt z Chinami może spowolnić rozwój AI na kilka lat.

GPU to jednak nie jedyna technologia możliwa do wykorzystania na potrze­by AI. Firmy takie jak Google, Huawei, Cerebras, Graphcore oraz dziesiątki, świetnie dofinansowanych startu­pów pracują nad Świętym Gra­alem – ultrawydajnym sprzętem do trenowania sieci neurono­wych. Niektóre z tych rozwiązań są już od kilku lat dostępne, jak choćby Google TPUv3 czy Huawei Ascend 910. Inne – bardzo ambit­ne podejścia (np. chipy optyczne) są na etapie badawczo-rozwojowym.

Na razie trudno wskazać zwycięzcę, czy choćby odpowiedzieć na pytanie, czy któ­rejś technologii uda się zagrozić monopolowi Nvidii. Prawdopodobnie rozstrzygnie się to w ciągu 2–4 lat. Oprócz wydajnego hardware’u ważne jest też wsparcie software’owe i niska bariera wejścia dla inżynierów.

Czynnik 2: Dane i ich dostępność

Gigantyczne sukcesy AI w zakresie przetwarzania języka na­turalnego i obrazów nie są przypadkowe. Właśnie te dane są najłatwiej dostępne – w praktycznie nieograniczonych ilościach – w szeroko pojętym internecie. Jako że obecna sy­tuacja legislacyjna dopuszcza trenowanie modeli nawet na utworach objętych prawem autorskim (na podstawie ame­rykańskiej doktryny Fair Use), największe z istniejących mo­deli są trenowane właściwie na wszystkim, co da się w sieci znaleźć: tekstach i obrazach ze stron internetowych, kodach źródłowych z GitHub, publikacjach naukowych itd.

To dostępność danych, w połączeniu z mocą obliczeniową, dyktuje dziś główne kierunki rozwoju AI. Stąd takie modele, jak GPT-3 (generacja tekstu), Copilot (generacja kodu progra­mów), Dalle-2 czy Imagen (generacja obrazów z tekstu) i setki ich zastosowań do bardziej wyspecjalizowanych zagadnień. Oczywiście nad tymi, już w znacznym stopniu „rozwiązanymi” problemami w dalszym ciągu toczą się prace, a zastosowania w setkach dziedzin wymagają przekucia dostępnej dziś tech­nologii w produkty przyjazne użytkownikom.

Jakich innych rodzajów danych jest dużo, ale nie są dziś jeszcze wykorzystywane? Filmów. To one będą stanowić następny problem „pożarty” przez AI w imponujący sposób. Już teraz istnieją modele potrafiące wygenerować kilkunastosekundo­wy film na podstawie kilku zdań scenariusza. Prawdopodobnie w ciągu roku będziemy świadkami eksplozji możliwości gene­racji i edycji hiperrealistycznych filmów na podstawie tekstu.

W unikalnej pozycji posiadania obszernych i bardzo cennych zbiorów danych znajdą się operatorzy tzw. SuperApps, czyli aplikacji umożliwiających jednocześnie komunikację, płatności, zakupy, konsumpcję mediów, trans­port, umawianie wizyt u lekarzy, nadawanie i odbiór przesyłek czy grę na giełdzie. Najbardziej znane dziś przykłady ta­kich aplikacji to giganci z Azji: Ali­pay, Gojek, Grab czy WeChat.

Można przypuszczać, że w nie­dalekiej przyszłości w wielu kra­jach odbędzie się bardzo cieka­wa „gra o tron” SuperAppsów w celu uzyskania dominującej pozycji rynkowej. Ścierać będą się operatorzy lokalni z globalny­mi, jak również dotychczasowi li­derzy klasycznego biznesu z zupeł­nie nowymi startupowymi graczami.

Kolejne, ogromne źródła danych o wysokiej gęstości informacyjnej to logi z sensorów IoT, różnego rodzaju metadane transmisyjne, dane po­chodzące z (nadchodzącej wielkimi krokami) digitalizacji walut narodowych, profili zdrowotnych czy innych danych ściśle prywatnych.

Dostęp do takich danych dla sektora prywatnego jest prak­tycznie niemożliwy ze względu na aspekty prawne i bezpieczeństwo narodowe. Tego typu badania zostaną najprawdo­podobniej zmonopolizowane przez instytucje państwowe, gdy tylko rządy zorientują się, jakie możliwości daje Artificial Intelligence.

Alternatywę dla SuperApps i niedostępnych danych prywat­nych stanowi wykreowanie nowych sposobów tworzenia da­nych przez samych użytkowników. Metaverse, Augmented Reality – a więc innowacyjne formuły interakcji użytkowników z „wirtualnym światem” – mają duży potencjał na generowa­nie niespotykanych dotąd ilości paliwa dla modeli AI. Nie jest jednak jasne, czy takie rozwiązania spotkają się z gotowością użytkowników na ich adopcję.

Mimo dotychczas chłodnego przyjęcia tych pomysłów, na­leży pamiętać o nadchodzących możliwościach generowa­nia wirtualnej rzeczywistości przez AI. Jeśli TikTok potrafi „zhakować” system dopaminowy użytkowników, używając do tego treści stworzonych przez ludzi, co stanie się, jeśli AI będzie w stanie generować dowolne treści audiowizualne, dopasowując się perfekcyjnie do preferencji użytkownika?

Jeśli TikTok potrafi „zhakować” system dopaminowy użytkowników, używając do tego treści stworzonych przez ludzi, co stanie się, jeśli AI będzie w stanie generować dowolne treści audiowizualne, dopasowując się perfekcyjnie do preferencji użytkownika?

Czynnik 3: Zasoby finansowe, ludzkie i motywacja

Oczywiście o ile dane są paliwem, a hardware silnikiem – to ludzie stoją za kierownicą rozwoju sztucznej inteligen­cji. Proces digitalizacji społeczeństwa umożliwił powstanie firm, takich jak Google, Meta, Amazon, Spotify, Netflix czy Uber. Firmy te – łamiąc dotychczasowe kanony biznesowe – postanowiły uczynić zbieranie i analizę danych sercem swojej działalności.

Firmy te stworzyły pierwsze komercyjne ośrodki badawcze AI z budżetami wielokrotnie przekraczającymi najbogat­sze uczelnie wyższe. Dzięki przytłaczającemu sukcesowi tych digitalowych pionierów, udało się zaszczepić ideę „Data­-Driven Decision Making” w wielu klasycznych przedsiębiorstwach. Powstały nowe kierunki studiów, uczelnie znacznie rozszerzyły ofertę edukacyjną, a globalny rynek pracy bar­dzo się zmienił.

Ambicje dotyczące pracy przy sztucznej inteligencji czy Data Science są dziś coraz bardziej popularne nie tylko wśród młodych ludzi, ale też doświadczonych ekspertów z innych branż. Jednak przepustowość uczelni jest ograniczona, a w perspektywie globalnej system edukacyjny nie nadąża za zmianami koniecznymi, aby przygotować społeczeństwo na nadchodzącą erę AI.

Uczenie maszynowe i Data Science są dziedzinami wysoce technicznymi. Wymagają zarówno doskonałej znajomości matematyki i informatyki, jak i statystyki. Nie zastąpi tego 3-miesięczny kurs online. Zjawiskiem, które moż­na zaobserwować na rynku, jest centralizacja talentu – technologiczni liderzy rynkowi skupiają w laboratoriach AI najbar­dziej uzdolnionych pracowników naukowych i inżynierów. Pozo­stałe przedsiębiorstwa, zwłasz­cza te, dla których technologia nie stanowi kluczowej warto­ści, mają poważne problemy ze znalezieniem kompetent­nych pracowników. Natomiast nietechniczni menedżerowie zwykle nie potrafią właściwie ocenić kompetencji zatrudnia­nych naukowców.

Skutkiem takiego obrazu rzeczy jest istnienie w wielu przedsiębior­stwach „silosów” Data Science – struk­tur organizacyjnych, których rzekomym zadaniem jest dostarczanie i raportowanie informacji na podstawie danych. Nietechniczni me­nedżerowie podejmują decyzje biznesowe, posiłkując się pochodzącymi z owych silosów raportami „Data-Driven”. Taka sytuacja nie różni się zbytnio od wysokopoziomowych decyzji podejmowanych na podstawie raportów firm con­sultingowych – które służą często za asekurację dla nie­trafionych decyzji lub polityczną amunicję do pozyskania poparcia dla własnych pomysłów.

Można postawić hipotezę, że ponad 50% decyzji „Data-Dri­ven” zapadających w nietechnologicznych przedsiębiorstwach mających działy Data Science podejmowanych jest w błędny sposób – na podstawie złych założeń, błędnie sformułowanych hipotez, bez uwzględnienia czynników zewnętrznych, czy pod presją na konkretny rezultat, którego oczekuje menedżer. Im bar­dziej błędny model/badanie, tym bardziej spektakularne wyniki, a spektakularne wyniki to klucz do sukcesu w walce o budżet.

Aby obecny stan rzeczy się zmienił, konieczne jest radykalne, a nie tylko powierzchowne przyjęcie metodologii „Data-Dri­ven” lub – co lepsze – „Algorithmic Decision Making”. Wiąże się to z koniecznością podnoszenia kompetencji technicznych kadr kierowniczych. Perspektywa oddania części decyzyjności naukowcom może budzić niechęć zarządzających, choć siły rynkowe nieubłaganie wymuszą te zmiany. Z pomocą przy­chodzą tu dostawcy usług AI, ML i Data Science – ze względu na to, że technologia stanowi jądro ich działalności, łatwiej jest im przyciągnąć najbardziej utalentowanych pra­cowników i zadbać o rygor naukowy tworzo­nych rozwiązań.

Główne czynniki dyktujące tempo i kierunek rozwoju AI mogą su­gerować, że dziedzina zmierza do całkowitej centralizacji. Naj­większe modele mogą trenować tylko laboratoria z wielkimi bu­dżetami, dostępem do ogrom­nych zbiorów danych i potężnej mocy obliczeniowej. Do niedaw­na w środowisku naukowym pa­nowało rozgoryczenie tą sytuacją. Największe laboratoria komercyjne, Google, OpenAI czy Microsoft, dwa lata temu przestały udostępniać swoje gigan­tyczne modele społeczności i zaczęły pobie­rać opłaty za dostęp do nich poprzez API.

Jednak te eksperymentalne sposoby komercjalizacji zostały podane w wątpliwość przez oddolne inicjatywy społeczności naukowej. Publiczno-prywatna współpraca pomiędzy Ludwig Maximillian University Munich, Large Scale AI Open Network, Stability AI oraz Runway pozwoliła na wytrenowanie modelu Stable Diffusion, służącego do generacji obrazów na pod­stawie tekstu.

Model Stable Diffusion został udostępniony w całości, pu­blicznie i za darmo – błyskawicznie detronizując zamknięte modele Dall-E 2 (OpenAI) oraz Imagen (Google) i powodując lawinę innowacyjnych zastosowań stworzonych przez na­ukowców entuzjastów. W ciągu 3 miesięcy od publikacji mo­delu powstało kilkanaście startupów budujących produkty oparte na Stable Diffusion.

Kolejnym przykładem demokratyza­cji AI jest model BLOOM (do generacji i przetwarzania tekstów) – stanowią­cy otwartą i darmową alternatywę dla zamkniętego, płatnego GPT-3 (OpenAI). W prace nad modelem zaangażowało się ponad 1000 na­ukowców – wolontariuszy, a mocy obliczeniowej użyczyło francuskie Ministerstwo Nauki i Innowacji oraz instytuty mu podległe.

Dziś wydaje się, że dopóki najwięk­sze postępy w AI odbywają się przy użyciu publicznie dostępnych zbiorów danych, a instytucje publiczne zyskują coraz większą świadomość wagi AI dla roz­woju gospodarki, dopóty demokratyczny dostęp do zdobyczy naukowych i technologicznych jest bezpieczny. Trzeba mieć jednak na uwadze fakt, że w przyszłości publicznie dostępne dane, algorytmy i modele stanowić będą jedynie wierzchołek góry lodowej.

Powstają inicjatywy demokratyzacji AI, np. model BLOOM stanowiący otwartą i darmową alternatywę dla GPT-3 (OpenAI). W prace nad nim zaangażowało się ponad 1000 naukowców – wolontariuszy, a mocy obliczeniowej użyczyło m.in. francuskie Ministerstwo Nauki i Innowacji.

Co przyniesie przyszłość?

Na to pytanie odpowiedzieć będzie mogła tylko AGI, silna sztuczna inteligencja… gdy już powstanie. Teraz, w bardzo różnorodnych dziedzinach, nawet „słabe” AI jest w stanie z łatwością pokonać człowieka. Wystarczająco, aby zrewo­lucjonizować świat. Time-to-market innowacji w różnych dziedzinach gospodarki wynosi od 6 miesięcy do 20 lat. Tyle potrzeba, aby w pełni wykorzystać możliwości, które istnieją już dziś.

Przed nami fascynujące czasy, bierzmy się do pracy!

Jacek Dąbrowski, Chief Artificial Intelligence Officer, Synerise

 

Artykuł ukazał się na łamach: Magazyn ITwiz 9-10/2022. Zamów poniżej:

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *