Sztuczna inteligencja
Jak rozwijała się Generatywna AI? Dokąd zmierza jej ewolucja?
Generatywna sztuczna inteligencja to efekt blisko sześćdziesięciu lat postępu w zakresie uczenia maszynowego i metod statystycznych. Podczas gdy algorytmy AI od lat potrafiły rozpoznawać wzorce w danych, wyciągać na ich podstawie wnioski i prognozować przyszłe wyniki, współczesna generacja AI idzie o krok dalej, tworząc zupełnie nowe treści, muzykę czy obrazy na podstawie zaledwie kilku wytycznych. Spojrzenie na fundamenty wykorzystywanych obecnie rozwiązań pozwala przewidzieć kierunek dalszego rozwoju tej technologii i zrozumieć rolę, jaką Generatywna AI już niedługo będzie odgrywać w naszej codzienności.
Początki generatywnej sztucznej inteligencji sięgają 1966 roku. Pierwszego chatbota o nazwie ELIZA stworzył Joseph Weizenbaum. Program ten symulował psychoanalityka i rzekomo angażował emocjonalnie swoich „rozmówców”. To również jeden z pierwszych systemów, wobec których zastosowano test Turinga, czyli najsłynniejsze badanie określające zdolność oprogramowania do myślenia w podobny sposób do ludzkiego.
W kolejnych dziesięcioleciach AI rozwijała się dzięki postępowi w analizie danych tekstowych, rozwojowi sieci semantycznych czy rekurencyjnych sieci neuronowych. Jednak na kolejne przełomy musieliśmy poczekać aż do czasów najnowszych. Najważniejszym wydarzeniem wpływającym na rozwój AI i kształt, jaki przybrała obecnie, było opracowanie przez Iana Goodfellowa i jego współpracowników generatywnej sieci kontradyktoryjnej (GAN) w 2014 roku. Stworzyli oni dwie sieci neuronowe, które miały wymieniać się informacjami. Jedna z nich generowała dane, a druga próbowała ustalić, czy są one prawdziwe.
Z kolei w 2017 roku pojawiły się modele transformatorów takie jak BERT i ELMo, które wyznaczyły dalszy kierunek rozwoju GAI. Jedną z kluczowych innowacji w tych modelach jest wykorzystanie mechanizmu samo-uwagi, który pozwala modelowi rozważyć znaczenie różnych danych podczas dokonywania prognoz. Dzięki temu AI radzi sobie lepiej z długoterminowymi zależnościami, co jest szczególnie przydatne w zadaniach takich jak tłumaczenia, gdzie znaczenie tekstu może zależeć od słów, które pojawiają się wcześniej.
Natomiast już rok później pojawił się pierwszy model generatywnej sztucznej inteligencji z rodziny GPT (Generative Pre-trained Transformer). Ten model wytrenowany na ogromnych ilościach danych tekstowych z Internetu miał 117 milionów parametrów (czyli zmiennych, które użytkownik mógł dostosowywać), co pozwalało mu na generowanie tekstu w stylu i treści zbliżonej do danych szkoleniowych.
Ostatnie lata przyniosły prawdziwą lawinę nowych narzędzi i aplikacji opartych na GAI. Przykłady obejmują ChatGPT, Bard od Google, EinsteinGPT od Salesforce, aplikację do edycji obrazów Lensa od Prisma Labs oraz narzędzia wideo. Rynek GAI dynamicznie rośnie, a według przewidywań Acumen Research and Consulting do 2030 roku ma mieć wartość 110,8 miliarda dolarów. Jeszcze bardziej ambitne szacunki głoszą analitycy Fortune Business Insights, którzy twierdzą, że sektor rozwiązań AI do końca dekady osiągnie wartość aż 667 mld dolarów.
Dokąd zmierzamy?
Choć historia sztucznej inteligencji jest długa, to postęp, jaki dokonał się w tym obszarze w ostatnich latach sygnalizuje, że jesteśmy dopiero na początku rewolucji. Eksperci firmy SAS wskazują potencjalne kierunki dalszego rozwoju tej technologii, a także pojawiające się wraz z nim wyzwania.
„W najbliższej przyszłości możemy spodziewać się rozpowszechnienia rozwiązań korzystających z „computer vision”, czyli dziedziny analityki, w której przetwarza się obrazy i wideo. Już dziś możemy ją z powodzeniem wykorzystywać choćby w medycynie. Dowodem niech będzie nasza współpraca z Uniwersytetem w Amsterdamie, której celem jest zautomatyzowana analiza obrazów, pozwalająca na wykrycie komórek rakowych i określenie zaawansowania choroby” – wskazuje Artur Skalski, Head of Architecture and Analytics Division, SAS.
Wizja komputerowa staje się przełomową technologią również dla przemysłu. „Obecnie AI wspiera nas w zadaniach związanych z monitorowaniem jakości wytwarzanych produktów, czy też monitorowaniem stanu linii produkcyjnych pod kątem planowanego serwisowania. Należy spodziewać się, że automatyzacja i robotyzacja linii produkcyjnych będzie coraz bardziej wyręczać człowieka z prac manualnych związanych z samym procesem wytwórczym, na rzecz monitorowania jakości pracy robotów i ich programowania” – twierdzi Artur Skalski.
Na przestrzeni ostatnich kilku dekad stworzono czujniki i procesory obrazu, które dorównują, a nawet przewyższają możliwościom człowieka. Dzięki większym, doskonalszym optycznie soczewkom oraz nanometrowym czujnikom i procesorom obrazu, precyzja i czułość nowoczesnych kamer pozwoli nam zobaczyć więcej niż ludzkie oko. Kamery mogą również rejestrować tysiące obrazów na sekundę, wykrywać odległości i lepiej widzieć w ciemnym otoczeniu.
Przyszłość AI jest w naszych rękach
Powszechnie już wiadomo, że najważniejszym budulcem sztucznej inteligencji są dane. Silniki GAI to tak naprawdę ogromna ilość danych potrzebnych do „karmienia” algorytmów. I podobnie jak z zapewnieniem odpowiednich wartości odżywczych dla ludzi, silniki również potrzebują dobrze zbilansowanej diety.
Firmy, które nie sprawdzają swoich danych lub stawiają na niskiej jakości źródła, mogą stworzyć błędne założenia lub wylać złe fundamenty pod dalszą pracę. Wśród najważniejszych zagrożeń z tym związanych znajdują się wykluczenie słabszych grup społecznych, naruszenie prywatności czy wpływ algorytmów na obecną i przyszłą sytuację określonych osób, np. pracowników firm czy mieszkańców danego terenu.
„Korzystając z danych musimy brać pod uwagę szerszy kontekst. Zanim zostaną one kiedykolwiek wykorzystane do szkolenia sztucznej inteligencji lub włączone do modelu, człowiek musi zadać właściwe pytania. Jak je zdobyliśmy? Czy było to dobrowolne działanie? Czy korzystając z nich naruszamy czyjąś prywatność lub prawa? W szczególności czy dane wykorzystane do uczenia są wystarczająco dobrej jakości, aby były użyteczne, aby algorytm na nich nauczony udzielał później poprawnych odpowiedzi i czy istnieje argument za ich wykorzystaniem? Oczywiście dane są cenne, ale nie mogą być cenniejsze niż człowiek” – podkreśla Artur Skalski.
Odpowiedniej jakości dane to nie jedyne co potrzebne, aby społeczeństwa mogły czerpać korzyści z generatywnej sztucznej inteligencji. Niezbędne są również precyzyjne regulacje, a także odpowiednia edukacja. „Data literacy”, czyli umiejętność rozumienia danych, jest jedną z największych potrzeb dzisiejszego świata. A jest nad czym pracować, biorąc pod uwagę, że w Indeksie gospodarki cyfrowej i społeczeństwa cyfrowego (DESI) Polska wciąż plasuje się na 24. miejscu na 27 państw członkowskich UE.
Co szczególnie istotne, dalej potrzebne są inwestycje zarówno w technologię, jak i infrastrukturę. W znacznym stopniu do rozwoju tego rynku przyczynia się także firma SAS, która ogłosiła w tym roku inwestycję w wysokości miliarda dolarów w technologie AI.