DGTL – Granice Cyfrowej Rewolucji
Jakie obowiązki UE nakłada na dostawców rozwiązań sztucznej inteligencji
W trakcie jednej z debat w której miałem przyjemność wziąć udział, poświęconej sztucznej inteligencji, padło twierdzenie, że inteligencja maszyny nigdy nie przekroczy inteligencji tego, który ją stworzył – człowieka. Cóż, pewnie tak byłoby prościej i mniej ryzykownie, ale z pewnością tak nie będzie...
Kilka dekad temu, Claude Shannon twórca teorii informacji, twierdził, że potrafi sobie wyobrazić czasy w który ludzie dla robotów, będą tym czym psy są obecnie dla ludzi. Claude Shannon był naukowcem nie fantastą. Elon Musk twierdzi, że praca nad sztuczną inteligencją jest, jak przywoływanie na świat demona i że konieczny jest silny reżim regulacyjny, aby ludzie nie uczynili czegoś niezmiernie głupiego. Elon Musk jest fantastą. Ale póki co jego fantastyczne pomysły sprawdzają się jeden po drugim! Stephane Hawking twierdził, że sztuczna inteligencja może oznaczać koniec ludzkiej cywilizacji. Stephane Hawking był geniuszem.
Czy wszyscy oni dmuchali na zimne? Być może. Jedno jest jednak pewne, 50 mld USD, które – zdaniem IDC – zainwestowano w 2020 roku w rozwój sztucznej inteligencji, a które ma wzrosnąć dwukrotnie w przeciągu kolejnych trzech lat przybliża nas do momentu w którym człowiek po raz pierwszy stworzy oprogramowanie, które pokona go nie w jednej czy w kilku dziedzinach – bo ten moment mamy już za sobą – tylko oprogramowanie, które będzie można uznać za uniwersalną sztuczną inteligencję.
Z czym do sztucznej inteligencji?
Już od dawna wiadomo, że mózg ludzki, przy obecnym rozwoju technologii, jest skazany na przegraną, jeśli porównać go do maszyny. Biologiczne neurony działają z maksymalna prędkością 200 Hz, czyli 7 rzędów wielkości wolniej niż współczesne mikroprocesory. Aksony – czyli element neuronu odpowiedzialny za przekazywanie informacji – przenoszą potencjały czynnościowe z prędkością mniej więcej 120 m/s. Rdzenie procesów korzystające z łączy optycznych mogą to robić z prędkością światła (300 000 000 m/s).
W kwietniu 2021 roku Komisja Europejska zaprezentowała projekt rozporządzenia w sprawie sztucznej inteligencji. Publikując go, Komisja z właściwym sobie optymizmem oznajmiła, że to właśnie Europa będzie kolebką w zakresie rozwoju bezpiecznej i godnej zaufania sztucznej inteligencji. Zgodnie z treścią tego projektu wszystkie systemy SI powinny być kwalifikowane do jednej z czterech kategorii podzielonych według wielkości ryzyka (od minimalnego, np. automatyczne tłumaczenie) do nieakceptowalnego (np. testowane na szeroką skalę w Chinach systemy typu social scoring).
Biologiczny mózg, biorąc pod uwagę opóźnienia w komunikacji zwrotnej, nie może być większy niż 0,11 m3. System elektroniczny można rozbudować do wielkości 61×1017 m3 (różnica 18-stu rzędów wielkości). Jeżeli przyjąć jeden z szacunków, mózg dorosłego człowieka przechowuje ok. 1 mld bitów. Kilka rzędów wielkości mniej niż nasze smartphony. Póki co jednak te słabości sprzętowe udawało się nadrabiać oprogramowaniem wykształconym przez miliony lat ewolucji. Ale i ta przewaga dobiega końca.
Narodziny Sztucznej Inteligencji
Termin „sztuczna inteligencja” został ukuty przez Johna McCarthy młodego profesora matematyki z Uniwersytetu w Dartmouth już w roku 1955, a już kilka lat potem – jak grzyby po deszczu – zaczęły powstawać kolejne projekty poświęcone temu zagadnieniu na MIT (projekt MAC), Berkeley (projekt Genie), czy University of South California. Prace te jednak nie miały odpowiedniego wsparcia w ówczesnej technologii. Jeden z pierwszy, komercyjnie dostępnych komputerów IBM 650 w 1994 roku kosztował 0,5 mln USD. Wyposażony był w pamięć pozwalającą na zapamiętanie 2000, dziesięcioliterowych słów i ważył 900 kilogramów.
Ponowny rozkwit tematyki sztucznej inteligencji to przełom wieków. Prawo Moora zapewniło wykładniczy wzrost możliwości obliczeniowych przy jednoczesnym spadku ceny komputerów. Internet umożliwił powstawanie olbrzymich rezerwuarów danych, które mogły zostać wykorzystane. Nowe rozwiązania w dziedzinie matematyki i statystyki doprowadziły najpierw do kolejnych przełomów w zakresie uczenia maszynowego (Machine Learning), a następnie, w połowie pierwszej dekady XXI wieku w zakresie budowy sieci neuronowych i zastosowania tzw. głębokiego myślenia (Deep Learning).
Przegrana ówczesnego mistrza świata w szachach Garriego Kasparova, z komputerem IBM Deep Blue w roku 1996 była jeszcze pokazem brutalnej przewagi siły obliczeniowej połączonej z programowaniem algorytmicznym. Kiedy jednak po kolejnych dwóch dekadach program Alpha Go pokonał mistrza świata w GO, mieliśmy już do czynienia nie tyle ze sztuczną inteligencją, co z obcą inteligencją. Niektóre posunięcia wykonywane przez Alpha Go w niczym nie przypominały zagrań, których oprogramowanie mogłoby się „nauczyć” od ludzi. Zachwyty jakie wzbudziły wykonywane przez Apha Go ruchy przemieszane były z nieśmiałym jeszcze wówczas pytaniem, czy jesteśmy w stanie zapanować nad tym co stworzyliśmy?
Sztuczna Inteligencja w regulacyjnym kaftanie
W maju 2019 roku, 42 kraje zrzeszone w OECD przyjęły nowe zasady odnośnie sztucznej inteligencji. Zgodnie z tymi zasadami systemy SI powinny być zaprojektowane tak, aby uwzględniać praworządność, prawa człowieka, wartości demokratyczne i różnorodność. Powinny też obejmować odpowiednie zabezpieczenia, np. umożliwiające ludzką interwencję tam, gdzie jest to konieczne. Należy także zapewnić przejrzystość i odpowiedzialne ujawnianie informacji na temat systemów SI, aby upewnić się, że ludzie wiedzą, kiedy z nich korzystają i mogą kwestionować wyniki ich pracy. Systemy sztucznej inteligencji muszą funkcjonować w solidny, bezpieczny i zaufany sposób przez cały okres ich życia, a potencjalne zagrożenia powinny być stale oceniane i pozostawać pod kontrolą. Co najważniejsze, organizacje i osoby rozwijające, wdrażające lub obsługujące systemy sztucznej inteligencji powinny być pociągane do odpowiedzialności za ich prawidłowe funkcjonowanie zgodnie z powyższymi zasadami.
30 mln euro lub do 6% całkowitego rocznego światowego obrotu za poprzedni rok budżetowy – taka kara mogłaby być nakładana za nieprzestrzeganie zakazu stosowania systemów „nieakceptowalnych” oraz niezgodności systemów AI wysokiego ryzyka z wymogami dotyczącymi używania wysokiej jakości danych do treningu i testowania systemów AI.
Mniej więcej w tym samym czasie, 52 ekspertów powołanych przez Komisję Europejską opracowało dokument poświęcony etycznym uwarunkowaniom sztucznej inteligencji. Sztuczna inteligencja winna być godna zaufania, co oznacza, że powinna funkcjonować zgodnie z prawem, tj. zapewniać poszanowanie wszystkich obowiązujących przepisów ustawowych i wykonawczych. Ponadto powinna być etyczna, zapewniając zgodność z zasadami i wartościami etycznymi oraz być solidna zarówno z technicznego, jak i ze społecznego punktu widzenia, ponieważ systemy SI mogą wywoływać niezamierzone szkody nawet wówczas, gdy korzysta się z nich w dobrej wierze.
Przechodząc do wartości etycznych, autorzy opracowania, wskazali na cztery główne zasady. Pierwszą z nich jest poszanowanie autonomii człowieka. Osoby wchodzące w interakcje z systemami SI muszą być w stanie zachować pełną i efektywną zdolność samostanowienia o sobie oraz być w stanie uczestniczyć w procesie demokratycznym. Systemy SI nie powinny zatem „bezpodstawnie podporządkowywać, przymuszać, oszukiwać, kształtować lub kontrolować ludzi ani nimi manipulować”. Powinny także zapewniać techniczną solidność i bezpieczeństwo, które można byłoby weryfikować na każdym etapie powstawania SI.
W raporcie przygotowanym dla Komisji podkreślono także konieczność weryfikowania danych gromadzonych dla „trenowania” SI celem unikania „społecznie skonstruowanych uprzedzeń”, uwzględniania „nieumyślnych uprzedzeń historycznych”, „niekompletności danych” i „złych modeli zarządzania”.
W kwietniu 2021 roku Komisja Europejska zaprezentowała projekt rozporządzenia w sprawie sztucznej inteligencji. Publikując go, Komisja z właściwym sobie optymizmem oznajmiła, że to właśnie Europa będzie kolebką w zakresie rozwoju bezpiecznej i godnej zaufania sztucznej inteligencji. Zgodnie z treścią tego projektu wszystkie systemy SI powinny być kwalifikowane do jednej z czterech kategorii podzielonych według wielkości ryzyka (od minimalnego – przykładowo automatyczne tłumaczenie) do nieakceptowalnego ( przykładowo testowane na szeroką skalę w Chinach systemy typu „social scoring”).
Przynależność do jednej z tych grup determinowałaby obowiązki dostawców AI, włączając w to obowiązkowe audyty i certyfikacje. Nad wszystkim czuwałaby Europejska Rada Sztucznej Inteligencji a motywacją do ścisłego przestrzegania rozporządzenia miałyby być wysokie kary. Największa z nich sięgałaby 30 mln euro lub do 6% całkowitego rocznego światowego obrotu za poprzedni rok budżetowy i mogłaby być nakładana za nieprzestrzeganie zakazu stosowania systemów „nieakceptowalnych” oraz niezgodności systemów AI wysokiego ryzyka z wymogami dotyczącymi używania wysokiej jakości danych do treningu i testowania systemów AI.
Rozporządzenie w sprawie sztucznej inteligencji dopiero rozpoczyna podróż legislacyjną przez biurokratyczne zakamarki Brukseli i zapewne zostanie przyjęte w połowie 2023 roku. Do tego czasu będziemy musieli budować europejską potęgę AI bez wsparcia prawnego i zapewne wielu przedsiębiorców będzie chciało wykorzystać ten czas jak najlepiej. Regulacje mogą (choć nie muszą) usystematyzować sposób w jaki będzie się tworzyć i wykorzystywać systemy sztucznej inteligencji. W żaden jednak sposób nie wpłyną na podmioty prowadzące działalność po ciemnej stronie sieci.
Rozporządzenie dopiero rozpoczyna podróż legislacyjną przez biurokratyczne zakamarki Brukseli i zapewne zostanie przyjęte w połowie 2023 roku. Do tego czasu będziemy musieli budować europejską potęgę AI bez wsparcia prawnego i zapewne wielu przedsiębiorców będzie chciało wykorzystać ten czas jak najlepiej. Zarówno tych prowadzących swoje interesy legalnie, jak i tych dla których sztuczna inteligencja stanowi kolejne narzędzie w repozytorium metod nielegalnego pozyskiwania pieniędzy, informacji czy też wywierania wpływu na upatrzone grupy niczego nie świadomych odbiorców.
Inteligencja sztuczna … ataki prawdziwe
Regulacje mogą (choć nie muszą) usystematyzować sposób w jaki będzie się tworzyć i wykorzystywać systemy sztucznej inteligencji. W żaden jednak sposób nie wpłyną na podmioty prowadzące działalność po ciemnej stronie sieci. Dzięki sztucznej inteligencji cyberprzestępcy będą mogli działać w makroskali choć z nieporównanie większą precyzją i reagować na metody przeciwdziałania z większą niż do tej pory szybkością. Będą mogli rozsyłać miliony zindywidualizowanych informacji skonfigurowanych na podstawie danych dotyczących życia odbiorcy dostępnych w sieci, w tym na mediach społecznościowych. Wykorzystać jego poglądy, zainteresowania, stan emocjonalny, aby wywołać odpowiednią reakcję.
Ostatnie 12 miesięcy pokazały, że kampanie phishingowe połączone z instalacją oprogramowania złośliwego biją kolejne rekordy wzrostów, a szkody wywołane takimi atakami narastają lawinowo. Złośliwe oprogramowanie w erze sztucznej inteligencji będzie mogło także mutować w tysiące różnych form po umieszczeniu w systemie komputerowym. Narzędzia Deep RL już teraz potrafią – działając autonomicznie – wykrywać luki, ukrywać złośliwe oprogramowanie i atakować wybiórczo cele spełniające określone parametry.
W końcu systemy AI same stanowić mogą cel ataku. Chociaż jesteśmy dopiero na początku rewolucji wprowadzania systemów AI do naszego życia, istnieją już udokumentowane ataki, które obejmują ukrywanie oszustw, zatruwanie danych, replikacja modeli i wykorzystywanie wad tradycyjnego oprogramowania do oszukiwania, manipulowania czy kompromitowania systemów sztucznej inteligencji. Nawet niewielka zmiana w zakresie doboru danych może doprowadzić do istotnych (a czasami nieprzewidywalnych) zmian w działaniu systemów sztucznej inteligencji. Stuxnet przez ponad rok zakłócał irański program jądrowy w sposób absolutnie niezauważalny, mimo że jego twórcy nie korzystali z mechanizmów AI.
W końcu systemy AI same stanowić mogą cel ataku. Chociaż jesteśmy dopiero na początku rewolucji wprowadzania systemów AI do naszego życia, istnieją już udokumentowane ataki, które obejmują ukrywanie oszustw, zatruwanie danych, replikacja modeli i wykorzystywanie wad tradycyjnego oprogramowania do oszukiwania, manipulowania czy kompromitowania systemów sztucznej inteligencji. Nawet niewielka zmiana w zakresie doboru danych może doprowadzić do istotnych (a czasami nieprzewidywalnych) zmian w działaniu systemów sztucznej inteligencji.
Sztuczna Inteligencja ? Mamy, a jakże.
Według badań przeprowadzonych w 2020 roku przez McKinsey 50% badanych przedsiębiorstw twierdziła, że wdrożyli już rozwiązania w zakresie AI, przynajmniej w odniesienie do jednej w realizowanych prze siebie funkcji biznesowych, a 22% badanych przypisuje osiągniecie przynajmniej 5% EBIT systemom AI. Nawet jeżeli założymy, że 50% badanych określa mianem sztucznej inteligencji systemy informatyczne nie mające nic wspólnego z tym terminem, rynek tych rozwiązań rozwijał się w ciągu ostatniego roku niezmiernie dynamicznie, a to tylko początek drogi.
Co przyniesie kolejny rok. Dalszy dynamiczny wzrost, ale to nietrudno odgadnąć. Rosnące zapotrzebowanie na analityków danych. Dalszą eskalację „zbrojeń” w cyberprzestrzeni –wykorzystującą sztuczną inteligencję do działań oficjalnie uznanych za naganne. I dalsze dyskusje na temat regulacji tego obszaru, które co do zasady są potrzebne, ale okażą się spóźnione i mocno nieadekwatne. Innymi słowy – nic co mogłoby nas zaskoczyć.
Ireneusz Piecuch, założyciel i Senior Partner w kancelarii DGTL Kibil Piecuch i Wspólnicy