Sztuczna inteligencjaCIORynekPolecane tematy

Sztuczna inteligencja godna zaufania – czy Europa sprosta własnym ideałom?

Unijna koncepcja trustworthy AI została pomyślana jako alternatywa dla wolnorynkowego eldorado amerykańskich big techów oraz kontrolowanej przez państwo chińskiej rewolucji cyfrowej. W dobie rosnącej świadomości zagrożeń ze strony kapitalizmu nadzoru oparte na prawach człowieka podejście europejskie ma być konkurencyjnym paradygmatem rozwoju innowacji. Czego trzeba, aby ta ambitna wizja mogła się ziścić?

Sztuczna inteligencja godna zaufania – czy Europa sprosta własnym ideałom?
Źródło ilustracji: Gratisography.com

W środę 13 marca Parlament Europejski przyjął rozporządzenie AI Act – pierwszą na świecie regulację dotyczącą sztucznej inteligencji. Prace nad dokumentem trwały niemal trzy lata, a w ich trakcie nie brakowało dramatycznych zwrotów akcji, z których najważniejszy związany był z ubiegłorocznym wstrząsem wywołanym przez generatywną AI. Niewiele zresztą brakowało, by rozporządzenie pozostało na etapie projektu. Lobbing branży technologicznej i przeciąganie liny między Francją, Niemcami i Włochami z jednej strony a resztą państw Unii z drugiej doprowadziło do impasu pod koniec zeszłego roku. Na szczęście udało się go przełamać i Parlament Europejski rozpocznie kolejną kadencję z uchwalonym prawem sztucznej inteligencji.

AI Act – szansa czy ograniczenie?

Wśród licznych wiwatów z tej okazji słychać jednak także wiele głosów krytycznych. Jedni oskarżają twórców regulacji o zbytnie ustępstwa na rzecz branży technologicznej, inni – wprost przeciwnie: pomstują przeciwko brukselskiemu kagańcowi rzekomo zniewalającemu – i tak słabowitą – europejską innowacyjność. Żadnemu z tych stanowisk nie sposób odmówić przynajmniej częściowej słuszności. To, które z nich ostatecznie okaże się najtrafniejsze, będzie zależało od sposobu, w jaki AI Act zostanie urzeczywistniony.

Unijne rozporządzenie w sprawie sztucznej inteligencji to bowiem nie tylko akt prawny, ale – co tutaj kluczowe – zasadniczy komponent szerszej koncepcji rozwoju AI na Starym Kontynencie. Koncepcja ta dotyczy tzw. sztucznej inteligencji godnej zaufania (trustworthy AI), która ma się opierać na prawach podstawowych i gwarantować, że “AI made in Europe” będzie przyjazna człowiekowi i środowisku. Jak podkreślają unijni decydenci w komunikacie Komisji poświęconym budowaniu zaufania do sztucznej inteligencji ukierunkowanej na człowieka, „wymiar etyczny SI nie jest luksusem czy dodatkiem: musi stanowić integralną część rozwoju SI. Dążąc do stworzenia ukierunkowanej na człowieka SI opartej na zaufaniu, zabezpieczamy poszanowanie naszych podstawowych wartości społecznych i tworzymy charakterystyczną markę Europy i jej przemysłu jako lidera w zakresie najnowocześniejszej SI, której cały świat może zaufać”.

Sztuczna inteligencja godna zaufania – czy Europa sprosta własnym ideałom?

w dyskusjach wokół AI Act kwestia koncepcji godnej zaufania sztucznej inteligencji wciąż jest niewystarczająco eksponowana. Wynika to w dużym stopniu z faktu, że rozporządzenie jako akt prawny angażuje całą rzeszę jurystów, którzy siłą rzeczy zaczynają nadawać ton dyskursowi wokół trustworthy AI, sprowadzając go nieuchronnie do kwestii zapewnienia zgodności z przepisami, często zapominając przy tym o podstawowych intencjach przyświecających jego powstaniu. W efekcie w debacie o sztucznej inteligencji dominuje dziś myślenie w kategoriach dość formalistycznie pojmowanego compliance, przed czym przestrzegali już zresztą twórcy unijnych Wytycznych w zakresie etyki sztucznej inteligencji

Europejski ideał

Owa godna zaufania sztuczna inteligencja opiera się na trzech filarach: etyce, prawie i solidności. Tym samym jej zakres znacznie wykracza poza wąsko pojętą regulację prawną (choć jest ona zarazem konstytutywnym elementem tej koncepcji). Warto tu również dodać, że trustworthy AI jest zbieżna z opublikowaną w styczniu 2022 r. Europejską deklarację praw i zasad cyfrowych w cyfrowej dekadzie, o czym mówi wprost motyw 4aa Preambuły AI Act.

Postrzeganie rozporządzenia AI Act w kontekście godnej zaufania sztucznej inteligencji ma więc znaczenie zasadnicze. Pozwala ona bowiem widzieć nowe przepisy w szerszej perspektywie, niezredukowanej wyłącznie do tego, co dozwolone bądź niedozwolone, ale obejmującej także to, co pożądane i niepożądane, czyli pewien ideał normatywny czy aksjologiczny. Jak wyjaśnia filozof Luciano Floridi, nie jest to bynajmniej kwestia drugorzędna, ponieważ dzięki niej możemy określić, w jakim społeczeństwie chcemy żyć (innymi słowy: czy rozwój technologii w Europie ma się odbywać wyłącznie wedle reguł wolnego rynku, czy może jednak powinien uwzględniać wartości inne niż korporacyjne profity).

Wolność, ale jaka?

Oczywiście takie postawienie sprawy ma zarówno swoich zdeklarowanych sprzymierzeńców, jak i kategorycznych oponentów. Przyczyny tego stanu rzeczy najlepiej wyjaśnić, odwołując się do rozróżnienia dwóch pojęć wolności zaproponowanego przed laty przez Isaiaha Berlina. W pewnym uproszczeniu można je przedstawić następująco: pierwsze z nich – wolność negatywna – postuluje możliwie jak najszerszy zakres swobód, czyli de facto maksymalne ograniczenie ingerencji ze strony instytucji, jak państwo czy kościół. Jest ono tym samym jak gdyby puste, ponieważ nie odwołuje się do żadnej dodatkowej instancji czy wartości. Tymczasem drugie z tych pojęć – wolność pozytywna – stawia na urzeczywistnienie jakiegoś celu. W tym ujęciu wolność nie wyczerpuje się w samym braku ograniczeń, ale wymaga realizacji określonego potencjału, np. ludzkiej natury czy indywidualnego talentu.

Krytycy zarzucali koncepcji Berlina pewną arbitralność, wskazując na brak wyraźniej granicy między oboma pojęciami, czemu on sam zresztą nie zaprzeczał. Ważniejsze było dla niego zademonstrowanie dwóch sposobów rozumienia wolności: jednego minimalistycznego, najlepiej zobrazowanego przez skrajny liberalizm czy wręcz libertarianizm; drugiego maksymalistycznego, postulowanego często przez koncepcje idealistyczne, a nawet utopijne, których najmroczniejszą realizacją były ideologie totalitarne. Warto przy tym zauważyć, że dla Berlina oba rodzaje wolności wzajemnie się warunkują i choć ostatecznie bliższa była mu raczej liberalna wizja wolności negatywnej, to zapewne gotów byłby się zgodzić przynajmniej z częścią komunitariańskiej krytyki wymierzonej w liberalizm, zgodnie z którą nie da się żyć w społeczeństwie niepodzielającym żadnych wartości poza samą wolnością.

Wolny rynek kontra społeczeństwo

Jak to się ma do trustworthy AI? Otóż oponenci europejskich regulacji zarzucają Brukseli ograniczanie wolności (w rozumieniu negatywnym) i tworzenie barier dla rozwoju innowacji, sugerując, że pod AI Act i koncepcją godnej zaufania sztucznej inteligencji (a także innymi nowymi wymogami, np. z obszaru ESG) kryją się wręcz autorytarne zapędy UE. Tym samym unijny ideał wolności pozytywnej, zgodnie z którym postęp technologiczny nie może się odbywać bez żadnych reguł, ale powinien być uzgadniany z wyznawanymi w Europie wartościami, jest tu poddawany kategorycznej krytyce. Zwolennicy wolnorynkowego leseferyzmu argumentują również, że ograniczenia nakładane na biznes przez unijnych urzędników są przeciwskuteczne, ponieważ spowalniają i tak słabo rozwinięty sektor AI w UE, w efekcie przyczyniając się do dalszej ekspansji firm z USA czy Chin, gdzie podobne ograniczenia nie obowiązują.

Zwolennicy regulacji AI widzą te kwestie w zgoła odmienny sposób. Ich zdaniem wolność gospodarcza nie jest wartością absolutną i musi się liczyć z ograniczeniami wynikającymi z troski o całe społeczeństwo, a nie tylko o przedsiębiorców. Co więcej, w obliczu kryzysu klimatycznego i mając w pamięci globalny kryzys ekonomiczny z końca 1. dekady XXI w., nie możemy udawać, że nic się nie zmieniło, i pozwalać, by wolnorynkowy dogmatyzm dalej nadawał ton dyskusjom o rozwoju społeczno-gospodarczym. Wśród stronników europejskiego prawa dla AI jest zresztą wielu rozczarowanych nie dość kategorycznymi rozwiązaniami zapisanymi w AI Act. Ich zdaniem unijni urzędnicy ulegli lobbingowi firm technologicznych i złagodzili część wymogów, co osłabi ochronę obywateli przed nadużyciami ze strony firm czy instytucji używających AI.

Kto w tym sporze ma rację? Próba obiektywnej odpowiedzi na to pytanie musi – jak to zostało już na początku zasygnalizowane – uwzględnić dalsze losy koncepcji trustworthy AI. Jej rola w rozwoju europejskiego ekosystemu sztucznej inteligencji nie jest bowiem wcale oczywista. Już dziś widać, że ambitny program, który legł u podstaw AI Act, może zostać zmarginalizowany, jeśli regulacja ta zostanie potraktowana przede wszystkim jako legislacyjny oręż wymierzony w nadużycia branży technologicznej, a nie szansa napędzająca rozwój innowacji przyjaznych człowiekowi i środowisku. O tym, że jest to realny scenariusz, świadczą losy RODO, którego implementacja miała przynieść wzrost odpowiedzialności w zarządzaniu danymi przez organizacje, a w rzeczywistości w wielu wypadkach została zdominowana przez dość mechaniczne myślenie w kategoriach zakazów i nakazów.

W pułapce compliance

Niestety, w dyskusjach wokół AI Act kwestia koncepcji godnej zaufania sztucznej inteligencji wciąż jest niewystarczająco eksponowana. Wynika to w dużym stopniu z faktu, że rozporządzenie jako akt prawny angażuje całą rzeszę jurystów, którzy siłą rzeczy zaczynają nadawać ton dyskursowi wokół trustworthy AI, sprowadzając go nieuchronnie do kwestii zapewnienia zgodności z przepisami, często zapominając przy tym o podstawowych intencjach przyświecających jego powstaniu. W efekcie w debacie o sztucznej inteligencji dominuje dziś myślenie w kategoriach dość formalistycznie pojmowanego compliance, przed czym przestrzegali już zresztą twórcy unijnych Wytycznych w zakresie etyki sztucznej inteligencji, pisząc, że „kodeks etyczny właściwy dla danej dziedziny (…) nigdy nie zastąpi etycznego rozumowania samego w sobie, które w każdej sytuacji wymaga wrażliwości na szczegóły kontekstowe”. Dlatego też „zapewnienie godnej zaufania sztucznej inteligencji wymaga od nas nie tylko opracowania zbioru zasad, lecz także wypracowania i utrzymania etycznej kultury i sposobu myślenia poprzez debatę publiczną, edukację i praktyczne uczenie się”.

W tym kontekście podstawowego znaczenia nabiera sposób projektowania AI po wejściu w życie nowych przepisów. Aby bowiem pozytywnie przejść przewidziane w prawie audyty badające zgodność systemów AI z regulacją, należy wpierw zbudować te systemy z uwzględnieniem określonych wymogów. I tu właśnie tkwi sedno problemu. Jeśli w praktyce zwycięży podejście oparte na mechanicznym  zatwierdzaniu zgodności, które będzie miało niewiele wspólnego z rzetelnym namysłem nad etycznymi konsekwencjami tworzonej AI, to wówczas ziści się scenariusz sprzeczny z intencjami twórców unijnych wytycznych. W rezultacie zamiast transformacji europejskiej gospodarki cyfrowej w kierunku rozwiązań zorientowanych na dobrostan społeczny i środowiskowy Europejczycy osiągną jedynie powierzchowne korzyści w ochronie swoich praw cyfrowych, biznes utonie w biurokratycznych formalizmach, a głównym beneficjentem nowych przepisów będą kancelarie prawne i firmy doradcze oferujące nawigację po meandrach prawodawstwa obowiązującego w unijnej domenie cyfrowej.

Europejska alternatywa

Ale możliwy jest też inny scenariusz. Kreśli go na kartach „Digital Empires” Anu Bradford, która w swojej poprzedniej książce ukuła pojęcie efektu brukselskiego, czyli globalnego oddziaływania europejskich przepisów. Zdaniem Bradford obecnie mamy na świecie do czynienia z trzema konkurencyjnymi paradygmatami regulacji rynków cyfrowych: amerykańskim, opartym na prymacie wolnego rynku, chińskim, w którym dominującą rolę odgrywa państwo, oraz europejskim, wyrastającym z praw człowieka. Fińska badaczka przekonuje, że techno-libertariański model, na którym opierała się historia sukcesów cyfrowych gigantów z USA, zaczyna tracić swoją atrakcyjność. Dlaczego tak się dzieje?

To z jednej strony skutek dominacji rynkowej kilku firm, które de facto nie mają konkurencji; z drugiej – rosnących nierówności ekonomicznych wynikających w dużym stopniu z zawłaszczenia rynku przez największych graczy, ale także z dynamiki i charakteru rewolucji AI, która w realiach wolnej amerykanki dba jedynie o zarobek inwestorów, ignorując los większości społeczeństwa. Wreszcie jest to także efekt erozji demokratycznych instytucji państwa, które podkopuje zarówno rosnąca potęga big techów, jak i wprowadzana przez nie na rynek bez żadnej kontroli sztuczna inteligencja mogąca wspierać narzędzia  dezinformacji, manipulacji i inwigilacji.

Co istotne, ryzyka związane z nieograniczonymi prawami branży technologicznej są dziś coraz lepiej uświadamiane także wśród amerykańskich decydentów i komentatorów, dzięki czemu dogmat o dobroczynnym wpływie braku interwencji państwa w gospodarkę zaczyna się kruszyć. Autorytarny model chiński, choć w niektórych częściach globu zapewne kuszący,  też raczej nie przyjmie się w demokratycznym świecie. Tym samym europejskie prawo dla AI ma szansę nie ograniczyć się wyłącznie do oddziaływania na firmy na rynku lokalnym, ale także wpłynąć na prawodawstwo w skali ogólnoświatowej.

Potrzeba spójności

Ten pozytywny scenariusz nie eliminuje jednak konieczności większej troski unijnych decydentów o strategię rozwoju godnej zaufania AI w Europie. Oprócz finansowych zachęt do podejmowania projektów AI przyjaznych człowiekowi i światu, wspierania badań pomagających efektywnie realizować w praktyce nierzadko abstrakcyjne wymogi etyki i prawa, trzeba także dbać o zapewnienie integralności pomiędzy obszarami, które są dziś przedmiotem szczególnego zainteresowania prawodawców. Chodzi tu przede wszystkim o uzgodnienie celów zrównoważonego rozwoju oraz kryteriów raportowania ESG z wymogami stawianymi przed systemami sztucznej inteligencji. Aby wytyczne etyki i prawa AI były traktowane poważnie, muszą one tworzyć spójny ekosystem z benchmarkami rozwijanymi w dziedzinach ochrony środowiska, dobrostanu społecznego czy ładu korporacyjnego.

Wbrew pozorom ten splot zależności, choć skomplikowany i stanowiący duże wyzwanie dla organizacji, może być szansą na spójną transformację spełniającą kryteria zarówno sustainability, jak i trustworthiness. Im więcej bowiem czynników wymuszających zmianę, tym większa szansa na to, że odbędzie się ona w sposób realny, a nie powierzchowny. Dotyczy to także rodzimych realiów, gdzie coraz więcej praktyków biznesowych mających do czynienia z nowymi technologiami wskazuje na znaczenie obecnych przemian dla polskiej gospodarki.

W tym kontekście, Zofia Dzik, prezes Instytutu Humanites – Człowiek i Technologia, doświadczona C-level menedżerka i członkini rady naukowej IDEAS, zauważa, że „obecna zmiana układu sił na świecie, przyśpieszająca po pandemii transformacja technologiczna oraz, zachodząca na skutek wojny w Ukrainie i w powiązaniu z nowymi regulacjami ESG, transformacja ekologiczna i energetyczna – wszystkie te czynniki mogą stanowić dużą szansę dla Polski ze względu na zmianę globalnych łańcuchów dostaw (near shoring), przeobrażenia zachodzące na rynku pracy i możliwość wykorzystania dobrego poziomu kapitału intelektualnego (ludzkiego) w naszym kraju”.

Te zmiany nie nastąpią jednak automatycznie. Aby mogły zaistnieć, przekonuje Zofia Dzik, konieczne są „nowe nakłady inwestycyjne oraz budowanie kapitału społecznego, w tym strategiczna, systemowa współpraca państwa, biznesu, świata nauki, technologii i trzeciego sektora, na co w Instytucie Humanites zwracamy szczególną uwagę, opierając się m.in. na autorskim Modelu »Wioski« Rozwoju Ekosystemu Społecznego, który łamie silosowe podejście do rozwiązywania problemów oraz wymusza myślenie w kategoriach różnorodności interesariuszy”. Właśnie to systemowe myślenie i działania Instytutu, który od blisko 15 lat, wyprzedając trendy, pokazuje (m.in. w ramach corocznych konferencji dla liderów biznesu „Człowiek i Technologia”) korzyści ekonomiczne i społeczne ze spójnego łączenia tematyki człowieczeństwa, gospodarki i technologii, było podstawą do powołania w 2021 roku Centrum Etyki Technologii Instytut Humanites.

W Centrum Etyki Technologii podejmujemy działania właśnie na rzecz takiego zintegrowanego podejścia do rozwoju i wdrażania sztucznej inteligencji. Odnosząc się do autorskiego Modelu Spójnego Przywództwa™ Zofii Dzik, wskazujemy, że godna zaufania AI wymaga determinacji i konsekwencji ze strony rządzących, którzy muszą jasno opowiedzieć się po stronie bardziej wymagającego podejścia do innowacji, a zarazem wyraźnie określić cele, jakim miałyby one służyć. Jeśli bowiem, zgodnie z “Polityką dla rozwoju sztucznej inteligencji w Polsce od roku 2020”, standardy wdrożeń sztucznej inteligencji, ze szczególnym uwzględnieniem zasad etyki, ma wyznaczać administracja, to pozostaje tu jeszcze sporo do zrobienia.

Między retoryka a strategią

Nowe kierownictwo Ministerstwo Cyfryzacji zapowiada, że zamierza aktualizować rzeczoną politykę, co jest słuszne i niejako wynika z dynamiki rozwoju technologicznego. Kłopot w tym, że w Polsce dokumenty strategiczne często nie mają wiele wspólnego z praktyką. Co więcej, deklaracje odpowiedzialnego rozwoju, aby nie pozostały jedynie sloganem, muszą iść w parze z jednoznacznym wskazaniem priorytetów rządu i ich konsekwentną realizacją. O tym, że nie jest to zadanie łatwe, dowodzą głosy wybrzmiewające podczas spotkań przedstawicieli resortu cyfryzacji z różnymi interesariuszami. Podczas takich konsultacji staje się jasne, że oczekiwania branży technologicznej raczej nie są zbieżne z postulatami organizacji stawiającymi na rozwój godnej zaufania AI.

Oto bowiem sektor IT chciałby od rządu ułatwień w rozwijaniu biznesu, podczas gdy implementacja wymogów trustworthy AI na pewno się do tego nie przyczyni. Tym samym deklarowanie troski o etyczną AI przy jednoczesnym zapewnianiu branży technologicznej o wspieraniu jej dążeń sprawia wrażenie czysto retoryczne. Niestety, może to wpłynąć na wzrost zjawisk określanych mianem tzw. ethics washing, czyli – znanych dobrze z obszaru CSR – manipulacji wizerunkowych. Odpowiedzialny rozwój AI będzie miał wówczas niewiele wspólnego z rzeczywistością, a zostanie sprowadzony do narzędzia z PR-owego arsenału. Jednak w dobie AI Act oraz Dyrektywy CSRD beztroska wybiórczość w doborze faktów z obszaru sustainability i responsibility będzie coraz trudniejsza. Największym niebezpieczeństwem może się więc tutaj okazać pójście po linii najmniejszego oporu i potraktowanie przez biznes wymogów zawartych w obu wspomnianych wyżej dokumentach jako nieuniknionej uciążliwości, nie zaś szansy na transformację przynosząca faktyczną wartość nie tylko w wymiarze społecznym czy środowiskowym, ale także gospodarczym.

Jedyną szansą urzeczywistnienia godnej zaufania AI jest więc wyraźne opowiedzenie się polskiego rządu (a także innych europejskich decydentów) po stronie ideału normatywnego, w którego wypracowaniu braliśmy udział. Tylko klarowne wskazanie reguł gry może sprawić, że przedsiębiorcy będą gotowi do niej przystąpić. Oczywiście, istnieje ryzyko, że część branży zdecyduje się rozwijać swoje pomysły poza granicami UE. Warto je jednak podjąć, jeśli za konsekwentną obroną europejskich pryncypiów pójdą inwestycje i wsparcie dla projektów badawczych ukierunkowanych na rozwijanie AI zgodnie z wartościami.

Alternatywą – zważywszy na aktualny układ sił – jest dalsze pozostawanie w tyle europejskich przedsiębiorców za amerykańską i chińską konkurencją i coraz większa zadyszka przy próbach dostosowania się do reguł, które wedle swoich potrzeb ustalili inni. Wybór należy do nas.

Maciej Chojnowski, dyrektor programowy Centrum Etyki Technologii przy Instytucie Humanites

Sztuczna inteligencja godna zaufania – czy Europa sprosta własnym ideałom?

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *