CDORynekPolecane tematy

Etyka sztucznej inteligencji – między postulatami a rzeczywistością

Unia Europejska chce na Starym Kontynencie sztucznej inteligencji godnej zaufania. Polski rząd podziela ten punkt widzenia i planuje, że zostaniemy jednym z liderów trustworthy AI. Czy te deklaracje zamienią się w czyn?

Etyka sztucznej inteligencji – między postulatami a rzeczywistością
Azzedine Rouichi / Unsplash

O konieczności etycznego kształtowania sztucznej inteligencji słychać dziś coraz głośniej. Temat etyki AI przewija się w krajowych i międzynarodowych strategiach rozwoju, rekomendacjach grup eksperckich, kodeksach branżowych oraz deklaracjach poszczególnych firm. Odpowiedzialne podejście do tej technologii postulują już nie tylko prawodawcy czy obrońcy wolności obywatelskich, ale coraz częściej również sami inżynierowie data science. Skąd ta presja?

Uniwersalna, lecz ograniczona

Odpowiedź kryje się w specyfice AI, która z jednej strony jest technologią ogólnego zastosowania, zaś z drugiej – wbrew swojej nazwie – cechuje się bardzo ograniczoną inteligencją. Jak bowiem zauważa prof. Luciano Floridi z Oxford Internet Institute, współczesna AI nie tyle wytwarza inteligentne zachowania, ile je reprodukuje, opierając się na statystyce i ogromnej ilości dostępnych dziś danych. Tym samym jej potencjał kognitywny jest daleki nie tylko od możliwości ludzkiego, lecz także zwierzęcego mózgu.

Zarazem łatwość wykorzystania tej technologii sprawia, że jej nie zawsze trafne decyzje wpływają na coraz więcej sfer naszego życia. Żywiołowy rozwój uczenia maszynowego i jego wykorzystanie w różnych branżach czy sektorach przyniósł w ostatnich latach wiele negatywnych zjawisk, które wywołały wręcz kryzys zaufania do AI.

Lista „grzechów” sztucznej inteligencji jest długa. Chodzi m.in. o: dyskryminację algorytmiczną, nieprzejrzystość działania systemów AI i ich ograniczoną wiarygodność (tzw. problem czarnej skrzynki), dezinformację i manipulację (np. zjawisko deepfake’ów), inwigilację i utratę prywatności, ograniczanie poczucia sprawczości człowieka czy wreszcie zwiększanie nierówności ekonomicznych i monopolizację rynków.

AI, czyli partner dominujący

Oczywiście, AI nie jest jedynym źródłem problemów ery cyfrowej, jednak jej specyfika sprawia, że niewłaściwy rozwój i wdrożenia tej technologii mogą doprowadzić do sytuacji, w której człowiek stanie się zakładnikiem stworzonych przez siebie narzędzi. Floridi przyrównuje to do relacji dwojga partnerów – inteligentnego, ale leniwego (człowiek), oraz niezbyt bystrego, lecz pracowitego i apodyktycznego (AI). Jeśli zasady funkcjonowania obojga nie zostaną od początku dobrze ustalone, to może się to skończyć podporządkowaniem człowieka logice działania maszyny.

Dlatego właśnie etyka – obok regulacji prawnych i odpowiedniego zarządzania – jest niezbędna, aby właściwie ukierunkowywać rozwój AI. Regulacje określają, jakie działania są zgodne lub niezgodne z prawem, etyka i polityki działania – które z nich są pożądane, byśmy mogli żyć w lepszym społeczeństwie.

W rezultacie liczne grupy ekspertów opracowują dziś wytyczne dotyczące odpowiedzialnego rozwoju sztucznej inteligencji. Należy do nich przygotowany na zlecenie Komisji Europejskiej dokument mówiący o tzw. trustworthy AI. Etyka – obok prawa i solidności (w wymiarze technicznym i społecznym) – jest tam kluczowym komponentem zapewniającym, że AI będzie mogła być godna zaufania.

Przeczytaj również
Ostatnia mila w logistyce to już nie tylko dostawa

Z poszanowaniem praw człowieka

U podstaw godnej zaufania sztucznej inteligencji tkwią cztery ogólne zasady:

  • poszanowania autonomii człowieka,
  • zapobiegania szkodom,
  • sprawiedliwości,
  • wyjaśnialności.

Te fundamenty, wywiedzione z praw podstawowych (jak poszanowanie godności ludzkiej, wolność jednostki, poszanowanie demokracji, sprawiedliwości i praworządności, a także równość, brak dyskryminacji i solidarność oraz prawa obywatelskie), posłużyły jako punkt wyjścia do opracowania siedmiu kluczowych wymogów, które muszą być stale ewaluowane w ciągu całego cyklu działania AI. Chodzi o zapewnienie:

  • przewodniej i nadzorczej roli człowieka,
  • technicznej solidności i bezpieczeństwa,
  • ochrony prywatności i właściwego zarządzania danymi,
  • przejrzystości,
  • różnorodności, braku dyskryminacji i sprawiedliwości,
  • dobrostanu społecznego i środowiskowego,
  • odpowiedzialności.

Eksperci stojący za unijnymi wymogami przygotowali również osobne narzędzie kontrolne do oceny zgodności systemów AI z omawianymi wytycznymi.

Zasady to nie wszystko

Oczywiście zasady (nawet uzupełnione  narzędziami umożliwiającymi weryfikację zgodności) nie wystarczą, by rozwijać i wdrażać godną zaufania AI. Etyce i solidności technicznej musi jeszcze towarzyszyć trzeci komponent trustworthy AI, czyli odpowiednie prawo (jego projekt KE opublikowała w kwietniu 2021 roku).

Co więcej, rzeczywiste wdrożenie zasad etyki AI wymaga wykorzystania rozbudowanych metodyk operacjonalizacji, które umożliwią przełożenie abstrakcyjnych zasad na konkretną praktykę (chodzi o tzw. podejście Ethics by Design, czyli projektowanie zgodnie z wartościami).

Wreszcie zbyt legalistyczne (oparte na sformalizowanym rozumieniu zasad) podejście do etyki może skutkować stępieniem jej krytycznego ostrza i sprowadzeniem do roli słabszej odmiany prawa. To niebezpieczne, ponieważ zasady etyczne nie powinny nigdy zastępować ani regulacji, ani etycznego rozumowania.

Przed takim nazbyt mechanicznym podejściem do etyki AI przestrzegają zresztą sami autorzy koncepcji trustworthy AI. Podkreślają oni, że jej realizacja nie powinna sprowadzać się do odhaczania pozycji z listy kontrolnej, ale wyrażać się w takim podejściu do technologii, w którym wartości są traktowane na równi z innymi ogólnymi wymogami systemowymi (jak np. poprawność działania czy bezpieczeństwo) i uwzględniane na każdym etapie projektowania.

W praktyce etyka AI polega więc na ciągłym identyfikowaniu i wdrażaniu nowych wymogów, ocenianiu rozwiązań i dążeniu do osiągania coraz lepszych rezultatów przy jednoczesnym zaangażowaniu w prace projektowe szerokiego grona różnych interesariuszy.

Etyka AI po polsku

A jak postulat etycznego tworzenia systemów sztucznej inteligencji jest postrzegany nad Wisłą?

Podczas konferencji „Etyka technologii: kierunki, trendy, wyzwania” zorganizowanej przez Centrum Etyki Technologii Instytutu Humanites minister Justyna Orłowska (kierująca GovTech Polska, czyli instytucją odpowiedzialną za realizację krajowej polityki AI) podkreślała, że etyka jest wpisana w założenia rozwoju tej technologii w Polsce. Finansując rozwój danego sektora, państwo musi mieć pewność, że odbywa się to z poszanowaniem praw i wolności obywatelskich – przekonywała.

Przeczytaj również
Kampania Woman Update wspiera kobiety w wejściu do branży IT

Rzeczywiście, w krajowej polityce AI etyczność czy – szerzej – koncepcja trustworthiness przewija się po wielokroć. Plany są ambitne: standardy wdrożeń sztucznej inteligencji, ze szczególnym uwzględnieniem zasad etyki, ma wyznaczać administracja, która w najbliższych latach powinna wypracować reguły przejrzystości, audytowania i odpowiedzialności za zastosowanie algorytmów w sektorze publicznym.

Co więcej, zakłada się, że do 2027 roku Polska dołączy do grona krajów najbardziej aktywnych w rozwijaniu etycznego wykorzystywania danych zgodnie z koncepcją trustworthy AI. Z kolei już za dwa lata nad Wisłą powinien powstać międzynarodowy Digital Innovation Hub, specjalizujący się właśnie w godnej zaufania sztucznej inteligencji. Rozwijanie etycznej AI ma również stać się jednym z czynników sprzyjających inwestycjom zagranicznym w innowacyjne projekty w Polsce. Ponadto etyka AI powinna zostać niebawem wpisana w strategię cyfrowej edukacji dla wszystkich poziomów nauczania.

To tylko część założeń dotyczących etycznej sztucznej inteligencji zawartych w omawianym dokumencie. Czy uda się je zrealizować?

Od słów do czynów

Etyka AI jako leitmotiv polskiej polityki sztucznej inteligencji bez wątpienia cieszy. Dowodzi właściwego rozpoznania problemów współczesności i wpisuje się w unijną wizję odpowiedzialnego rozwoju cyfrowych technologii. Jeśli jednak zastanowić się nad warunkami, które trzeba spełnić, aby wcielić w życie te założenia, pojawia się kilka wątpliwości.

Po pierwsze, Polska nie należy dziś do grona państw, w których prowadzone są intensywne badania nad etyką technologii. Co prawda polscy przedstawiciele biorą udział w międzynarodowych gremiach eksperckich (np. mec. Robert Kroplewski jest m.in. członkiem AI HLEG oraz AIGO powołanych odpowiednio przez KE i OECD) czy projektach badawczych dotyczących tej dziedziny, jednak wśród liczących się na świecie specjalistów wytyczających szlaki w tym obszarze wciąż nie mamy zbyt silnej reprezentacji (np. w liczącym blisko 60 autorów międzynarodowym opracowaniu „The Oxford Handbook of Ethics of AI” brak polskich naukowców i ośrodków badawczych).

Po drugie, etyka jako przedmiot nauczania zajmuje w Polsce dość kuriozalne miejsce. W programach szkolnych to nadal przede wszystkim substytut religii, a nie osobny przedmiot obowiązkowy dla wszystkich uczniów. Z tego względu jest on traktowany po macoszemu i trudno spodziewać się, że w krótkim czasie uda się stworzyć kadrę, która zapewni uczniom rzetelną wiedzę etyczną na każdym poziomie kształcenia, szczególnie w zakresie etyki AI.

Po trzecie, w przeciwieństwie do wielu państw zachodnich, w których obecność imigrantów wpływała na rozwój narzędzi partycypacyjnych, w Polsce – dotychczas dość jednolitej pod względem etnicznym – kwestie mniejszości i dyskryminacji nie znajdowały się w centrum publicznego zainteresowania. W związku z tym uwrażliwienie na problemy szeroko pojmowanej różnorodności społecznej, będące jednym z ważnych aspektów etyki AI, jest u nas mniejsze niż np. w państwach skandynawskich.

Przeczytaj również
Voiceboty - przyszłość komunikacji z klientem

Po czwarte wreszcie, główny spór polityczny w Polsce jest wciąż zogniskowany wokół stereotypowego przeciwstawienia liberalizmu i socjalizmu. W efekcie, w krajowej debacie publicznej nie wybrzmiewa wystarczająco nasilająca się na świecie krytyka neoliberalnego modelu gospodarczego, dotycząca przede wszystkim wzrostu nierówności społecznych i dewastacji środowiska naturalnego. W tej sytuacji kwestie odpowiedzialnego rozwoju często mieszają się u nas z narracją rodem z lat 80., gdy jedynym słusznym modelem gospodarki wydawał się skrajnie zindywidualizowany amerykański wolny rynek, a wszystko, co wspólnotowe, kojarzyło się z porażką centralnego planowania w rozpadającym się bloku komunistycznym. Tymczasem myślenie o etycznym rozwoju AI wymaga uwzględnienia perspektywy dobra wspólnego oraz większej wrażliwości obywatelskiej i ekologicznej.

Przewaga dzięki etyce

Wszystko to sprawia, że nasze ambitne plany rozwoju AI zgodnie z etyką mogą napotkać liczne przeszkody praktyczne: kadrowe, instytucjonalne czy mentalne. Nie oznacza to jednak, że są one niemożliwe do pokonania. Chodzi przede wszystkim o to, by zdawać sobie sprawę ze skali i rodzaju wyzwań oraz odpowiednio do nich podchodzić. Bez tego etyka AI pozostanie w Polsce szlachetną, lecz niemożliwą do zrealizowania ideą.

Aby tak się nie stało, niezbędne będzie zapewnienie finansowania projektom badawczym, edukacyjnym i popularyzującym ten obszar wiedzy oraz zaangażowanie przedsiębiorców do opracowania pilotaży testujących etyczne tworzenie i wdrażanie innowacji. Godna zaufania AI to bowiem w zamierzeniu KE narzędzie zdobywania przewagi konkurencyjnej dla europejskich firm.

O tym, że nie jest to jedynie myślenie życzeniowe brukselskich biurokratów, świadczą wyniki badań przeprowadzonych przez Capgemini Research Institute wśród konsumentów i menedżerów wysokiego szczebla w takich państwach, jak USA, Chiny, Wielka Brytania czy Francja. Wynika z nich, że ponad 50% ankietowanych dyrektorów jest przekonanych o potrzebie zapewnienia etyczności i transparentności systemów AI, a trzy czwarte konsumentów chciałoby wprowadzenia narzędzi, które to zagwarantują.

Czy polscy przedsiębiorcy również dostrzegą biznesowy potencjał etycznej AI? Będzie to w dużym stopniu zależało od tego, czy zagraniczni dostawcy AI zaczną traktować etyczność jako wartościowy wyróżnik w rynkowej grze. Nic jednak nie stoi na przeszkodzie, by polskie firmy, jako pierwsze, testowały prekursorskie rozwiązania w obszarze odpowiedzialnej sztucznej inteligencji, wytyczając szlaki dla innych. Jednym z głównych celów polskiej polityki AI powinno być zrobienie wszystkiego, by tak właśnie się stało.

Etyka sztucznej inteligencji – między postulatami a rzeczywistościąMaciej Chojnowski, dyrektor programowy i współtwórca Centrum Etyki Technologii Instytutu Humanites. Członek Grupy Roboczej ds. AI w KPRM. Orędownik odpowiedzialnych innowacji. Z zawodu dziennikarz. Był redaktorem pierwszego polskiego niekomercyjnego portalu poświęconego AI – sztucznainteligencja.org.pl. Autor wielu artykułów na temat etyki sztucznej inteligencji i technologii cyfrowych. Przeprowadził kilkadziesiąt wywiadów z krajowymi i zagranicznymi ekspertami w dziedzinie inżynierii IT, filozofii technologii i prawa. Zwolennik współpracy inżynierów i humanistów.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *