Rynek

Sztuczna inteligencja – jej społeczny wymiar i zrównoważony rozwój

W środowiskach naukowych coraz częściej mówi się o koncepcji AI for Social Impact, czyli użyciu sztucznej inteligencji do rozwiązywania istotnych wyzwań w wymiarze społecznym. Jednak żeby technologia ta lepiej wspierała ludzi, ważne jest, aby rozwijać ją zgodnie z ideą zrównoważonego rozwoju. O tym rozmawiali naukowcy i ekspertki podczas debaty “Przyjazna strona AI. Dlaczego sztuczna inteligencja powinna rozwijać się w sposób zrównoważony?” zorganizowanej przez ośrodek badawczo-rozwojowy w obszarze sztucznej inteligencji IDEAS NCBR.

Sztuczna inteligencja – jej społeczny wymiar i zrównoważony rozwój
Źródło: Materiały prasowe

We wspomnianym panelu udział wzięli naukowcy: dr hab. Piotr Sankowski, prof. UW, prezes IDEAS NCBR i dr hab. inż. Tomasza Trzcińskiego, prof. PW, lider grupy badawczej oraz ekspertki: Katarzyna Szymielewicz, prawniczka i współzałożycielka Fundacji Panoptykon i dr Inez Okulska, kierowniczka Zakładu Inżynierii Lingwistycznej i Analizy Tekstu w NASK.

Choć koncepcja AI for Social Impact nie jest nowa, to w ostatnim czasie – wraz z coraz szerszą dyskusją na temat sztucznej inteligencji – wiele osób zaczęło przykładać do niej większą wagę. Podczas tegorocznej edycji prestiżowej konferencji AAAI (Association for the Advancement of Artificial Intelligence), która odbyła się w Waszyngtonie, badacze zwracali szczególną uwagę na zastosowania społeczne sztucznej inteligencji. Ponadto, tematyce tej poświęcono specjalną część wydarzenia, a już w sierpniu AAAI zorganizuje konferencję specjalną: Artificial Intelligence, Ethics and Society. Warto dodać, że w ramach największych konferencji z zakresu Machine Learning, od jakiegoś czasu w formularzach zgłoszeniowych pojawiła się obowiązkowa sekcja “social impact”, w której badacze muszą opisywać jaki wpływ na społeczeństwo mają ich algorytmy.

Nie bez znaczenia pozostają także wartości, którymi kieruje się wielu badaczy. “Duży wpływ na popularność AI for social impact ma rosnący trend, który nazwałbym “antykorporacyjnym” – młodzi ludzie chcą tworzyć projekty przydatne społecznie, rozwiązujące realne problemy i mogące prowadzić do poprawy jakości życia” – skomentował prof. Piotr Sankowski.

Zielone AI

Panelistki i paneliści zwracali m.in. uwagę na konieczność tworzenia bardziej “zielonych” algorytmów poprzez realizację tzw. “recyklingu” zasobów wykorzystanych w uczeniu maszynowym. Co istotne, ponowne ich wykorzystanie może też korzystanie wpływać na wydajność algorytmów. Badania w tym zakresie prowadzi obecnie grupa badawcza Zero-waste machine learning in computer vision w IDEAS NCBR. I tak, naukowcy wykorzystują informacje, obliczenia oraz zasoby, do których mają już dostęp, stosując więc wspomniany recykling obliczeń. Ponadto skupiają się na tworzeniu modeli uczących się być wydajnymi, a nie tylko zdolnymi do rozwiązania konkretnego zadania.

AI może być więc używana również do wspierania transformacji energetycznej i zwiększania efektywności energetycznej (inteligentne sieci energetyczne). “Efektywność energetyczną można podwyższać już na poziomie budowania algorytmów. W tym celu możemy energooszczędnie uczyć i stosować modele machine learning. Szczególne, że stają się one coraz bardziej powszechne i wymagające coraz większej mocy obliczeniowej” – powiedział prof. Tomasz Trzciński, dodając, że algorytmy zużywają sporo energii. “Wytrenowanie jednego modelu AI może przyczynić się do emisji dwutlenku węgla równej całemu cyklowi życia pięciu samochodów” – wskazał.

Jak się okazuje, badania w obszarze zrównoważonego rozwoju AI, są również niezwykle istotne dla widzenia maszynowego, ponieważ np. w branży medycznej, gdzie algorytmy wspierają personel medyczny w trakcie operacji z użyciem robotów, wydajność obliczeniowa algorytmów przekłada się bezpośrednio na czas reakcji w trakcie zabiegu. A to z kolei korzystnie wpływa np. na zmniejszone ryzyko powikłań.

Korzyści AI w wymiarze społecznym

Naukowcy próbują wykorzystać AI w medycynie na wielu płaszczyznach: np. do rozpoznawania niebezpiecznych zmian skórnych, do wirtualnego barwienia tkanek czy wybierania narządów do przeszczepu. Takie działania mogą nie tylko przyspieszyć pracę lekarzy i personelu medycznego, ale także zmniejszyć koszty związane z leczeniem.

Istnieją również mniej oczywiste korzyści, jakie AI może przynieść w wymiarze społecznym. Chodzi o pozytywny wpływ na rozwiązania w rolnictwie (zbieranie i analiza precyzyjnych danych dotyczących upraw) czy leśnictwie precyzyjnym (rozwijanie metod umożliwiających precyzyjny pomiar pojedynczych drzew).

“Budując rozwiązania z obszaru AI – nawet te, które nie są bezpośrednio związane z pozytywnym wpływem – należy zawsze brać pod uwagę aspekty społeczne towarzyszące rozwojowi AI. Nie można ich pomijać i skupiać się wyłącznie na zwiększaniu przychodów, ponieważ może to doprowadzić do bardzo niepożądanych sytuacji, np.  wzmacniania uprzedzeń i nierówności, zamiast ich zwalczania” – mówił prof. Piotr Sankowski.

Ważna kwestia to transparentność danych

W Stanach Zjednoczonych używa się algorytmów np. do planowania patroli policyjnych. Są one zdolne do wskazywania konkretnych obszarów, na których z dużym prawdopodobieństwem dojdzie do przestępstwa, np. w trakcie trwania dużych wydarzeń sportowych. Wskazówki generowane są na podstawie powiązań między miejscem, wydarzeniami i wskaźnikami przestępczości. Inne narzędzia wykorzystują osobiste dane, by przed wydaniem wyroku określić, czy oskarżony będzie skłonny do popełnienia kolejnego przestępstwa. Problem tkwi w danych, jakie dostarcza się algorytmowi, co często w bardzo prosty sposób prowadzi do zniekształceń. Jak wynika z artykułu MIT Technology Review, osoba czarnoskóra jest narażona na zatrzymanie bez uzasadnionej przyczyny pięć razy bardziej niż biała. Źle budowane algorytmy wzmacniają tylko uprzedzenia i mogą prowadzić do niepokojów społecznych.

“Ważne jest to, by użytkownicy mieli wgląd w to, jaka ścieżka wnioskowania doprowadziła algorytm do konkretnego wyniku. To pozwoliłoby nie tylko zmniejszyć obawy ludzi dotyczące sztucznej inteligencji, ale także zminimalizować błędy i idące za nimi uprzedzenia. Dlatego nie mam wątpliwości, że konieczne jest powstawanie narzędzi z zakresu Explainable AI, które “tłumaczyłyby” decyzje algorytmów i pozwalałyby usuwać błędy w nich zawarte” – stwierdził prof. Piotr Sankowski.

Okazuje się, że można to robić na kilku poziomach: budować modele oparte na architekturach z góry zaprojektowanych tak, by były możliwie objaśnialne, lub post-factum wyjaśniać decyzję modeli, i to bardziej statystycznie lub bardziej empirycznie, w zależności od stopnia złożoności lub dostępu do samego modelu – tłumaczyły ekspertki.

“Tak zwane czarne skrzynki można między innymi do pewnego stopnia „otwierać” behawioralnie i to tyczy się między innymi wielkich modeli językowych. Polega to na projektowaniu testów, na przykład w przypadku chatu, składających się z sekwencji i wariantów konkretnych zapytań (tzw. prompt) i wieloaspektowym badaniu odpowiedzi modelu. Odpowiedzialna, godna zaufania sztuczna inteligencja (responsible, trust-worthy AI) to najważniejszy obecnie kierunek, który musi ramię w ramię iść z rozwojem samych algorytmów. Pilnować, żeby koncentracja na spektakularnych wynikach nie przysłoniła całego horyzontu. Dogłębna analiza i zrozumienie danych używanych do uczenia modeli, wyjaśnianie decyzji, badanie możliwych przekrzywień (biases) i odporności proponowanych rozwiązań jest również ważne, co kolejne procenty w rankingach rezultatów” – podkreślała dr Inez Okulska.

Jak podkreślano podczas spotkania, rynek rozwiązań opartych na AI pokazał, że nie ureguluje się sam. Błędy i skrzywienia w działaniu nienadzorowanych algorytmów, trenowanie modeli na niekompletnych zbiorach danych, często z naruszeniem zasad ochrony danych osobowych – to wszystko dobrze rozpoznane już problemy.

“Żeby nie dopuścić do ich eskalacji, Unia Europejska pracuje właśnie nad kompleksową regulacją sektora AI. W miejsce rozmytych deklaracji etycznego podejścia do technologii, które tak chętnie serwują nam dziś firmy technologiczne, pojawią się konkretne obowiązki prawne, w tym obowiązek oceniania wpływu danego systemu na prawa człowieka zanim zostanie on wprowadzony na rynek” – podsumowała Katarzyna Szymielewicz.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *