Sztuczna inteligencjaBiznes

Tendencyjność danych w erze generatywnej sztucznej inteligencji

Jak wynika z badania zleconego przez firmę Progress, 66% organizacji doświadcza obecnie problemu tendencyjności danych. Wykorzystywana w coraz większym stopniu sztuczna inteligencja wzmacnia nieświadome uprzedzenia tworzących ją osób. Taki stan rzeczy sprawia, że decyzje, przy których podejmowaniu używana jest najnowsza technologia, mogą być nieobiektywne, niesprawiedliwe, a nawet krzywdzące dla pewnych grup. 78% ankietowanych przedsiębiorstw obawia się, że wraz z rozwojem AI i uczenia maszynowego problem będzie się powiększał. Jak korzystać ze sztucznej inteligencji w sposób świadomy i etyczny?

Tendencyjność danych w erze generatywnej sztucznej inteligencji

Kiedy w grudniu 2022 roku OpenAI wydało bezpłatną wersję podglądową ChatGPT, w ciągu zaledwie pięciu dni firma pozyskała ponad milion zarejestrowanych użytkowników. Sztuczna inteligencja przestała być narzędziem używanym wyłącznie przez analityków czy programistów. Dzięki rozwiązaniom takim jak ChatGPT, wizja świata, w którym każdy użytkownik posiada dostęp do AI oraz oferowanego przez nią potencjału, jest na wyciągnięcie ręki.

Sztuczna inteligencja już w tym momencie jest w stanie zapewnić użytkownikom zaawansowaną personalizację treści oraz dogłębną analitykę danych. W połączeniu z intuicyjnymi i dobrze zaprojektowanymi interfejsami oraz napędzającymi ją różnorodnymi zbiorami danych, wygoda i możliwości wynikające z funkcjonowania w cyberprzestrzeni zyskały nowy, lepszy wymiar.

Pomimo wielu udogodnień oferowanych przez sztuczną inteligencję, nie należy zapominać o wiążącym się z nią ryzyku. Konieczna jest jego wnikliwa analiza, szczególnie w kwestiach dotyczących etyki. Zaniedbanie tego aspektu może narazić przedsiębiorców na poważne konsekwencje. Aby być świadomym użytkownikiem AI, należy stworzyć odpowiednią strategię korzystania z tej przełomowej technologii.

Problem tendencyjności danych

Jakość funkcjonowania generatywnej sztucznej inteligencji jest zależna od jakości jej modeli szkoleniowych. Staranna selekcja danych jest niezbędna w celu stworzenia różnorodnej bazy użytkowników oraz przypadków użycia narzędzia. Jest to szczególnie ważne, biorąc pod uwagę potencjał sztucznej inteligencji do utrwalania nieświadomych uprzedzeń, które mogą negatywnie wpływać na zmarginalizowane grupy.

“Wartym rozważenia rozwiązaniem jest gromadzenie danych m.in. z szerokiej gamy źródeł demograficznych i geograficznych. Wówczas można mieć pewność, że modele szkoleniowe AI będą jak najbardziej zróżnicowane. Z pomocą mogą przyjść także zautomatyzowane narzędzia. Biorąc pod uwagę fakt, że nieświadome uprzedzenia ze swojej definicji są czymś, z czego nie zdajemy sobie sprawy, niektóre firmy decydują się na implementację algorytmów uczenia maszynowego (ML). Korzystają z ich pomocy w celu identyfikacji i usuwania stronniczego języka ze zbiorów danych tekstowych. Inne przedsiębiorstwa stawiają zaś na techniki statystyczne. Wykorzystują je do rozpoznawania i eliminowania rozbieżności w reprezentacji demograficznej” – mówi Jakub Andrzejewski, Business Development Manager for Poland & CIS, Progress.

Przepisy (lub ich brak) – jak się wokół nich poruszać?

Częstym problemem w przypadku szybko rozwijających się rozwiązań technologicznych jest to, że procesy legislacyjne nie są w stanie za nimi nadążyć. W związku z tym, wokół zjawiska sztucznej inteligencji narasta wciąż wiele kwestii spornych. Przykładowo, jeżeli narzędzie generatywnej sztucznej inteligencji wykorzystuje informacje znalezione w sieci do wytrenowania swojego modelu językowego (LLM), kto jest faktycznym właścicielem danych wyjściowych?

Innym przykładem może być sytuacja, w której LLM udostępniło kod open source, ale krótko po tym fakcie właściciel usunął swoją zgodę na jego przetwarzanie przez to narzędzie. Co się stanie, jeśli zespół programistów zdążył zaimplementować ten kod z generatywnej sztucznej inteligencji? Czy jego członkowie mogą spodziewać się kłopotów?

To jedynie kilka kwestii, które wciąż czekają na rozwiązanie za pośrednictwem aktów prawnych. Dobrą wiadomością jest to, że Unia Europejska pracuje obecnie nad przepisami o sztucznej inteligencji. Celem prac są regulacje dotyczące jakości danych, zwiększenie przejrzystości w kwestiach własności, a także odpowiedzialności, szczególnie w aspekcie etyczności. Inne kraje i podmioty rządowe prawdopodobnie podążą śladem UE.

Biorąc pod uwagę obecny brak rozwiązań prawnych, przedsiębiorcy muszą dokładnie zapoznać się z rodzajem sztucznej inteligencji, której implementację rozważają. W ten sposób możliwe będzie przewidzenie, w jakich obszarach mogą zostać wprowadzone regulacje w przyszłości.

Postępy w dziedzinie sztucznej inteligencji stanowią przełom w kwestii funkcjonowania w cyberprzestrzeni. Należy jednak pamiętać o tym, by korzystać z tego udogodnienia w sposób odpowiedzialny i świadomy. To z kolei wymaga działań mających na celu ograniczenie wpływu nieświadomych uprzedzeń na AI oraz aktywną edukację w zakresie tworzonych regulacji. Spełnienie tych warunków będzie miało pozytywny wpływ nie tylko na ogólne doświadczenie korzystania ze sztucznej inteligencji, lecz także na poziom etyczności.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *