Lektury nadesłaneSztuczna inteligencja

Książka: dylemat sztucznej inteligencji – 7 zasad odpowiedzialnej technologii

Niewłaściwe wykorzystanie sztucznej inteligencji doprowadziło do niesłusznych aresztowań, odmowy opieki medycznej, a nawet ludobójstwa – ta książka oferuje 7 zasad, które biznes może teraz wykorzystać, aby położyć kres przyszłym szkodom.

Książka: dylemat sztucznej inteligencji – 7 zasad odpowiedzialnej technologii

Sztuczna inteligencja niesie ze sobą niesamowitą obietnicę poprawy praktycznie każdego aspektu naszego życia, ale nie możemy ignorować jej zagrożeń, błędów i nadużyć – piszą Juliette Powell i Art Kleiner autorzy książki „The AI Dilemma – 7 Principles for Responsible Technology”, którą otrzymałem w zeszłym tygodniu.

We wstępie autorzy wspominają o eksperymencie MIT Media Lab „The Moral Machine”, w którym udział wzięło ponad 2,3 mln osób. The Moral Machine opiera się na tzw. problemie wózka, eksperymencie myślowym wprowadzonym przez filozofkę Philippę Foot w 1967 roku. We wszystkich jego odmianach niektórzy ludzie muszą żyć, inni muszą umrzeć, a czas na dokonanie wyboru jest ograniczony. Członek wydziału Media Lab, Iyad Rahwan, wybrał ten problem jako sposób na sprawdzenie nastawienia ludzi do autonomicznych samochodów i podejmowaniu przez nich decyzji o reakcji na ewentualne niebezpieczne zdarzeniana drodze.

Iyad Rahwan i jego koledzy chcieli zbadać psychologiczne blokady, które mogą powstrzymywać ludzi przed korzystaniem z tych pojazdów lub innych systemów sztucznej inteligencji. Aby zdać sobie sprawę z ich potencjalnej wartości w zmniejszaniu zatorów drogowych, zwiększaniu bezpieczeństwa i ograniczaniu emisji gazów cieplarnianych, społeczeństwo musi zaakceptować, kupić i używać tych pojazdów. Eksperyment miał ujawnić bariery na drodze do ich akceptacji.

Nigdy w historii ludzkości nie pozwoliliśmy maszynie na autonomiczne decydowanie o tym, kto powinien żyć, a kto umrzeć, w ułamku sekundy, poza nadzorem, w czasie rzeczywistym” – napisali Iyad Rahwan, Edmond Awad i ich współpracownicy w artykule w Nature z 2018 roku. „Przekroczymy ten most w każdej chwili i nie stanie się to w odległym teatrze operacji wojskowych. Stanie się to w najbardziej przyziemnym aspekcie naszego życia: codziennym transporcie. Zanim pozwolimy naszym samochodom podejmować etyczne decyzje, musimy odbyć globalną rozmowę, aby wyrazić nasze preferencje firmom, które zaprojektują algorytmy moralne, oraz decydentom, którzy będą je regulować” – dodają.

Juliette Powell i Art Kleiner uważają, że w miarę jak sztuczna inteligencja i zautomatyzowane systemy stają się częścią codziennego życia, zmuszają ludzi do myślenia o ryzyku i odpowiedzialności w bardziej ogólny sposób. W The Moral Machine miliony ludzi wyraziły głęboko zakorzenione opinie na temat tego, kto powinien zostać poświęcony: dzieci czy dorośli, kobiety czy mężczyźni, bogaci czy biedni? Rzadko zadajemy te pytania ludzkim kierowcom, ale ludzie chcą je przemyśleć, gdy za kierownicą siedzi sztuczna inteligencja.

Takich dylematów będzie więcej, stąd propozycja autorów 7 zasad, dzięki którym algorytmy AI mogą wspierać rozwój człowieka. Oparte są one na badaniach prowadzonych przez Juliette Powell na Uniwersytecie Columbia i za pośrednictwem The Gathering Think Tank, i wskazują na wiele, rzeczywistych przykładów.

Pierwsze cztery zasady dotyczą samych systemów sztucznej inteligencji, a ostatnie zaś odnoszą się do organizacji tworzących systemy AI:

  1. Ryzyko dla człowieka musi być rygorystycznie określone i świadomie uwzględnione w każdym procesie projektowania.
  2. Systemy AI muszą być zrozumiałe i przejrzyste dla każdego obserwatora, a nie tylko dla pracujących nad nimi inżynierów.
  3. Ludzie muszą mieć możliwość ochrony danych osobowych i zarządzania nimi.
  4. Uprzedzenia wbudowane w sztuczną inteligencję muszą być konfrontowane i redukowane.
  5. Muszą istnieć procedury, które pociągną je do odpowiedzialności za negatywne konsekwencje.
  6. Organizacje muszą mieć luźną strukturę, aby problemy w jednym obszarze mogły być izolowane i rozwiązywane, zanim rozprzestrzenią się i sabotują cały system.
  7. Wreszcie, musi istnieć psychologiczne bezpieczeństwo i twórcze tarcia, tak aby każdy zaangażowany w rozwój oprogramowania mógł ujawnić problemy bez obawy przed represjami.

Juliette Powell i Art Kleiner analizują w swojej książce to, w jaki sposób wdrożyć każdą z tych zasad, przytaczając najlepsze obecnie praktyki, obiecujące nowe rozwiązania i wskazując otrzeźwiające przestrogi. Uwzględniają przy tym 4 perspektywy – inżynierów, biznesmenów, rządów i działaczy społecznych.

Sztuczna inteligencja jest bardzo dobra w odkrywaniu tego, co jest nie tak w ludzkim społeczeństwie i wskazywaniu rozwiązań. Ale nie należy w efekcie wykorzystywać jej np. do zatrudniania większej liczby osób ze środowisk ‘defaworyzowanych’, a raczej iść w górę rzeki i dowiedzieć się, jak naprawić te środowiska” – komentuje we wstępie do książki „The AI Dilemma – 7 Principles for Responsible Technology” Esther Dyson, założycielka Wellville, a także wieloletnia inwestorka i filantropka w dziedzinie technologii i zdrowia.

Zdolność sztucznej inteligencji do jasnego modelowania rzeczy – i opisywania szeregu wyników – może pomóc nam analizować i zarządzać naszymi osobistymi i zbiorowymi wyborami. Przykładowo AI może pozwolić nam zrozumieć – i przekonać innych do zrozumienia – wpływ na naprawę systemu edukacji sposobu płacenia nauczycielom wynagrodzeń, które odzwierciedlają ich długoterminową wartość dla społeczeństwa, zamiast skupiać się na kwocie, jaką rodzice zapłacą w krótkim okresie” – dodaje.

Jak zauważa Esther Dyson, nawet jednak kiedy sztuczna inteligencja ułatwia przewidywanie wyników pewnych działań – lub efekty braku działania – społeczeństwo coraz bardziej koncentruje się na krótkoterminowych wynikach. „Pod wieloma względami wynajmujemy naszą przyszłość od nieobecnego właściciela. Nikt nie inwestuje w nasze wspólne aktywa: infrastrukturę, środowisko, kapitał ludzki. Nawet rząd koncentruje się na perspektywie krótkoterminowej, na tym, co przyniesie głosy. Ludzie notorycznie myślą krótkoterminowo, podobnie jak korporacje, zyski w następnym kwartale mają pierwszeństwo” – podkreśla.

Esther Dyson zastanawia się, czy może firmy ubezpieczeniowe nie mogłyby wkroczyć do walki i rozpowszechnić swoje, długoterminowe podejście. Branża ubezpieczeniowa zrobiła wiele, aby zwiększyć bezpieczeństwo ustanawiając ich zasady i kontrolując ich przestrzeganie. Firmy te nie ubezpieczają po prostu od ryzyka. Zmniejszają je, wymuszając inwestycje w bezpieczeństwo, trwałość i redukcję ryzyka, za które pobierają starannie obliczoną składkę.

Wyobraźmy sobie, że w ten sposób ubezpieczamy zdrowie populacji lub nasze bezpieczeństwo. Dodatkowo wykorzystanie sztucznej inteligencji może zachęcić i zmusić nas do podejmowania decyzji, które nie dyskontują przyszłości – decyzji, za które będziemy później wdzięczni AI. Dzięki dobrym scenariuszom alternatywnym stworzonym przez algorytmy AI będziemy zaś dokładnie wiedzieć, jak bardzo powinniśmy być wdzięczni” – podsumowuje Esther Dyson.

The AI Dilemma: 7 Principles for Responsible Technology (15 sierpnia 2023 r.) dostępna jest w sklepie Amazon.

Juliette Powell jest przedsiębiorczynią, naukowcem i strategiem, który pracuje na przecięciu kultury, nauki o danych i etyki. Jest członkiem wydziału Interactive Telecommunications Program na New York University i partnerem-założycielem Kleiner Powell International. Wraz z Intel Labs współtworzyła sieć badawczą WeTheData.

Art Kleiner jest pisarzem, redaktorem, konsultantem, facylitatorem i przedsiębiorcą z doświadczeniem w dziedzinie technologii, kultury biznesowej, myślenia scenariuszowego i uczenia się organizacji. Jest członkiem wydziału programów Interactive Telecommunications i Interactive Media Arts na New York University. W latach 2005-2020 Kleiner był redaktorem naczelnym magazynu o zarządzaniu Strategy+Business oraz dyrektorem w PwC. Jego poprzednie książki to m.in. “The Age of Heretics: A History of the Radical Thinkers Who Reinvented Corporate Management”, “Who Really Matters: The Core Group Theory of Power, Privilege and Success” i “The Wise Advocate: The Inner Voice of Strategic Leadership”.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *