CyberbezpieczeństwoPolecane tematy

Automatyczne systemy przetwarzania danych wymagają dostosowania prawa

Urynkowienie technologii informacyjnych spowodowało, że państwo straciło już monopol nad programowaniem rozwoju technologicznego, pomimo że w wielu dziedzinach siłą napędową postępu nadal są prace badawczo-rozwojowe i wdrożenia dla potrzeb wojska.

Dotyczy to rozwoju robotyki, bezzałogowych statków powietrznych (BSP), systemów wspomagania decyzji w planowaniu operacyjnym i działaniach taktycznych, czy czujników stanowiących wyposażenie indywidualne żołnierza. Armia mogła do niedawna dokonywać wdrożeń technologii według uznania podporządkowanego całkowicie celom militarnym. Innowacyjne rozwiązania w zastosowaniach wojskowych są wdrażane na poligonach, częściowo wyłączonych z cywilnej jurysdykcji. Następnie są sprawdzane w warunkach bojowych, gdzie obowiązują co najwyżej ogólne zasady prawa wojennego.

Dzisiaj mamy do czynienia z jednej strony z dosyć szybką proliferacją nowych technologii z sektora wojskowego do zastosowań komercyjnych, z drugiej strony z błyskawicznym rozwojem niektórych zastosowań całkowicie komercyjnych adaptowanych dla celów wojskowych, często nawet bez tradycyjnej troski o ich specjalne przygotowanie. Wybory tego rodzaju nowych produktów determinuje ekonomika, funkcjonalność oraz wygoda. Dzieje się tak zwłaszcza w dziedzinie technologii informacyjnych, oprogramowaniu i aplikacjach, w których konkurencja komercyjnego rynku tworzy często skuteczniejsze impulsy dla innowacji niż wspierane przez państwo specjalne programy rozwoju technologii dla zastosowań militarnych.

Jednym z najszybciej rozwijających się obszarów zastosowań systemów inteligentnych, które mogą wymagać uregulowań, jest gromadzenie i przetwarzanie informacji obrazowych w systemach monitoringu wizyjnego w miastach, a także za pomocą wzrastającego rynku BSP (dronów).

Komercyjne zastosowania systemów pierwotnie pomyślanych jako wojskowe wymagają dostosowania się do ogólnie obowiązujących reguł prawa w zakresie produktów przemysłowych. W przypadku robotów to np. szeroki zakres uregulowań dotyczących bezpieczeństwa użytkowania i związanej z tym standaryzacji. W tym przypadku innowacyjność zastosowań najczęściej oznacza również konieczność nowych prac normalizacyjnych.

 

Ochrona prywatności

Informacje w systemach automatycznego przetwarzania danych o osobach, połączeniach telekomunikacyjnych, sposobach użytkowania aplikacji mogą być wrażliwe z punktu widzenia prywatności. Jednym z najszybciej rozwijających się obszarów zastosowań systemów inteligentnych, które mogą wymagać uregulowań, jest gromadzenie i przetwarzanie informacji obrazowych w systemach monitoringu wizyjnego w miastach, a także za pomocą wzrastającego rynku BSP (dronów). Systemy te wspomagają pracę służb porządku publicznego, służb ochrony obiektów, służb angażowanych w działania prowadzone w sytuacjach kryzysowych. Także ogromny potencjał zastosowań komercyjnych bezzałogowych statków latających polega na możliwości przetwarzania obrazów. Zarówno w związku z zastosowaniem kamer w monitoringu miejskim, jak i przy użyciu dronów do rozpoznania i obserwacji podnosi się obecnie kwestię ochrony prywatności. Oceniając zjawisko pod kątem ewentualnych zagrożeń, trzeba pamiętać, że chociaż to zagadnienie nowe, kamery jednak nie są wynalazkiem nowym.

Potrzebna jest równowaga pomiędzy korzyściami wynikającymi z ułatwionego dostępu do informacji, a zagrożeniami powstałymi wskutek ograniczenia prywatności identyfikowanych w ten sposób osób. Nie chodzi o wprowadzenie restrykcji w sprawie zastosowań. To byłoby trudne, ponieważ rosnący rynek wynika z upowszechnienia środków. W ciągu ostatniej dekady uzyskaliśmy mnóstwo nowych narzędzi, takich jak: smartfony, tablety, GPS, aparaty, kamery cyfrowe. Są one proste w użyciu, coraz mniejsze i lżejsze, zużywają mało energii, informacje przetwarzają szybko i automatycznie i są podłączone do sieci. Postępowi w elektronice oraz w technikach cyfrowych i komunikacyjnych towarzyszy postęp w inżynierii materiałowej, nanotechnologiach, systemach gromadzenia i magazynowania energii. Zastosowania prywatne, komercyjne, profesjonalne, ale także wojskowe wzajemnie się stymulują.

Poza zagrożeniami cyberbezpieczeństwa niedogodności związane z ewentualną utratą prywatności należą obecnie do najbardziej spektakularnych czynników ryzyka, jeżeli chodzi o technologie informacyjne. Rozważając potencjalne zagrożenia, nie powinno się planować ograniczeń dostępu powszechnie już stosowanych technologii, tak jak kiedyś wprowadzono ograniczenie dostępu do broni i materiałów niebezpiecznych. Trudno liczyć na skuteczność ograniczeń, mimo że niektóre środowiska organizacji swobód obywatelskich to postulują. W sumie chodzi o narzędzia o bardzo wielu pożytecznych zastosowaniach. Wysiłki regulacyjne powinny być skierowane na to, co ludzie mogą robić z pozyskaną informacją. Należy wyjść od ugruntowanej doktryny prywatności stanowiącej, że każdy ma prawo do osobistej oceny, które dane uważa za wrażliwe, biorąc przy tym pod uwagę ewolucję pojęcia sfery prywatności.

Na rynku kształtują się już mechanizmy, np. w formie procedur, które w wybranych miastach świata obowiązują funkcjonariuszy policji obsługujących monitoring wizyjny. Procedury obejmują kwestie przetwarzania informacji, czasu i sposobu przechowywania, niszczenia, a także rozliczalności i uwierzytelniania personelu oraz wykonywanych czynności. Takie procedury mogą być wzorem dla wprowadzenia uregulowań w sprawie przetwarzania obrazów w systemach bezzałogowych statków powietrznych.

 

Prawo lotnicze a drony

Podobnie jak w wielu innych państwach, zastosowanie bezzałogowych statków powietrznych należy uznać w świetle przepisów Prawa lotniczego za obszar w części nadal nieuregulowany. Raport w tej sprawie, przygotowany w 2013 r. przez Urząd Lotnictwa Cywilnego (ULC), zwraca uwagę na potencjalne bogactwo zastosowań, ale już na wstępie zawiera konkluzję, że wcześniejszy brak regulacji nie przeszkodził w rozwoju lotnictwa bezzałogowego.

Na rynku kształtują się już mechanizmy, np. w formie procedur, które w wybranych miastach świata obowiązują funkcjonariuszy policji obsługujących monitoring wizyjny. Procedury obejmują kwestie przetwarzania informacji, czasu i sposobu przechowywania, niszczenia, a także rozliczalności i uwierzytelniania personelu oraz wykonywanych czynności.

Kwestia użytkowania BSP jest przedmiotem wielopłaszczyznowych prac normalizacyjnych, technicznych i prawnych na forum Międzynarodowej Organizacji Lotnictwa Cywilnego ICAO, a w Komisji Europejskiej w ramach grupy sterującej RPAS. W poprzednim stanie prawnym wykonywanie lotów bezzałogowych w polskiej przestrzeni powietrznej było zabronione, jeżeli nie uzyskano każdorazowo zgody Prezesa ULC (art. 126), ale taki lakoniczny zakaz tworzył lukę prawną, pozwalającą bez szczególnego ryzyka naruszeń wykonywać loty w niekontrolowanej przestrzeni powietrznej, np. sklasyfikowanej przez ICAO jako G, czyli poniżej ok. 300 m. Także w przypadku lotów wojskowych wykorzystywano ogólne wyłączenie niektórych przepisów Prawa lotniczego.

W aktualnym brzmieniu ustawy wyłączenie stosowania przepisów Prawa lotniczego wobec lotów wojskowych nie obejmuje lotów bezzałogowych statków powietrznych. Znowelizowane w 2011 r. Prawo lotnicze odwraca sens przepisu. Teraz loty bezzałogowych statków powietrznych są możliwe pod określonymi warunkami, dzięki klauzuli generalnej wprowadzonej ust. 1 art. 126. Ustawa nie definiuje bezzałogowych statków powietrznych, odsyłając, podobnie jak w przypadku innych pojęć technicznych, do przepisów wykonawczych. Biorąc pod uwagę techniczną złożoność przedmiotu regulacji, taka logika konstrukcji przepisów prawa lotniczego jest uzasadniona, ale nie ułatwia zrozumienia ograniczeń lub obowiązków rozproszonych w różnych przepisach. Zaistnienie przepisów wykonawczych likwiduje poprzednie luki prawne, a w konsekwencji praktycznie utrudnia wykonywanie lotów w sposób, który nie jest uregulowany przepisami. Obecnie najbardziej kłopotliwy jest brak uregulowań wykonywania lotów statków bezzałogowych poza zasięgiem widoczności, które należą do typowych zastosowań wojskowych.

 

Prawne aspekty transhumanizmu

Robotyka od samego początku wiąże się z rozważaniami na temat skutków cywilizacyjnych zastępowania człowieka przez maszyny. We wcześniejszej części tego rozdziału zasygnalizowano już ożywienie prac standaryzacyjnych w sprawie bezpieczeństwa użytkowania, ochrony konsumentów i odpowiedzialności za jakość wyrobów. Trzeba jednak zwrócić uwagę, że upowszechnienie systemów inteligentnych w autonomicznie działających robotach będzie pociągało za sobą konieczność przeglądu i ewentualni rewizji wielu różnych przepisów w prawie cywilnym, prawie pracy, prawie własności intelektualnej, prawie karnym i innych. Obecne zmiany w prawie lotniczym to dopiero początek.

Tzw. sztuczna inteligencja pojawia się już w wybranych rozwiązaniach technicznych, które będą w najbliższych latach doskonalone. To oczywiście kwestia konwencji prawnej, ale prosta zasada, że operator zdalnie sterowanego systemu odpowiada za skutki jego działań, wkrótce może nie być jednoznacznie oczywista, kiedy system ten będzie wyposażony w niezależny system analizy i podejmowania decyzji. Tym bardziej w dalszej przyszłości nieoczywiste może być obciążanie odpowiedzialnością i roszczenia wobec programisty lub konstruktora systemu inteligentnego działającego całkowicie autonomicznie.

Więcej w raporcie “Człowiek, maszyna, bezpieczeństwo” powstałym po I konferencji Pięć żywiołów. Wolność, Informacja, Bezpieczeństwo. Autorami raportu są: Andrzej Gontarz, Ewa Kędzierska, Sławomir Kosieliński i Piotr Rutkowski.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *