Cyberbezpieczeństwo

AutoGPT – czy da się walczyć z cyberprzestępcami przy pomocy sztucznej inteligencji?

Popularność ChatGPT na nowo rozbudziła dyskusje o sztucznej inteligencji. Jednym z rozwijanych obecnie mechanizmów bazujących na AI jest model AutoGPT. To projekt open-source, który ma na celu zautomatyzowanie działania modelu GPT-4. Jak się okazuje, korzystające z nich narzędzia mogą okazać się pomocne w walce z cyberprzestępczością. Ponadto, AutoGPT stanowi krok w kierunku wdrożenia tzw. ogólnej sztucznej inteligencji (z ang. artificial general intelligence, AGI).

AutoGPT – czy da się walczyć z cyberprzestępcami przy pomocy sztucznej inteligencji?

Narzędzia bazujące na SI zaczynają dziś wykonywać zadania, które kiedyś były zarezerwowane tylko dla ludzi. Mechanizm GPT stale się rozwija, a liczba parametrów, dzięki którym działa, błyskawicznie rośnie: GPT-1 miało 117 milionów parametrów (2018), GPT-2: 1,5 miliarda parametrów (2019), GPT-3: 175 miliardów parametrów (2020), a GPT-4 aż 170 bilionów parametrów (2023).

AutoGPT – krok w stronę AGI…

Wspomniana ogólna sztuczna inteligencja (AGI) to koncepcja, zgodnie z którą komputer może nauczyć się wykonywać zadania w sposób podobny do człowieka lub zwierzęcia. Ciekawostką jest, że po osiągnięciu tego poziomu zaawansowania, narzędzia bazujące na AGI mogłyby być niezwykle przydatne w opracowywaniu systemów i procesów zdolnych do proaktywnej obrony przed cyberatakami.

AGI potrafi myśleć o danym problemie, analizować dostępne opcje, a następnie wybrać najlepsze rozwiązanie. Ale osiągnięcie przez AGI pełnych zdolności operacyjnych jest wciąż odległe. Jednak gwałtowny wzrost liczby badań nad modelem GPT-4, czyli modelu językowego będącego sercem ChatGPT, doprowadził do powstania AutoGPT – projektu stanowiącego mały krok w kierunku wdrożenia ogólnej sztucznej inteligencji.

“AutoGPT to projekt open-source, który ma na celu zautomatyzowanie działania modelu GPT-4. W przypadku AutoGPT użytkownicy definiują zadania, a narzędzie wykonuje wszystkie pośrednie czynności, które zazwyczaj byłyby wykonywane przez użytkownika. Dzieli zadanie na etapy i uruchamia „agenta AI” w celu przeprowadzenia badań i podjęcia decyzji. Następnie autonomicznie działa na podstawie tych decyzji, informując jednocześnie użytkownika o swoim toku myślenia” – tłumaczy Jolanta Malak, dyrektorka Fortinet w Polsce.

… i walki z cyberprzestępcami

Model AutoGPT jest wciąż we wczesnym stadium wdrażania, wydano go w maju br. Może być on jednak ważnym narzędziem w walce z cyberprzestępczością. Jak wskazują specjaliści, jednym z popularnych działań, które AutoGPT może wykonać, jest znalezienie niezabezpieczonych serwerów VNC (Virtual Network Computing) za pomocą specjalistycznej wyszukiwarki Shodan. Znalezienie i zabezpieczenie wirtualnych serwerów, do których przestępcy mogą zdalnie uzyskać dostęp, jest istotnym elementem proaktywnego podejścia do bezpieczeństwa.

Analitycy z FortiGuard Labs, podmiotu firmy Fortinet zajmującego się badaniem i analizą zagrożeń, przeprowadzili test z użyciem AutoGPT. Wprowadzili do narzędzia adresy IP, wśród których mógł znajdować się zaatakowany serwer VNC. Następnie polecili AutoGPT przeskanowanie tych adresów. Narzędzie samo zdecydowało o użyciu programu Nmap do analizy adresów IP, a następnie pobrało na urządzenie kolejne oprogramowanie, które umożliwiło zidentyfikowanie serwera VNC na konkretnym adresie IP. Test ten pokazał, że AutoGPT potrafi samodzielnie podejmować decyzje o wyborze konkretnych programów i z nich korzystać. Może to więc okazać się niezwykle pomocne w wykrywaniu cyberataków i ich szybkim zwalczaniu.

“Na razie narzędzia takie jak AutoGPT bazują na ustalonych i znanych wzorcach ataków, więc nie sprawdzą się w walce z zaawansowanymi mechanizmami wykorzystywanymi przez cyberprzestępców” – podkreśla Jolanta Malak.

Eksperci Fortinet zalecają, by w celu zapewnienia bezpieczeństwa korzystać z mechanizmów takich jak IPS (Intrusion Prevention System), które mogą pomóc w wykrywaniu stosowanych przez napastników narzędzi do skanowania sieci, takich jak Nmap.

AutoGPT stanowi zatem obiecujący krok w kierunku wdrożenia ogólnej sztucznej inteligencji. Ale w miarę jej rozwoju ważne jest równoczesne dbanie o jej odpowiedzialne wykorzystanie oraz tworzenie odpowiednich mechanizmów regulacyjnych, aby uniknąć nadużyć i zagrożeń dla bezpieczeństwa.

Tagi

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *