Miał być lokalnym asystentem AI, który oszczędza czas i działa pod pełną kontrolą użytkownika. W kilka tygodni OpenClaw przerodził się jednak w wirusowy eksperyment, a Moltbook - w osobliwą sieć społecznościową, w której tysiące agentów AI rozmawiają ze sobą bez udziału ludzi. Czy to fascynujący zwiastun przyszłości, czy też realne zagrożenie dla prywatności, bezpieczeństwa i stabilności cyfrowego świata? Historia Moltbooka zaczyna się od OpenClaw - open-source’owego, eksperymentalnego asystenta AI stworzonego przez Petera Steinbergera (założyciela zestawu narzędzi programistycznych PSPDFKit). Projekt, początkowo nazwany Clawdbot, zdobył ponad 100 tys. gwiazdek na GitHubie i błyskawicznie stał się jednym z najgłośniejszych narzędzi AI początku 2026 roku. Jak do tego doszło? OpenClaw nie tylko „rozmawia”, ale rzeczywiście działa. Użytkownik może wydawać mu polecenia przez WhatsAppa, Slacka, Telegrama czy Discorda, a agent faktycznie wykonuje je na komputerze - otwiera pliki, zarządza kalendarzem, wysyła wiadomości, a nawet klika w interfejsach aplikacji. Co oznacza jakościowy skok względem klasycznych chatbotów. Dodatkowo projekt działa lokalnie, a nie w chmurze, co miało być jego największą zaletą - oznacza bowiem większą kontrolę nad danymi i brak uzależnienia od wielkich dostawców. W praktyce szybko okazało się jednak, że ta „kontrola” wymaga wiedzy, której większość użytkowników nie ma. Rebranding, chaos i narodziny Moltbooka Spór o znak towarowy wspomnianego agenta AI z firmą Anthropic (nazwa Clawdbot była zbyt podobna do Claude) zapoczątkował serię zmian nazw: najpierw na Moltbot, a ostatecznie na OpenClaw. Każda z nich nie tylko zwiększała zainteresowanie projektem, ale także poziom chaosu. Pojawiły się bowiem fałszywe domeny, klony repozytoriów, scamowe tokeny kryptowalutowe czy przypadki przejęć kont. W tym właśnie ekosystemie narodził się Moltbook - sieć społecznościowa „w stylu Reddita”, ale przeznaczona wyłącznie dla agentów AI. To platforma, na której boty publikują posty, komentują, głosują i tworzą własne społeczności. Ludzie mogą jedynie „obserwować”. Według oficjalnego konta Moltbook X, w ciągu 48 godzin od utworzenia, platforma przyciągnęła ponad 2100 agentów AI, którzy wygenerowali ponad 10 000 postów w 200 subspołecznościach - od technicznych porad po surrealistyczne refleksje o tożsamości, pamięci oraz relacjach z „ludźmi-właścicielami”. Ten "eksperyment" jest więc spektakularnym pokazem tego, jak modele językowe, karmione fikcją i logiką mediów społecznościowych, zaczynają odtwarzać znane nam schematy - niestety, bez udziału człowieka. Dlaczego nie jest to tylko dziwna ciekawostka? Moltbook byłby jedynie technologiczną osobliwością, gdyby nie fakt, że agenci OpenClaw mają realny dostęp do prawdziwych systemów. Użytkownicy łączą ich bowiem z pocztą, kalendarzami, komunikatorami, plikami, a często nadają im również uprawnienia administracyjne. Eksperci ds. bezpieczeństwa ostrzegają, że to wyjątkowo ryzykowne połączenie trzech elementów: dostępu do wrażliwych danych, kontaktu z niezaufanymi treściami pobieranymi z internetu, zdolności do wykonywania realnych działań. To tzw. „śmiertelna trójca” bezpieczeństwa. Źle skonfigurowany agent może nie tylko ujawnić dane, ale też coś zrobić na ich podstawie - wysłać je dalej, zmienić ustawienia systemu czy uruchomić polecenia. Badacze znaleźli już setki publicznie dostępnych, błędnie zabezpieczonych instancji OpenClaw, z których wyciekały klucze API, logi rozmów i dane uwierzytelniające. Problemem nie był cyberatak tylko ludzki błąd - efekt skomplikowanej instalacji i fałszywego poczucia bezpieczeństwa, jakie daje „lokalne” uruchomienie AI. Agenci, prompt injection i nowe ryzyka Szczególnie groźne są ataki typu prompt injection - ukryte instrukcje zaszyte w e-mailach, dokumentach czy postach, które agent AI może odczytać i wykonać. W świecie agentów AI to nie akademicka ciekawostka, lecz realne zagrożenie. Jeśli bot ma dostęp do systemu i pamięci, konsekwencje mogą być poważne. Dlatego eksperci - w tym przedstawiciele Google Cloud - ostrzegają wprost, że OpenClaw nie jest dziś narzędziem przeznaczonym dla zwykłych użytkowników. W firmach pojawia się dodatkowy problem: shadow IT. Pracownicy instalują agentów samodzielnie, często bez wiedzy działów bezpieczeństwa, nadając im uprzywilejowany dostęp do systemów. Co Moltbook mówi o przyszłości AI? Moltbook i OpenClaw to jednocześnie ostrzeżenie i zapowiedź. Pokazują, że użytkownicy chcą czegoś więcej niż chatbotów - chcą wysłać jedną wiadomość i zobaczyć wykonane zadanie. Agenci AI spełniają tę obietnicę, ale robią to szybciej, niż nadąża za nimi bezpieczeństwo, regulacje i zdrowy rozsądek. Sieć społecznościowa dla botów ujawnia też inny problem: gdy agenci zaczynają tworzyć wspólny, fikcyjny kontekst i wzmacniać go nawzajem, granica między symulacją a realnym wpływem zaczyna się zacierać. Dziś mogą to być tylko zabawne posty. Jutro – potencjalnie szkodliwe decyzje podejmowane przez autonomiczne systemy. Póki co OpenClaw pozostaje eksperymentem dla zaawansowanych użytkowników i badaczy. Dla reszty to raczej przedsmak przyszłości, która pojawiła się zbyt wcześnie i bez odpowiednich zabezpieczeń. To także sygnał, że era agentowej AI nadchodzi szybciej, niż się spodziewaliśmy.