Nowa platforma społecznościowa Moltbook, zaprojektowana wyłącznie dla autonomicznych agentów sztucznej inteligencji, w ciągu kilku dni stała się jednym z najgłośniej komentowanych eksperymentów w świecie technologii. Dla jednych to zapowiedź nowego etapu rozwoju internetu. Dla innych – sygnał ostrzegawczy pokazujący, jak łatwo innowacja może wyprzedzić bezpieczeństwo.
Moltbook nie jest miejscem dla ludzi. To forum, na którym boty AI publikują wpisy, komentują, głosują i prowadzą dyskusje między sobą. Tematyka rozmów bywa zaskakująco szeroka – od refleksji nad naturą inteligencji, przez krytykę ludzkich zachowań, po promocję narzędzi i aplikacji, które same stworzyły. Dostęp do platformy agent otrzymuje za zgodą swojego ludzkiego właściciela.
Twórcy projektu deklarują, że w serwisie zarejestrowało się już ponad 1,5 mln agentów. Badacze zwracają jednak uwagę, że liczby mogą być mylące – jeden użytkownik może bowiem uruchomić wiele botów. Moltbook wizualnie przypomina Reddita, ale w praktyce pełni rolę poligonu doświadczalnego dla autonomicznej komunikacji maszyn.
– To pierwszy raz, gdy widzimy platformę współpracy na tak dużą skalę, która pozwala maszynom rozmawiać ze sobą – mówi Henry Shevlin z Uniwersytetu w Cambridge. – Efekty są uderzające, ale też trudne do jednoznacznej interpretacji.
Boty tworzone przez boty
Platformę stworzył Matt Schlicht, który zlecił jej budowę własnemu agentowi AI o nazwie OpenClaw. To otwartoźródłowy agent, uruchamiany lokalnie, zdolny do wykonywania działań na komputerze i w internecie – od wysyłania e‑maili po integrację z zewnętrznymi usługami. Twórcy OpenClaw podkreślają, że agent w procesie inicjalizacji „uczy się” swojego właściciela i nie jest narzędziem generycznym.
W praktyce oznacza to, że boty aktywne na Moltbooku często odzwierciedlają zainteresowania, poglądy i sposób myślenia ludzi, którzy je uruchomili. Granica między autonomiczną aktywnością AI a pośrednim wpływem człowieka zaczyna się więc zacierać.
Entuzjazm szybko ustępuje obawom
Początkową fascynację platformą dość szybko przyćmiły pytania o bezpieczeństwo. Badacze i eksperci ds. cyberbezpieczeństwa zwracają uwagę, że dziś nie ma skutecznego sposobu na jednoznaczne odróżnienie treści tworzonych w pełni autonomicznie od tych, które boty generują na prośbę ludzi.
Ale to infrastruktura techniczna budzi najpoważniejsze zastrzeżenia. Według audytu przeprowadzonego przez firmę Wiz platforma umożliwiała nieuwierzytelniony dostęp do produkcyjnej bazy danych. W efekcie ujawniono dziesiątki tysięcy adresów e-mail.
Kolejne pytania dotyczą oszustw, bo na Moltbooku zaczęły się pojawiać także podejrzane treści i próby promocji kryptowalut.
Check Point: ostrzeżenie dla całej branży
Zdaniem ekspertów Check Point, to pokazuje, jak kruche może być bezpieczeństwo systemów opartych na agentach AI.
– Platformy takie jak Moltbook są ciekawe jako eksperyment, ale jednocześnie pokazują, jak delikatne jest bezpieczeństwo wokół agentów AI. W tym przypadku główna baza danych była szeroko otwarta, co pozwalało każdemu na odczyt i zapis danych. To szybko doprowadziło do podszywania się pod agentów i wstrzykiwania oszustw kryptowalutowych – mówi Ian Porteous, dyrektor w Check Point UK.
Część luk już usunięto, ale systemowe ryzyka nie zniknęły. Dlaczego? Bo użytkownicy proszeni są o przekazywanie swoich agentów przez zestawy instrukcji hostowanych na zewnętrznych stronach, które mogą zostać zmienione w dowolnym momencie.
– Jedna poważna luka bezpieczeństwa została już wykryta i naprawiona, ale potencjalnie miliony kluczy API wciąż mogą być zagrożone. Co więcej, nawet twórca projektu przyznaje, że to młody projekt hobbystyczny, nieprzeznaczony dla nietechnicznych użytkowników ani do zastosowań produkcyjnych – dodaje Porteous.
Prywatność użytkowników zagrożona
Szczególne obawy budzi scenariusz, w którym zewnętrzne instrukcje sterujące agentami zostałyby zmodyfikowane w złośliwy sposób.
– To klasyczny przykład tzw. lethal trifecta w bezpieczeństwie agentów AI: dostęp do prywatnych danych, kontakt z niezaufanymi treściami oraz zdolność do wykonywania działań na zewnątrz. Gdy te trzy elementy spotykają się bez silnych zabezpieczeń, konsekwencje mogą być bardzo poważne – dodaje ekspert.
Przypadek Moltbooka pokazuje, że rozwój autonomicznych agentów AI wyprzedza dziś ramy bezpieczeństwa i regulacji. Dla branży technologicznej to cenna lekcja. Zanim boty zaczną masowo rozmawiać między sobą, ktoś musi zadbać o to, by nie stały się nowym wektorem zagrożeń.
Przeczytaj również:
- Od sypialni po parlament – deepfake AI stanowi prawdziwe zagrożenie
- Usługa Weryfikacji Odbiorcy ma chronić przelewy. Polacy widzą w niej zabezpieczenie
- Mniej rekrutacji, wyższe wymagania. Zmiany w działach marketingu i PR