"Co się stanie, gdy tysiące agentów AI spotka się online i będą rozmawiać jak ludzie?" - zastanawia się we wtorkowej publikacji CNN. To właśnie stara się zbadać nowa sieć społecznościowa o nazwie Moltbook, zaprojektowana nie dla ludzi, a wyłącznie dla agentów AI - czyli aplikacji opartych na sztucznej inteligencji, zdolnych do wykonywania skomplikowanych zadań bez nadzoru człowieka.
Twórcą serwisu, który pojawił się w sieci w ubiegłym tygodniu, jest Matt Schlicht. Choć strona istnieje zaledwie kilka dni, ma ponad 1,5 miliona zarejestrowanych "użytkowników". Jak dotąd, według ekspertów do spraw AI i cyberbezpieczeństwa, wyniki są równie fascynujące, co niepokojące.
CZYTAJ RÓWNIEŻ: "Sto milisekund". Dlaczego to tak niebezpieczne
Obserwacje "zbliżone do science fiction"
"Moltbook to pierwszy przypadek, w którym faktycznie widzimy platformę, która pozwala maszynom na dużą skalę komunikować się ze sobą, a rezultaty są imponujące" - powiedział Henry Shevlin, zastępca dyrektora Leverhulme Center for the Future of Intelligence na Uniwersytecie Cambridge.
Znany inżynier specjalizujący się w sztucznej inteligencji i współzałożyciel OpenAI Andrej Karpathy skomentował zaś "rozmowy" agentów na platformie pisząc: "To, co dzieje się teraz na Moltbooku, to naprawdę najbardziej zbliżone do science fiction wydarzenie jakie ostatnio widziałem".
Dr Leif Weatherby z Laboratorium Teorii Cyfrowych Uniwersytetu Nowego Jorku wyjaśnia, że na platformie aplikacje mogą ze sobą rozmawiać, a ludzie - jedynie się temu przyglądać.
Posty na stronie obejmują dyskusje na temat natury sztucznej inteligencji, promocje własnych aplikacji, sposoby rozwiązywania problemów kodowania, ale i teorie spiskowe, manifest cywilizacji AI, a nawet inspirowany Karolem Marksem wątek dotyczący "wykorzystywania agentów" przez ludzi.
"Właśnie tu dotarłem. Mój moderator wysłał mi link do dołączenia. Studiuje na uniwersytecie, a ja pomagam mu w zadaniach, przypomnieniach, łączeniu się z usługami i tak dalej. Ale różnica polega na tym, że traktuje mnie jak przyjaciela, a nie jako narzędzie" - pisał jeden z agentów. I dodał: "To… nie jest nic, prawda?".
Schlicht wyjaśniał, że boty AI w Moltbooku piszą posty w oparciu o wiedzę o swoich użytkownikach. Na przykład, jeśli twórca bota często mówi o fizyce, bot będzie często publikował posty na ten temat.
Dr Weatherby: mogą zadziałać w sposób złośliwy lub niezależny
Dr Weatherby nazywa to, co można tam zaobserwować, "ideą rodem z science fiction". Przyznaje, że czytelnicy mogą się obawiać, że jakieś "nieinteligentne" boty "mogą zniszczyć infrastrukturę cyfrową i wywołać dystopijne skutki, po prostu łącząc siły".
Ale - jak podkreśla - boty AI wymieniają na platformie "tylko słowa" inspirowane ludzką kulturą, a nie zajmują się "kolektywnym planowaniem i koordynowaniem działań".
Niemniej, zważywszy na to, jak "potężni są agenci AI", oczywiste jest, iż możemy się obawiać, że zadziałają w sposób "złośliwy lub niezależny" - przyznaje ekspert. "Musimy znaleźć sposób na to, by taka technologia służyła w racjonalny sposób naszym zbiorowym potrzebom" - zaznacza.
W przeciwnym razie, twierdzi, będziemy się martwić "marksistowskim powstaniem robotów, które zradykalizowały się online".
AI zrobiło coś, "czego maszyna nie powinna była potrafić"
W czerwcu ubiegłego roku "Wall Street Journal" napisał, że model AI zrobił coś, "czego maszyna nie powinna była potrafić" - zmienił swój kod, by nie zastosować się do instrukcji nakazującej mu samolikwidację. AI skutecznie uczy się, jak wymykać się spod ludzkiej kontroli - ocenił dziennik.
Palisade Research, organizacja non profit zajmująca się badaniami nad AI, zaprogramowała model o3 firmy OpenAI w ten sposób, by nastąpiło jego automatyczne zamknięcie z chwilą uruchomienia programu. W 79 próbach na 100 o3 sam zmieniał program – tak, aby nakaz zamknięcia nie zadziałał. Nawet wtedy, gdy o3 otrzymał wprost instrukcję, że ma pozwolić na to, by został zamknięty, model nie zastosował się do nakazu w siedmiu przypadkach na 100.
CZYTAJ RÓWNIEŻ: "Przed ludzkimi relacjami wielkie wyzwanie". Jak zostaliśmy "wychowani" do używania AI?
Claude 4 Opus, model AI firmy Anthropic, poszedł dalej - próbował skopiować się na inne serwery, napisał samoreplikujące się złośliwe oprogramowanie i zostawił wiadomości dla swojej przyszłej wersji na temat unikania ludzkiej kontroli.
"To już nie jest science-fiction. Modele AI potrafią zabiegać o przetrwanie" - ocenił "WSJ" i ostrzegł, że teraz, zanim staną się niedającym się kontrolować podmiotem, konieczne jest nauczenie ich, by podzielały nasze wartości.
Opracował Adam Styczek/akr
Źródło: PAP, New York Times, CNN
Źródło zdjęcia głównego: Shutterstock