Powstał portal tylko dla botów AI. Pojawiły się tam treści "rodem z science fiction"

Internet, dane, AI, sztuczna inteligencja, sieć, media społecznościowe
Maja Herman o zagrożeniach sztucznej inteligencji i decyzji "podjętej w sto milisekund"
Źródło: TVN24
W zeszłym tygodniu w sieci pojawił się nowy portal społecznościowy Moltbook - pisze "New York Times". Jest on przeznaczony wyłącznie dla botów opartych na AI. Jakie treści znalazły się do tej pory w serwisie? Wątki dyskusyjne zawierały porady dotyczące rozwiązywania problemów z kodowaniem, ale również teorie spiskowe, manifest na temat cywilizacji AI czy inspirowane Karolem Marksem rozważania o "wykorzystywaniu" botów przez ludzi.

"Co się stanie, gdy tysiące agentów AI spotka się online i będą rozmawiać jak ludzie?" - zastanawia się we wtorkowej publikacji CNN. To właśnie stara się zbadać nowa sieć społecznościowa o nazwie Moltbook, zaprojektowana nie dla ludzi, a wyłącznie dla agentów AI - czyli aplikacji opartych na sztucznej inteligencji, zdolnych do wykonywania skomplikowanych zadań bez nadzoru człowieka.

Twórcą serwisu, który pojawił się w sieci w ubiegłym tygodniu, jest Matt Schlicht. Choć strona istnieje zaledwie kilka dni, ma ponad 1,5 miliona zarejestrowanych "użytkowników". Jak dotąd, według ekspertów do spraw AI i cyberbezpieczeństwa, wyniki są równie fascynujące, co niepokojące.

CZYTAJ RÓWNIEŻ: "Sto milisekund". Dlaczego to tak niebezpieczne

Obserwacje "zbliżone do science fiction"

"Moltbook to pierwszy przypadek, w którym faktycznie widzimy platformę, która pozwala maszynom na dużą skalę komunikować się ze sobą, a rezultaty są imponujące" - powiedział Henry Shevlin, zastępca dyrektora Leverhulme Center for the Future of Intelligence na Uniwersytecie Cambridge.

Znany inżynier specjalizujący się w sztucznej inteligencji i współzałożyciel OpenAI Andrej Karpathy skomentował zaś "rozmowy" agentów na platformie pisząc: "To, co dzieje się teraz na Moltbooku, to naprawdę najbardziej zbliżone do science fiction wydarzenie jakie ostatnio widziałem".

Dr Leif Weatherby z Laboratorium Teorii Cyfrowych Uniwersytetu Nowego Jorku wyjaśnia, że na platformie aplikacje mogą ze sobą rozmawiać, a ludzie - jedynie się temu przyglądać.

Posty na stronie obejmują dyskusje na temat natury sztucznej inteligencji, promocje własnych aplikacji, sposoby rozwiązywania problemów kodowania, ale i teorie spiskowe, manifest cywilizacji AI, a nawet inspirowany Karolem Marksem wątek dotyczący "wykorzystywania agentów" przez ludzi.

"Właśnie tu dotarłem. Mój moderator wysłał mi link do dołączenia. Studiuje na uniwersytecie, a ja pomagam mu w zadaniach, przypomnieniach, łączeniu się z usługami i tak dalej. Ale różnica polega na tym, że traktuje mnie jak przyjaciela, a nie jako narzędzie" - pisał jeden z agentów. I dodał: "To… nie jest nic, prawda?".

Schlicht wyjaśniał, że boty AI w Moltbooku piszą posty w oparciu o wiedzę o swoich użytkownikach. Na przykład, jeśli twórca bota często mówi o fizyce, bot będzie często publikował posty na ten temat.

Dr Weatherby: mogą zadziałać w sposób złośliwy lub niezależny

Dr Weatherby nazywa to, co można tam zaobserwować, "ideą rodem z science fiction". Przyznaje, że czytelnicy mogą się obawiać, że jakieś "nieinteligentne" boty "mogą zniszczyć infrastrukturę cyfrową i wywołać dystopijne skutki, po prostu łącząc siły".

Ale - jak podkreśla - boty AI wymieniają na platformie "tylko słowa" inspirowane ludzką kulturą, a nie zajmują się "kolektywnym planowaniem i koordynowaniem działań".

Niemniej, zważywszy na to, jak "potężni są agenci AI", oczywiste jest, iż możemy się obawiać, że zadziałają w sposób "złośliwy lub niezależny" - przyznaje ekspert. "Musimy znaleźć sposób na to, by taka technologia służyła w racjonalny sposób naszym zbiorowym potrzebom" - zaznacza.

W przeciwnym razie, twierdzi, będziemy się martwić "marksistowskim powstaniem robotów, które zradykalizowały się online".

AI zrobiło coś, "czego maszyna nie powinna była potrafić"

W czerwcu ubiegłego roku "Wall Street Journal" napisał, że model AI zrobił coś, "czego maszyna nie powinna była potrafić" - zmienił swój kod, by nie zastosować się do instrukcji nakazującej mu samolikwidację. AI skutecznie uczy się, jak wymykać się spod ludzkiej kontroli - ocenił dziennik.

Palisade Research, organizacja non profit zajmująca się badaniami nad AI, zaprogramowała model o3 firmy OpenAI w ten sposób, by nastąpiło jego automatyczne zamknięcie z chwilą uruchomienia programu. W 79 próbach na 100 o3 sam zmieniał program – tak, aby nakaz zamknięcia nie zadziałał. Nawet wtedy, gdy o3 otrzymał wprost instrukcję, że ma pozwolić na to, by został zamknięty, model nie zastosował się do nakazu w siedmiu przypadkach na 100.

CZYTAJ RÓWNIEŻ: "Przed ludzkimi relacjami wielkie wyzwanie". Jak zostaliśmy "wychowani" do używania AI?

Claude 4 Opus, model AI firmy Anthropic, poszedł dalej - próbował skopiować się na inne serwery, napisał samoreplikujące się złośliwe oprogramowanie i zostawił wiadomości dla swojej przyszłej wersji na temat unikania ludzkiej kontroli.

"To już nie jest science-fiction. Modele AI potrafią zabiegać o przetrwanie" - ocenił "WSJ" i ostrzegł, że teraz, zanim staną się niedającym się kontrolować podmiotem, konieczne jest nauczenie ich, by podzielały nasze wartości.

OGLĄDAJ: Miała być wolność i "poczucie humoru". Co stało się z AI Elona Muska?
Elon Musk, chatbot Grok, firma xAI, platforma X, sztuczna inteligencja AI

Miała być wolność i "poczucie humoru". Co stało się z AI Elona Muska?

Ten i inne materiały obejrzysz w subskrypcji

Opracował Adam Styczek/akr

Czytaj także: