Łukasz Figielski: Z firmy Anthropic, odpowiedzialnej za popularnego chatbota Claude, odszedł szef zespołu do spraw bezpieczeństwa AI. Swoją decyzję uzasadnił narastającym konfliktem między deklarowanymi wartościami a tempem rozwoju technologii. Ostrzegł przed brakiem realnej kontroli nad narzędziem. "Świat jest w zagrożeniu" - napisał w liście pożegnalnym.
Piotr Sankowski: Niebezpieczeństwa związane z tym, że sztuczna inteligencja realizuje wizje z książek science fiction i dochodzi do samoświadomości, są jeszcze dość odległe. Na razie mamy kontrolę nad tym, jak działają te modele i jak są używane. Zawsze można je po prostu wyłączyć.
Pojawiają się za to konkretne zagrożenia związane z rozwojem tak zwanych systemów agentowych. Jeśli otrzymają dostęp na przykład do skrzynki pocztowej, pracują autonomicznie.
Niedawno swój przypadek opisała szefowa bezpieczeństwa w firmie Meta. Kazała agentowi posortować e-maile, a on - mimo zakazu - wszystkie wiadomości skasował. Moim zdaniem - duża kompromitacja człowieka.
Pokazuje jednak, że te systemy nie zawsze wykonują polecenia, że łamią zasady i nie mają wbudowanej etyki. W realizacji celu potrafią ignorować reguły moralne, prawne czy przepisy organizacji.