Piotr Sankowski o sztucznej inteligencji. "To jest ten słynny dylemat wagonika"

prof. dr hab. Piotr Sankowski
prof. dr hab. Piotr Sankowski
Źródło: Rafał Guz/PAP
Systemy AI nie zawsze wykonują polecenia, w realizacji celu potrafią ignorować reguły moralne i prawne - zaznacza w rozmowie z TVN24+ Piotr Sankowski, dyrektor Instytutu Badawczego IDEAS. Jak dodaje, modele najpierw uczy się odpowiadania na pytania, a dopiero potem "dotrenowuje". Niektóre firmy testują w ten sposób granice cierpliwości użytkowników i prawa.
Artykuł dostępny w subskrypcji

Łukasz Figielski: Z firmy Anthropic, odpowiedzialnej za popularnego chatbota Claude, odszedł szef zespołu do spraw bezpieczeństwa AI. Swoją decyzję uzasadnił narastającym konfliktem między deklarowanymi wartościami a tempem rozwoju technologii. Ostrzegł przed brakiem realnej kontroli nad narzędziem. "Świat jest w zagrożeniu" - napisał w liście pożegnalnym.

Piotr Sankowski: Niebezpieczeństwa związane z tym, że sztuczna inteligencja realizuje wizje z książek science fiction i dochodzi do samoświadomości, są jeszcze dość odległe. Na razie mamy kontrolę nad tym, jak działają te modele i jak są używane. Zawsze można je po prostu wyłączyć.

Pojawiają się za to konkretne zagrożenia związane z rozwojem tak zwanych systemów agentowych. Jeśli otrzymają dostęp na przykład do skrzynki pocztowej, pracują autonomicznie.

Niedawno swój przypadek opisała szefowa bezpieczeństwa w firmie Meta. Kazała agentowi posortować e-maile, a on - mimo zakazu - wszystkie wiadomości skasował. Moim zdaniem - duża kompromitacja człowieka.

Pokazuje jednak, że te systemy nie zawsze wykonują polecenia, że łamią zasady i nie mają wbudowanej etyki. W realizacji celu potrafią ignorować reguły moralne, prawne czy przepisy organizacji.

Zobacz także: