Szefowa działu robotyki OpenAI ustępuje. "Chodzi o zasadę, nie ludzi"

Rozwój sztucznej inteligencji
Szczyt AI w Indiach. Uniwersytet poproszony o opuszczenie wydarzenia przez kontrowersje związane z psem-robotem
Źródło: Reuters
Caitlin Kalinowski, szefowa działu robotyki i sprzętu konsumenckiego w OpenAI, ogłosiła w sobotę swoją rezygnację. Jako powód przedstawiła obawy związane z umową właściciela ChatGPT z amerykańskim Departamentem Obrony.

W poście opublikowanym na platformie X Kalinowski zaznaczyła, że decyzja "nie była łatwa".

"Sztuczna inteligencja odgrywa ważną rolę w bezpieczeństwie narodowym. Jednak nadzór nad Amerykanami bez kontroli sądowej oraz śmiercionośna autonomia bez zgody człowieka to kwestie, które zasługiwały na więcej refleksji, niż im poświęcono. Chodziło o zasadę, a nie o ludzi" - podkreśliła była szefowa OpenAI Robotics.

W kolejnym wpisie wskazała, że chodzi "przede wszystkim o kwestię zarządzania". "To sprawy zbyt ważne, by pochopnie zawierać umowy, lub ogłaszać decyzje" - dodała.

Kalinowski dołączyła do OpenAI w 2024 r. Wcześniej była kierowniczką działu opracowującego sprzęt do rzeczywistości rozszerzonej w Meta Platforms.

Caitlin Kalinowski kierowała działem robotyki w OpenAI.
Caitlin Kalinowski kierowała działem robotyki w OpenAI.
Źródło: Axon (mat. prasowe)

Zapewnienia OpenAI

Spółka OpenAI zawarła umowę z Pentagonem w sprawie korzystania z jej technologii sztucznej inteligencji. W następstwie, poinformowała, że zawarła dodatkowe zabezpieczenia dotyczące zastosowania w systemach niejawnych. W sobotę w oświadczeniu dla agencji Reutera, firma po raz kolejny oświadczyła, że uniemożliwia wykorzystanie technologii do nadzoru krajowego lub broni autonomicznej.

"Zdajemy sobie sprawę, że ludzie mają zdecydowane opinie na te tematy i będziemy dalej prowadzić dyskusje z pracownikami, rządem, społeczeństwem obywatelskim i społecznościami na całym świecie" - przekazano.

Spór o wykorzystanie AI

Kwestia wykorzystania sztucznej inteligencji w systemach niejawnych dla celów Departamentu Obrony stała się przedmiotem kontrowersji w ostatnim czasie. Pentagon uznał firmę w branży AI, Anthropic, za "zagrożenie dla łańcucha dostaw bezpieczeństwa narodowego". Sekretarz obrony USA Pete Hegseth ogłosił w ubiegłym tygodniu, że po fiasku negocjacji kontraktowych "żaden wykonawca, dostawca ani partner współpracujący z armią Stanów Zjednoczonych nie może prowadzić żadnej działalności komercyjnej z Anthropic".

Konflikt dotyczy zasad użycia systemu Claude - produktu Anthropic - w wojsku. Resort obrony chciał, by technologia mogła być wykorzystywana do "wszystkich zgodnych z prawem zastosowań".

Negocjacje zakończyły się jednak fiaskiem z powodu dwóch warunków firmy, na które Pentagon nie przystał: sprzeciwu wobec użycia AI w autonomicznej broni oraz wobec wykorzystania jej do masowej inwigilacji obywateli USA.

Sam Altman, dyrektor generalny OpenAI publicznie i prywatnie poinformował Departament Obrony, że nie uważa, że firma Anthropic powinna być uznana za zagrożenie dla łańcucha dostaw.

OGLĄDAJ: TVN24 HD
pc

TVN24 HD

pc
Ten i inne materiały obejrzysz w subskrypcji

Opracowała Alicja Skiba/ams

Zobacz także: