W poście opublikowanym na platformie X Kalinowski zaznaczyła, że decyzja "nie była łatwa".
"Sztuczna inteligencja odgrywa ważną rolę w bezpieczeństwie narodowym. Jednak nadzór nad Amerykanami bez kontroli sądowej oraz śmiercionośna autonomia bez zgody człowieka to kwestie, które zasługiwały na więcej refleksji, niż im poświęcono. Chodziło o zasadę, a nie o ludzi" - podkreśliła była szefowa OpenAI Robotics.
W kolejnym wpisie wskazała, że chodzi "przede wszystkim o kwestię zarządzania". "To sprawy zbyt ważne, by pochopnie zawierać umowy, lub ogłaszać decyzje" - dodała.
Kalinowski dołączyła do OpenAI w 2024 r. Wcześniej była kierowniczką działu opracowującego sprzęt do rzeczywistości rozszerzonej w Meta Platforms.
Zapewnienia OpenAI
Spółka OpenAI zawarła umowę z Pentagonem w sprawie korzystania z jej technologii sztucznej inteligencji. W następstwie, poinformowała, że zawarła dodatkowe zabezpieczenia dotyczące zastosowania w systemach niejawnych. W sobotę w oświadczeniu dla agencji Reutera, firma po raz kolejny oświadczyła, że uniemożliwia wykorzystanie technologii do nadzoru krajowego lub broni autonomicznej.
"Zdajemy sobie sprawę, że ludzie mają zdecydowane opinie na te tematy i będziemy dalej prowadzić dyskusje z pracownikami, rządem, społeczeństwem obywatelskim i społecznościami na całym świecie" - przekazano.
Spór o wykorzystanie AI
Kwestia wykorzystania sztucznej inteligencji w systemach niejawnych dla celów Departamentu Obrony stała się przedmiotem kontrowersji w ostatnim czasie. Pentagon uznał firmę w branży AI, Anthropic, za "zagrożenie dla łańcucha dostaw bezpieczeństwa narodowego". Sekretarz obrony USA Pete Hegseth ogłosił w ubiegłym tygodniu, że po fiasku negocjacji kontraktowych "żaden wykonawca, dostawca ani partner współpracujący z armią Stanów Zjednoczonych nie może prowadzić żadnej działalności komercyjnej z Anthropic".
Konflikt dotyczy zasad użycia systemu Claude - produktu Anthropic - w wojsku. Resort obrony chciał, by technologia mogła być wykorzystywana do "wszystkich zgodnych z prawem zastosowań".
Negocjacje zakończyły się jednak fiaskiem z powodu dwóch warunków firmy, na które Pentagon nie przystał: sprzeciwu wobec użycia AI w autonomicznej broni oraz wobec wykorzystania jej do masowej inwigilacji obywateli USA.
Sam Altman, dyrektor generalny OpenAI publicznie i prywatnie poinformował Departament Obrony, że nie uważa, że firma Anthropic powinna być uznana za zagrożenie dla łańcucha dostaw.
Opracowała Alicja Skiba/ams
Źródło: Reuters