W ubiegły czwartek Pentagon formalnie uznał Anthropic za ryzyko dla łańcucha dostaw. Decyzję podjął sekretarz obrony Pete Hegseth po tym, jak firma odmówiła usunięcia zabezpieczeń uniemożliwiających wykorzystywanie jej sztucznej inteligencji do autonomicznej broni lub krajowego nadzoru.
Działania "niezgodne z prawem"
Według doniesień technologia firmy była używana w operacjach wojskowych w Iranie. Spór o ograniczenia w jej wykorzystaniu trwał między stronami od miesięcy.
Pozew został złożony w sądzie federalnym w Kalifornii. Firma twierdzi, że decyzja resortu obrony narusza jej konstytucyjne prawa, w tym wolność słowa i prawo do rzetelnego procesu.
"Te działania są bezprecedensowe i niezgodne z prawem. Konstytucja nie pozwala rządowi wykorzystywać swojej ogromnej władzy, aby karać firmę za jej chronioną prawem wypowiedź" - przekazała spółka w oświadczeniu zawartym w pozwie.
Spór testem relacji rząd - firmy technologiczne
Konflikt jest postrzegany jako sprawdzian tego, czy o sposobie używania sztucznej inteligencji w sektorze bezpieczeństwa narodowego decyduje rząd, czy firmy rozwijające te technologie.
Szef firmy Dario Amodei podkreślał wcześniej, że nie sprzeciwia się broni wykorzystującej sztuczną inteligencję, ale uważa, że obecna generacja modeli AI nie jest wystarczająco dokładna, by stosować ją w pełni autonomicznych systemach.
Anthropic deklaruje jednocześnie, że pozew nie wyklucza powrotu do negocjacji z władzami USA i ewentualnego porozumienia.
Ryzyko miliardowych strat
Zdaniem firmy wpisanie jej na listę zagrożeń może poważnie uderzyć w działalność biznesową związaną z administracją publiczną. "Działania rządu natychmiast i nieodwracalnie szkodzą Anthropic" - Reuters cytuje słowa szefa działu sektora publicznego Thiyagu Ramasmy.
Dyrektor finansowy spółki Krishna Rao ocenił, że jeśli decyzja pozostanie w mocy, skutki dla firmy będą "niemal niemożliwe do odwrócenia".
Przedstawiciele firmy wskazują już pierwsze konsekwencje. Jeden z partnerów, mający wielomilionowy roczny kontrakt, zrezygnował z modelu Claude na rzecz konkurencyjnej technologii. Według spółki oznacza to utratę planowanych przychodów przekraczających 100 milionów dolarów, a negocjacje z instytucjami finansowymi warte około 180 milionów dolarów zostały zakłócone.
Drugi pozew i wsparcie ekspertów
Anthropic złożyła również drugi pozew w sądzie apelacyjnym w Waszyngtonie. Firma twierdzi w nim, że została uznana za zagrożenie dla łańcucha dostaw na podstawie szerszej ustawy, co w przyszłości mogłoby doprowadzić do jej wykluczenia z całej cywilnej administracji federalnej.
Spółkę wsparła grupa 37 badaczy i inżynierów z firm technologicznych, w tym z OpenAI oraz Google. W opinii złożonej w sądzie argumentują oni, że działania rządu mogą zniechęcić ekspertów do publicznej debaty o ryzykach i korzyściach związanych ze sztuczną inteligencją.
"Wyciszając jedno laboratorium, rząd ogranicza potencjał całej branży do tworzenia innowacyjnych rozwiązań" - napisali naukowcy.
Spór o wykorzystanie AI w wojsku
Pentagon podkreśla, że to prawo Stanów Zjednoczonych, a nie prywatne firmy, określa sposób obrony kraju. Resort nalega, by miał pełną swobodę wykorzystywania sztucznej inteligencji do "każdego zgodnego z prawem zastosowania", argumentując, że ograniczenia narzucone przez Anthropic mogą zagrażać życiu Amerykanów.
Firma odpowiada, że nawet najlepsze modele AI nie są wystarczająco niezawodne, by stosować je w pełni autonomicznej broni. Zaznacza również, że wykorzystanie technologii do masowego nadzoru obywateli USA naruszałoby podstawowe prawa.
W tle sporu pozostaje także decyzja prezydenta Donald Trump, który w mediach społecznościowych polecił całej administracji federalnej zaprzestać korzystania z modelu Claude.
Opracował Jan Sowa/ams
Źródło: Reuters
Źródło zdjęcia głównego: BONNIE CASH/EPA/PAP