Anthropic pozywa Pentagon. Firma nie zgadza się z decyzją

Pete Hegseth
Piotr Kuczyński o sztucznej inteligencji i bańce AI
Źródło: TVN24 BiS
Firma technologiczna Anthropic złożyła w poniedziałek pozew przeciwko amerykańskiemu resortowi obrony, próbując zablokować decyzję o wpisaniu jej na listę zagrożeń dla bezpieczeństwa łańcucha dostaw. Spór dotyczy ograniczeń w wykorzystaniu sztucznej inteligencji firmy przez wojsko i może stać się testem granic wpływu rządu USA na prywatne przedsiębiorstwa rozwijające technologie AI.

W ubiegły czwartek Pentagon formalnie uznał Anthropic za ryzyko dla łańcucha dostaw. Decyzję podjął sekretarz obrony Pete Hegseth po tym, jak firma odmówiła usunięcia zabezpieczeń uniemożliwiających wykorzystywanie jej sztucznej inteligencji do autonomicznej broni lub krajowego nadzoru.

Działania "niezgodne z prawem"

Według doniesień technologia firmy była używana w operacjach wojskowych w Iranie. Spór o ograniczenia w jej wykorzystaniu trwał między stronami od miesięcy.

Pozew został złożony w sądzie federalnym w Kalifornii. Firma twierdzi, że decyzja resortu obrony narusza jej konstytucyjne prawa, w tym wolność słowa i prawo do rzetelnego procesu.

"Te działania są bezprecedensowe i niezgodne z prawem. Konstytucja nie pozwala rządowi wykorzystywać swojej ogromnej władzy, aby karać firmę za jej chronioną prawem wypowiedź" - przekazała spółka w oświadczeniu zawartym w pozwie.

Szef Pentagonu Pete Hegseth
Szef Pentagonu Pete Hegseth
Źródło: BONNIE CASH/EPA/PAP

Spór testem relacji rząd - firmy technologiczne

Konflikt jest postrzegany jako sprawdzian tego, czy o sposobie używania sztucznej inteligencji w sektorze bezpieczeństwa narodowego decyduje rząd, czy firmy rozwijające te technologie.

Szef firmy Dario Amodei podkreślał wcześniej, że nie sprzeciwia się broni wykorzystującej sztuczną inteligencję, ale uważa, że obecna generacja modeli AI nie jest wystarczająco dokładna, by stosować ją w pełni autonomicznych systemach.

Anthropic deklaruje jednocześnie, że pozew nie wyklucza powrotu do negocjacji z władzami USA i ewentualnego porozumienia.

Dario Amodei - prezes firmy Anthropic, największej konkurentki OpenAI
Dario Amodei - prezes firmy Anthropic, największej konkurentki OpenAI
Źródło: Chance Yeh/Getty Images for HubSpot

Ryzyko miliardowych strat

Zdaniem firmy wpisanie jej na listę zagrożeń może poważnie uderzyć w działalność biznesową związaną z administracją publiczną. "Działania rządu natychmiast i nieodwracalnie szkodzą Anthropic" - Reuters cytuje słowa szefa działu sektora publicznego Thiyagu Ramasmy.

Dyrektor finansowy spółki Krishna Rao ocenił, że jeśli decyzja pozostanie w mocy, skutki dla firmy będą "niemal niemożliwe do odwrócenia".

Przedstawiciele firmy wskazują już pierwsze konsekwencje. Jeden z partnerów, mający wielomilionowy roczny kontrakt, zrezygnował z modelu Claude na rzecz konkurencyjnej technologii. Według spółki oznacza to utratę planowanych przychodów przekraczających 100 milionów dolarów, a negocjacje z instytucjami finansowymi warte około 180 milionów dolarów zostały zakłócone.

Drugi pozew i wsparcie ekspertów

Anthropic złożyła również drugi pozew w sądzie apelacyjnym w Waszyngtonie. Firma twierdzi w nim, że została uznana za zagrożenie dla łańcucha dostaw na podstawie szerszej ustawy, co w przyszłości mogłoby doprowadzić do jej wykluczenia z całej cywilnej administracji federalnej.

Spółkę wsparła grupa 37 badaczy i inżynierów z firm technologicznych, w tym z OpenAI oraz Google. W opinii złożonej w sądzie argumentują oni, że działania rządu mogą zniechęcić ekspertów do publicznej debaty o ryzykach i korzyściach związanych ze sztuczną inteligencją.

"Wyciszając jedno laboratorium, rząd ogranicza potencjał całej branży do tworzenia innowacyjnych rozwiązań" - napisali naukowcy.

Spór o wykorzystanie AI w wojsku

Pentagon podkreśla, że to prawo Stanów Zjednoczonych, a nie prywatne firmy, określa sposób obrony kraju. Resort nalega, by miał pełną swobodę wykorzystywania sztucznej inteligencji do "każdego zgodnego z prawem zastosowania", argumentując, że ograniczenia narzucone przez Anthropic mogą zagrażać życiu Amerykanów.

Firma odpowiada, że nawet najlepsze modele AI nie są wystarczająco niezawodne, by stosować je w pełni autonomicznej broni. Zaznacza również, że wykorzystanie technologii do masowego nadzoru obywateli USA naruszałoby podstawowe prawa.

W tle sporu pozostaje także decyzja prezydenta Donald Trump, który w mediach społecznościowych polecił całej administracji federalnej zaprzestać korzystania z modelu Claude.

OGLĄDAJ: TVN24 HD
pc

TVN24 HD

pc
Ten i inne materiały obejrzysz w subskrypcji

Opracował Jan Sowa/ams

Nowy podcast "Gotowe na biznes" już wystartował
Dowiedz się więcej:

Nowy podcast "Gotowe na biznes" już wystartował

Zobacz także: