Ich model miał być użyty do schwytania Maduro. Mogą trafić na "czarną listę"

Maduro, Celia Flores
Prof. Przegalińska: sztuczna inteligencja to technologia, która może wnioskować
Źródło: TVN24
Pentagon rozważa zakończenie współpracy z firmą Anthropic, twórcą modelu Claude - podał portal Axios. Dodał, że powodem są ograniczenia, jakie spółka chce narzucić na wojskowe wykorzystanie swojej sztucznej inteligencji. Wcześniej Claude miał być użyty podczas operacji schwytania Nicolasa Maduro.

Portal pisze, powołując się na urzędnika Pentagonu, że resort obrony grozi firmie Anthropic wpisaniem na "czarną listę" i nadaniem statusu "zagrożenia dla łańcuchów dostaw" (supply chain risk), co zmusiłoby wszystkich kontrahentów Pentagonu do odcięcia się od produktów tej firmy.

Jak odnotowuje Axios, taki status jest zwykle zarezerwowany dla zagranicznych przeciwników USA, takich jak chińskie firmy technologiczne.

"Nasz kraj wymaga"

Rzecznik Pentagonu Sean Parnell potwierdził, że relacje resortu z Anthropic są "poddawane rewizji". - Nasz kraj wymaga, by partnerzy byli gotowi pomóc naszym żołnierzom wygrać każdą walkę - oznajmił.

Źródłem sporu są trwające negocjacje dotyczące warunków wykorzystania modelu Claude przez armię. Według portalu Claude jest obecnie jedynym modelem sztucznej inteligencji dostępnym w niejawnych systemach informatycznych amerykańskiego wojska i według doniesień został wykorzystany podczas operacji przeciwko wenezuelskiemu prezydentowi Nicolasowi Maduro w styczniu br.

Informator Axiosa przyznał, że zerwanie z firmą będzie bardzo skomplikowane, a firma oferuje najlepsze usługi w branży, lecz zaznaczył, że resort chce, by "zapłaciła cenę za wymuszanie" ograniczeń.

Szef firmy Dario Amodei wyrażał gotowość do złagodzenia obecnych warunków użytkowania, ale domaga się gwarancji, że jego narzędzia nie będą stosowane do masowej inwigilacji Amerykanów, ani do tworzenia w pełni autonomicznych systemów uzbrojenia działających bez udziału człowieka.

Pentagon uważa te ograniczenia za niemożliwe do zaakceptowania i nalega, by AI mógł być wykorzystywany do "wszystkich celów zgodnych z prawem".

Zastosowanie technologii Al a prywatność ludzi

Rzecznik Anthropic powiedział Axiosowi, że firma prowadzi "produktywne rozmowy w dobrej wierze" z ministerstwem. Inny przedstawiciel firmy zwrócił uwagę, że obowiązujące prawo dotyczące masowej inwigilacji nie bierze pod uwagę możliwości AI.

W niedawnym wywiadzie dla "New York Timesa" Amodei zwrócił uwagę, że użycie AI do inwigilacji mogłoby w radykalny sposób naruszać prywatność ludzi i wezwał do stworzenia prawa lub nawet zmiany konstytucji, by uwzględnić te ryzyka.

Według Axiosa spór z Anthropic wyznacza ton dla negocjacji Pentagonu z trzema innymi wielkimi laboratoriami AI - OpenAI, Google i xAI - które zgodziły się usunąć zabezpieczenia w nietajnych systemach wojskowych, ale ich AI nie są jeszcze wykorzystywane w systemach objętych klauzulą tajności.

OGLĄDAJ: Tomczyk: Węgry prowadzą dzisiaj politykę nie tylko prorosyjską, ale w zasadzie antypolską
Cezary Tomczyk

Tomczyk: Węgry prowadzą dzisiaj politykę nie tylko prorosyjską, ale w zasadzie antypolską

Cezary Tomczyk
Ten i inne materiały obejrzysz w subskrypcji

Opracowała Paulina Karpińska/kris

Nowy podcast "Gotowe na biznes" już wystartował
Dowiedz się więcej:

Nowy podcast "Gotowe na biznes" już wystartował

Zobacz także: