W tle rozmów pozostaje konflikt między firmą a Departamentem Obrony USA. Spór dotyczył zasad bezpieczeństwa, czyli tzw. guardrails, regulujących sposób wykorzystania narzędzi AI przez wojsko. W efekcie Pentagon uznał Anthropic za ryzyko dla łańcucha dostaw i w ubiegłym miesiącu zablokował możliwość współpracy zarówno dla samej firmy, jak i jej kontrahentów. Decyzja ta nie zakończyła jednak kontaktów między stronami.
Bezpieczeństwo narodowe priorytetem
- Mamy wąski spór kontraktowy, ale nie chcę, żeby przesłonił fakt, że bardzo zależy nam na bezpieczeństwie narodowym - powiedział współzałożyciel firmy, Jack Clark, podczas wydarzenia Semafor World Economy w Waszyngtonie.
Jak dodał, rząd powinien mieć dostęp do wiedzy o najnowszych technologiach.
- Nasze stanowisko jest takie, że rząd musi wiedzieć o tych rzeczach… Dlatego zdecydowanie rozmawiamy z nimi o Mythos i będziemy rozmawiać także o kolejnych modelach - podkreślił.
Nie ujawniono jednak, które dokładnie agencje rządowe uczestniczą w tych rozmowach ani jaki jest ich szczegółowy zakres.
Mythos - nowy model Anthropic
Model Mythos, ogłoszony 7 kwietnia, jest - według firmy - najbardziej zaawansowanym narzędziem Anthropic, szczególnie w zakresie programowania i tzw. zadań agentowych, czyli wykonywanych autonomicznie.
Eksperci zwracają uwagę, że jego zdolności programistyczne mogą mieć poważne konsekwencje dla cyberbezpieczeństwa. Model może bowiem nie tylko identyfikować podatności systemów, ale także proponować sposoby ich wykorzystania.
Sądy podzielone w sprawie Anthropic
Równolegle trwa batalia prawna. W ubiegłym tygodniu federalny sąd apelacyjny w Waszyngtonie odmówił zablokowania decyzji Pentagonu o uznaniu Anthropic za zagrożenie dla bezpieczeństwa narodowego. To korzystne rozstrzygnięcie dla administracji Trumpa.
Jednocześnie inny sąd apelacyjny, w odrębnej sprawie, wydał wcześniej przeciwną decyzję, co pokazuje, że sytuacja prawna firmy pozostaje niejednoznaczna.
Źródło: Reuters
Źródło zdjęcia głównego: WILL OLIVER/PAP/EPA