Do ujawnienia fragmentów wewnętrznego kodu doszło we wtorek. Jak przekazał rzecznik firmy, sytuacja nie była wynikiem cyberataku.
"Żadne wrażliwe dane klientów ani dane uwierzytelniające nie były objęte incydentem ani ujawnione. Był to problem z pakowaniem wydania spowodowany błędem człowieka, a nie naruszenie bezpieczeństwa. Wprowadzamy środki, aby zapobiec podobnym sytuacjom w przyszłości" - przekazał przedstawiciel Anthropic w oświadczeniu.
Potencjalne konsekwencje dla rynku AI
Wyciek kodu źródłowego to poważny cios dla spółki, bo może ujawnić sposób działania jednego z jej kluczowych produktów. To z kolei może pomóc zarówno programistom, jak i konkurencji lepiej zrozumieć architekturę narzędzia.
Link do ujawnionego kodu, opublikowany w serwisie X, zdobył ponad 21 milionów wyświetleń w ciągu kilku godzin od publikacji.
Druga wpadka w ciągu tygodnia
To już drugi poważny incydent związany z danymi w krótkim czasie. Kilka dni wcześniej - według doniesień "Fortune" - w publicznie dostępnej pamięci podręcznej znaleziono opisy nadchodzącego modelu AI oraz inne dokumenty firmy.
Szybki rozwój i rosnąca konkurencja
Firna Anthropic powstała w 2021 roku z inicjatywy byłych pracowników OpenAI i rozwija rodzinę modeli sztucznej inteligencji o nazwie Claude.
Narzędzie Claude Code, udostępnione szerokiej publiczności w maju, wspiera programistów w tworzeniu funkcji, naprawianiu błędów i automatyzacji pracy.
Produkt szybko zdobył popularność - jego przychody w ujęciu rocznym przekroczyły 2,5 miliarda dolarów na początku lutego. Sukces rozwiązania napędza rywalizację na rynku. W rozwój konkurencyjnych technologii inwestują m.in. OpenAI, Google oraz xAI.
Źródło: CNBC
Źródło zdjęcia głównego: miss.cabul/Shutterstock