AI idzie na wojnę. "Technologia obniża próg decyzyjny"

Teheran, 3 marca 2026 roku
Teheran, 3 marca 2026 roku
Źródło: PAP/EPA/ABEDIN TAHERKENAREH
Sztuczna inteligencja nie wywołuje wojny, ale obniża próg decyzyjny. Jeśli państwo wierzy w swoją przewagę technologiczną, może uznać konflikt za "bezkosztowy" - mówi Edwin Bendyk, publicysta tygodnika "Polityka" i prezes zarządu Fundacji imienia Stefana Batorego. Jak dodaje, algorytmy w służbie armii już dziś analizują ataki pod kątem dopuszczalnej liczby ofiar cywilnych. Big Techy zacieśniają sojusz z Pentagonem, a prawo międzynarodowe wobec wykorzystywania AI na wojnie pozostaje bezsilne.
Artykuł dostępny w subskrypcji

Łukasz Figielski: Według doniesień mediów, USA w ataku na Iran, który rozpoczął się w sobotę, wykorzystały sztuczną inteligencję. Tak wygląda nowoczesna wojna?

Edwin Bendyk: To są informacje niejawne, wojsko nie chwali się konkretnymi technologiami i wątpię, że istnieją odpowiedzialni eksperci, którzy coś powiedzą ze szczegółami. Tak jest i w USA, i w Polsce, i w Ukrainie. Choć oczywiście wiadomo, że AI stanowi istotny element ewolucji pola walki - w zarządzaniu, przetwarzaniu danych, sterowaniu systemami bezzałogowymi i tak dalej. Tu pojawia się ważne pytanie wywołujące gorącą debatę: czy wojsko już wykorzystuje lub powinno móc wykorzystywać autonomiczne systemy letalne, czyli samodzielnie podejmujące decyzję o zabijaniu? Oficjalnie nikt jeszcze się do użycia takich systemów nie przyznał.

A można tak robić? Czy AI ma licencję na zabijanie?

Nie istnieje międzynarodowy traktat, który by to jednoznacznie regulował. Zdaniem wielu prawników takie systemy są nielegalne, ale sytuacja pozostaje niejasna, a prawo nie nadąża za rozwojem technologii.

Zobacz także: