Łukasz Figielski: Według doniesień mediów, USA w ataku na Iran, który rozpoczął się w sobotę, wykorzystały sztuczną inteligencję. Tak wygląda nowoczesna wojna?
Edwin Bendyk: To są informacje niejawne, wojsko nie chwali się konkretnymi technologiami i wątpię, że istnieją odpowiedzialni eksperci, którzy coś powiedzą ze szczegółami. Tak jest i w USA, i w Polsce, i w Ukrainie. Choć oczywiście wiadomo, że AI stanowi istotny element ewolucji pola walki - w zarządzaniu, przetwarzaniu danych, sterowaniu systemami bezzałogowymi i tak dalej. Tu pojawia się ważne pytanie wywołujące gorącą debatę: czy wojsko już wykorzystuje lub powinno móc wykorzystywać autonomiczne systemy letalne, czyli samodzielnie podejmujące decyzję o zabijaniu? Oficjalnie nikt jeszcze się do użycia takich systemów nie przyznał.
A można tak robić? Czy AI ma licencję na zabijanie?
Nie istnieje międzynarodowy traktat, który by to jednoznacznie regulował. Zdaniem wielu prawników takie systemy są nielegalne, ale sytuacja pozostaje niejasna, a prawo nie nadąża za rozwojem technologii.
- Jak AI zmienia współczesne pole walki i decyzje wojskowe?
- Czy prawo międzynarodowe nadąża za tym rozwojem?
Prawo międzynarodowe zwraca uwagę choćby na konieczność rozróżniania między celami wojskowymi i cywilnymi oraz na proporcjonalność użycia siły. Tyle tylko, że wojny prowadzone choćby przez Rosję w Ukrainie i wojna w Gazie pokazują, jak niewielkim poważaniem cieszą się normy prawne.