Raport na temat wykorzystania robotów na polu bitwy przygotował wewnętrzny think-tank w Ministerstwie Obrony Wielkiej Brytanii o nazwie Centrum Rozwoju Koncepcji i Doktryny.
Autorzy dokumentu wzywają do powszechnej debaty, na temat etycznych i prawnych aspektów posługiwania się w znacznym stopniu autonomicznymi maszynami w walce. Raport jest reakcją na rosnące kontrowersje wokół ataków dronów na pograniczu Afganistanu i Pakistanu.
Mechaniczne zabijanie
- Rozwój technologii przyśpiesza w takim stopniu, że potrzeba szybko stworzyć nową politykę, która określi akceptowalne zachowania maszyn - napisano w raporcie, który opisał dziennik "Guardian". - Musimy to uczynić, zanim roboty staną się wszechobecne, o ile już nie jest na to za późno - dodają autorzy.
Według raportu, zwiastunem nowej ery jest powszechne wykorzystanie bezzałogowych samolotów do nalotów na pograniczu Afganistanu i Pakistanu.
Tylko brytyjskie bezzałogowce odpaliły od czerwca 2008 roku w kierunku afgańskich rebeliantów 167 rakiet, zabijając 124 osoby. Amerykańskie maszyny dokonują ataków nieporównywalnie częściej i zdarzają im się wypadki niecelowego zabicia niewinnych osób.
Problemy moralne
Brytyjscy wojskowi stawiają pytanie, czy operatorzy bezzałogowych samolotów, którzy "po zmianie idą z bazy do domu" i są odlegli o tysiące kilometrów od strefy walk, stają się legalnymi celami w świetle prawa wojennego. Pytają także, jaki wpływ psychologiczny może mieć "zdalne prowadzenie wojny" na operatorów.
Według raportu niejasne jest też to, czy wojna prowadzona przy pomocy robotów jest moralna. - Jedna ze szkół dowodzi, iż aby tak było, zabijanie wrogów musi być połączone z wystawieniem siebie samego na ryzyko i elementem ofiary - piszą autorzy.
- Do tej pory udział człowieka w walkach był oczywistym wymogiem prawnym, który teraz eroduje - dodają wojskowi.
Autorzy raportu pytają, jaka jest moralna i etyczna rola człowieka w wykorzystaniu automatycznych systemów bojowych.
Dla robota, czołg i szkolny autobus są tym samym, po prostu algorytmem w oprogramowaniu. Maszyna nie ma poczucia celu, środków i nie wie dlaczego atakuje konkretny cel Raport Centrum Rozwoju Koncepcji i Doktryny
Autorzy stawiają także pytanie, czy jeśli maszyna pomyli się i dokona zbrodni wojennej, czy będzie za nią odpowiedzialny programista, który źle napisał jej oprogramowanie?
Dyskusyjne, ale...
W dokumencie zapewniono, iż brytyjskie Ministerstwo Obrony nie ma zamiaru stworzyć systemu bojowego, który będzie mógł działać bez nadzoru człowieka. Pomimo tego, zarówno Wielka Brytania i USA zapowiadają rozwój kolejnych coraz bardziej zaawansowanych i automatycznych systemów bojowych.
Wojskowi przedstawili też wielką zaletę robotów bojowych. - Maszyna nie ma uczuć, nie może przejawiać agresji. Robot nie będzie kierował się nienawiścią i nie dokona zbrodni wojennej w afekcie - twierdzą autorzy raportu.
- Tak więc w teorii, większa liczba autonomicznych robotów powinna pozwolić na prowadzenie bardziej etycznej i legalnej wojny - dodali wojskowi.
Źródło: Guardian
Źródło zdjęcia głównego: Wikipedia/USAF