Wojna robotów? Brytyjski rząd straszy "Terminatorem"

 
Jak wygląda nasza przyszłość?Wikipedia/USAF

Brytyjskie ministerstwo obrony ostrzega, że ludzkość może "bezwolnie zmierzać w kierunku rzeczywistości z filmów Terminator". Specjalny raport nawołuje do dyskusji nad wykorzystaniem robotów w działaniach bojowych. Coraz większa liczba w znacznym stopniu samodzielnych maszyn na polu bitwy ma zwiększać prawdopodobieństwo wybuchu kolejnych wojen, ponieważ władzom łatwiej będzie słać do walki roboty, niż szafować ludzkim życiem.

Raport na temat wykorzystania robotów na polu bitwy przygotował wewnętrzny think-tank w Ministerstwie Obrony Wielkiej Brytanii o nazwie Centrum Rozwoju Koncepcji i Doktryny.

Autorzy dokumentu wzywają do powszechnej debaty, na temat etycznych i prawnych aspektów posługiwania się w znacznym stopniu autonomicznymi maszynami w walce. Raport jest reakcją na rosnące kontrowersje wokół ataków dronów na pograniczu Afganistanu i Pakistanu.

Mechaniczne zabijanie

- Rozwój technologii przyśpiesza w takim stopniu, że potrzeba szybko stworzyć nową politykę, która określi akceptowalne zachowania maszyn - napisano w raporcie, który opisał dziennik "Guardian". - Musimy to uczynić, zanim roboty staną się wszechobecne, o ile już nie jest na to za późno - dodają autorzy.

Według raportu, zwiastunem nowej ery jest powszechne wykorzystanie bezzałogowych samolotów do nalotów na pograniczu Afganistanu i Pakistanu.

Tylko brytyjskie bezzałogowce odpaliły od czerwca 2008 roku w kierunku afgańskich rebeliantów 167 rakiet, zabijając 124 osoby. Amerykańskie maszyny dokonują ataków nieporównywalnie częściej i zdarzają im się wypadki niecelowego zabicia niewinnych osób.

Problemy moralne

Brytyjscy wojskowi stawiają pytanie, czy operatorzy bezzałogowych samolotów, którzy "po zmianie idą z bazy do domu" i są odlegli o tysiące kilometrów od strefy walk, stają się legalnymi celami w świetle prawa wojennego. Pytają także, jaki wpływ psychologiczny może mieć "zdalne prowadzenie wojny" na operatorów.

Według raportu niejasne jest też to, czy wojna prowadzona przy pomocy robotów jest moralna. - Jedna ze szkół dowodzi, iż aby tak było, zabijanie wrogów musi być połączone z wystawieniem siebie samego na ryzyko i elementem ofiary - piszą autorzy.

- Do tej pory udział człowieka w walkach był oczywistym wymogiem prawnym, który teraz eroduje - dodają wojskowi.

Autorzy raportu pytają, jaka jest moralna i etyczna rola człowieka w wykorzystaniu automatycznych systemów bojowych.

Dla robota, czołg i szkolny autobus są tym samym, po prostu algorytmem w oprogramowaniu. Maszyna nie ma poczucia celu, środków i nie wie dlaczego atakuje konkretny cel Raport Centrum Rozwoju Koncepcji i Doktryny

Autorzy stawiają także pytanie, czy jeśli maszyna pomyli się i dokona zbrodni wojennej, czy będzie za nią odpowiedzialny programista, który źle napisał jej oprogramowanie?

Dyskusyjne, ale...

W dokumencie zapewniono, iż brytyjskie Ministerstwo Obrony nie ma zamiaru stworzyć systemu bojowego, który będzie mógł działać bez nadzoru człowieka. Pomimo tego, zarówno Wielka Brytania i USA zapowiadają rozwój kolejnych coraz bardziej zaawansowanych i automatycznych systemów bojowych.

Wojskowi przedstawili też wielką zaletę robotów bojowych. - Maszyna nie ma uczuć, nie może przejawiać agresji. Robot nie będzie kierował się nienawiścią i nie dokona zbrodni wojennej w afekcie - twierdzą autorzy raportu.

- Tak więc w teorii, większa liczba autonomicznych robotów powinna pozwolić na prowadzenie bardziej etycznej i legalnej wojny - dodali wojskowi.

Źródło: Guardian

Źródło zdjęcia głównego: Wikipedia/USAF