Uwaga na sztuczną inteligencję. Nie zapominajmy, że jest sztuczna, a więc poza pełną kontrolą. Głos w tej sprawie zabierają naukowcy i apelują, by przyhamować. Zwłaszcza w przemyśle zbrojeniowym. Ale robotów jest coraz więcej także w cywilu i istnieje zagrożenie, że się zbuntują. Nie tylko w filmie. Materiał "Polski i Świata".
Tak samo jak większość chemików i biologów nie jest zainteresowana tworzeniem broni chemicznej i biologicznej, naukowcy pracujący nad sztuczna inteligencją nie są zainteresowani tworzeniem w oparciu o nią broni - ani nie chcą, by inni w ten sposób splamili ich badania List otwarty badaczy sztucznej inteligencji i robotyki
W Japonii powstał pierwszy na świecie w pełni zautomatyzowany hotel. Zamiast standardowej obsługi jego gości witają i obsługują przyjazne roboty. Jednak sztuczna inteligencja wcale nie musi być przyjazna.
- Coraz głośniej mówi się o właśnie o autonomicznych systemach zbrojeniowych. W tej chwili jeżeli mamy drony, to one są sterowane przez ludzi. To człowiek podejmuje decyzję o ataku. Kolejnym krokiem jest przekazanie decyzji o eliminacji celu samym maszynom i to jest właśnie to ryzyko - tłumaczy Jerzy Rzymowski , redaktor naczelny magazynu "Nowa Fantastyka" i jeden z sygnatariuszy listu ostrzegającego przed zagrożeniami płynącymi z rozwoju sztucznej inteligencji.
Podpisali Hawking, Musk, Wozniak
List naukowców przestrzega przede wszystkim przed militarnym wykorzystaniem sztucznej inteligencji. "Tak samo jak większość chemików i biologów nie jest zainteresowana tworzeniem broni chemicznej i biologicznej, naukowcy pracujący nad sztuczna inteligencją nie są zainteresowani tworzeniem w oparciu o nią broni - ani nie chcą, by inni w ten sposób splamili ich badania" - można przeczytać w liście otartym badaczy sztucznej inteligencji i robotyki.
Podpisali się pod nim między innymi słynny astrofizyk Stephen Hawking, założyciel pierwszej prywatnej firmy wynoszącej ładunki na orbitę okołoziemską Elon Musk oraz Steve Wozniak, współtwórca Apple.
- To jest taki moment, kiedy warto pomyśleć o tym pierwszym prawie robotyki i zaprogramować je tym maszynom. Czyli to prawo, które mówi o tym, że maszyna nie może skrzywdzić człowieka, ani przez brak aktywności dopuścić do tego, że człowiek zostanie skrzywdzony - dodaje Rzymowski.
Bezduszne maszyny
Jak podkreślają naukowcy, sztuczna inteligencja nie ma emocji i na przykład z zimną krwią wyeliminuje zadany cel. Nawet w sytuacji, gdy obok mogą ucierpieć niewinni.
- W momencie, kiedy się bierze za to wojsko, kiedy biorą się za to politycy, to jest tak jakby dać małpie granat - twierdzi Rzymowski.
Z autonomicznymi robotami już mamy do czynienia w codziennym życiu. Choć często nie zdajemy sobie z tego sprawy. Takim przykładem mogą być dostępne automatyczne odkurzacze.
I właśnie w takie zastosowanie dla robotów wyposażonych w sztuczną inteligencję widzą ich twórcy. Mają odciążać ludzi, a nie służyć do ich zabijania.
Autor: dln\mtom / Źródło: tvn24