Sztuczna inteligencja może być wykorzystana przez dyktatorów, przestępców i terrorystów - ostrzegają eksperci w raporcie "Złowrogie wykorzystanie sztucznej inteligencji". Rysuje on czarne scenariusze na najbliższe 5-10 lat i sugeruje, jak ich uniknąć.
Opracowanie przygotowali naukowcy, przedstawiciele think-tanków i świata biznesu. - Nasz raport koncentruje się na sposobach, w jakich ludzie mogą wyrządzić umyślne szkody za pomocą sztucznej inteligencji - tłumaczy Sean O hEigeartaigh, dyrektor wykonawczy Cambridge Center for Existential Risk.
Liczne zagrożenia
Autorzy 100-stronnicowej analizy zwracają uwagę na kilka potencjalnych sposobów, w jaki sztuczna inteligencja mogłaby zostać użyta w złej wierze. Wymieniają zagrożenia pojawiające się w sferze cyfrowej (np. kradzież danych, cyberataki), fizycznej i - co ciekawe - politycznej.
Twierdzą na przykład, że autorytarni przywódce mogliby wykorzystywać AI do inwigilacji, tworzenia bardziej ukierunkowanej propagandy i rozpowszechniania dezinformacji.
"Dyktatorzy mogliby szybciej zidentyfikować ludzi, którzy planują obalenie reżimu i zanim zaczną oni działać, zlokalizować ich i osadzić w więzieniu" - czytamy w raporcie. Wskazano w nim też na zagrożenie płynące z możliwości tworzenia za pomocą komputerowych algorytmów fałszywych klipów wideo, które są potężnym narzędziem manipulowania opinią publiczną na "niewyobrażalną i niespotykaną wcześniej skalę".
Innym zagrożeniem pojawiającym na horyzoncie jest - zdaniem autorów raportu - rozpowszechnienie się dronów i autonomicznych robotów, które mogą zostać wykorzystane do precyzyjnych ataków na cele fizyczne. W raporcie przedstawiony jest hipotetyczny czarny scenariusz, w którym zamachowcy używają wyposażonego w bombę robota sprzątającego do ataku na ministra finansów Niemiec. Maszyna czyści biura i zachowuje się normalnie dopóki jej ukryte oprogramowanie do rozpoznawania twarzy nie zauważy ministra i nie zdetonuje ładunku wybuchowego, zabijając polityka.
Pora na regulacje
W raporcie czytamy, że "żyjemy w świecie pełnym codziennych zagrożeń wynikających z niewłaściwego wykorzystania sztucznej inteligencji i musimy wziąć odpowiedzialność za te problemy".
Autorzy zwracają się do polityków i firm, aby dopilnowali, żeby oprogramowanie robotów było jak najtrudniejsze do zhakowania, nałożyli ograniczenia dotyczące bezpieczeństwa oraz rozważyli rozszerzenie praw i przepisów regulujących rozwój sztucznej inteligencji.
Autor: tol / Źródło: BBC, Japan Times
Źródło zdjęcia głównego: Shutterstock