To może prowadzić do fizycznego zagrożenia życia i zdrowia ludzi - alarmują badacze IOActive Labs. Odkryli ponad 50 podatności, czyli błędów bezpieczeństwa w oprogramowaniu popularnych robotów wykorzystywanych przy pracy z ludźmi.
Roboty wyposażone w kamery, mikrofony i czujniki komunikują się z człowiekiem, często również posiadają funkcję "uczenia się" ruchów niezbędnych do wykonywania zadań, do których są przeznaczone. Ich zastosowanie znacznie wykracza poza przemysł; coraz częściej wykorzystywane są w usługach, pojawiają się także w sprzedaży jako urządzenia domowe.
Cel hakerów
Roboty współpracujące z człowiekiem to łakomy cel ataków z punktu widzenia cyberprzestępców. Dwójka badaczy związanych z IOActive Labs znalazła ponad 50 krytycznych podatności, stwarzających duże ryzyko ataku na roboty popularnych marek. Wymienili m.in. problemy związane z uwierzytelnianiem i bezpieczeństwem protokołów.
Według badaczy potencjalny atakujący może wielokrotnie wykorzystać różne podatności w celu modyfikacji ustawień bezpieczeństwa. Dla przejęcia zdalnej kontroli nad robotem wystarczy wykorzystanie sześciu podatności umożliwiających wyłączenie zabezpieczeń w urządzeniu.
Badacze wskazują, że roboty tego typu powinny być projektowane w sposób niepozwalający na modyfikację ustawień systemowych bez przeprowadzenia odpowiedniej oceny ryzyka ze strony dostawcy ich oprogramowania.
Przepełnienie bufora
Do naruszenia bezpieczeństwa podczas użytkowania robotów tego typu wystarczy wykorzystanie podatności przepełnienia bufora. To błąd programistyczny, który polega na zapisaniu do wyznaczonego obszaru pamięci (bufora) większej ilości danych, niż zarezerwował na ten cel programista.
Jak podają badacze IOActive Labs, dostawcy oprogramowania dla robotów współpracujących nie wydali odpowiednich aktualizacji zabezpieczających przed możliwością ich wykorzystania.
Autor: tol/ms / Źródło: PAP Biznes
Źródło zdjęcia głównego: Shutterstock