Kradnie twarze i głosy, prawo zostaje w tyle. "Poważne skutki"

"Ja nie wiem, co jest prawdą". Dlaczego sztuczna inteligencja kłamie
Prof. Przegalińska: sztuczna inteligencja to technologia, która może wnioskować
Źródło: TVN24
Prezes Urzędu Ochrony Danych Osobowych Mirosław Wróblewski ostrzega, że dynamiczny rozwój sztucznej inteligencji, w tym technologii deepfake, obnaża słabości obowiązujących przepisów o ochronie danych i wizerunku. Według niego, państwo musi pilnie dostosować prawo i praktykę jego stosowania do realnych zagrożeń, zanim naruszenia prywatności i godności staną się powszechne i bezkarne.

- Rozwój narzędzi sztucznej inteligencji, w tym technologii deepfake, stawia przed państwem nowe wyzwania prawne i instytucjonalne – wskazał Mirosław Wróblewski. Jego zdaniem problemem nie jest brak jakiejkolwiek ochrony prawnej, lecz trudności w stosowaniu obowiązujących przepisów oraz brak jasnych, precyzyjnych regulacji odnoszących się wprost do nowych zjawisk technologicznych.

Przeszkody prawne w ściganiu winowajców

Wróblewski ocenił, że obowiązujące prawo pozwala ścigać bezprawne wykorzystywanie wizerunku i danych osobowych, jednak organy ścigania często nie kwalifikują takich działań jako przestępstwa. – W praktyce nowe formy naruszeń bywają bagatelizowane lub określane jako "żarty", mimo że ich skutki mogą być poważne i długotrwałe - podkreślił.

Jako przykład wskazał sprawę wykorzystania wizerunku nieletniej dziewczynki z Mazowsza przy użyciu narzędzi AI, która – po wcześniejszych odmowach – ostatecznie stała się przedmiotem śledztwa po interwencji UODO. – Ta sprawa pokazuje, że problem nie leży wyłącznie w technologii, ale w podejściu instytucji do jej skutków – zaznaczył.

AI umożliwia inferencję danych

Prezes UODO zwrócił uwagę, że deepfake’i coraz częściej wykorzystywane są również w celach komercyjnych i przestępczych, m.in. w fałszywych reklamach, w których bez zgody używa się wizerunków i głosów znanych osób. Jego zdaniem platformy internetowe, które zarabiają na dystrybucji takich treści i wzmacniają ich zasięg algorytmicznie, nie mogą być traktowane wyłącznie jako bierni pośrednicy.

Wróblewski podkreślił, że zagrożenia związane z AI wykraczają poza sam problem wizerunku. Jednym z najpoważniejszych jest tzw. inferencja danych, czyli możliwość wnioskowania przez systemy AI o informacjach wrażliwych – takich jak stan zdrowia, poglądy czy sytuacja finansowa – na podstawie pozornie neutralnych danych. Kolejnym ryzykiem jest możliwość wydobywania danych osobowych z modeli AI, jeśli nie zostały one właściwie zabezpieczone na etapie treningu.

Cyberprzestępstwo - kradzież głosu
Cyberprzestępstwo - kradzież głosu

Technologia prześciga prawo

Zdaniem Prezesa UODO konieczne jest stworzenie bardziej precyzyjnych regulacji prawnych, wzorowanych na rozwiązaniach przyjętych m.in. we Francji, Włoszech czy Stanach Zjednoczonych, gdzie przepisy wprost opisują przestępstwa związane z przekształcaniem wizerunku przy użyciu algorytmów oraz przewidują szybkie procedury usuwania nielegalnych treści.

– Technologia rozwija się szybciej niż praktyka stosowania prawa. Jeżeli państwo nie dostosuje regulacji i nie wzmocni egzekucji, ochrona danych osobowych i godności człowieka pozostanie iluzoryczna - podsumował Wróblewski.

OGLĄDAJ: TVN24 HD
pc

TVN24 HD

pc
Ten i inne materiały obejrzysz w subskrypcji
Zobacz także: