Prezenterka i youtuberka, znana jako Sunpi, odkryła w ubiegłym miesiącu, że w sieci krążą pornograficzne treści z jej twarzą, stworzone przy wykorzystaniu technologii deepfake. Za ich usunięcie z internetu musiała zapłacić.
Jak wynika z relacji 29-letniej Sunpi, o pornograficznych materiałach z jej twarzą dowiedziała się w marcu od jednego ze swoich obserwatorów. - Poczułam się zawstydzona, zrobiło mi się niedobrze. Zadzwoniłam do mamy i zaczęłam płakać - opowiada kobieta.
Wykorzystujące jej wizerunek treści zostały stworzone za pomocą technologii deepfake, bazującej na sztucznej inteligencji. Pozwala ona na wygenerowanie "fotografii" na podstawie wgranych wcześniej zdjęć danej osoby. Choć dogłębna analiza stworzonych w ten sposób materiałów pozwala wykazać ich nieautentyczność, na pierwszy rzut oka wyglądają bardzo prawdziwie.
Policja stwierdziła, że nie jest w stanie pomóc
- Przyjrzałam się tym grafikom, wyglądały naprawdę realistycznie - ocenia 29-latka. Jak dodaje, po zobaczeniu materiałów rzekomo z jej udziałem poczuła, że odebrano jej poczucie kontroli.
Youtuberka wyjaśniła, że w przeszłości natknęła się już na materiały deepfake z jej udziałem, jednak wówczas nie miały one pornograficznego charakteru. Udała się wtedy na policję, ale tam miała usłyszeć, że funkcjonariusze nie są w stanie jej pomóc i musi samodzielnie skontaktować się z właścicielem witryny, na której umieszczone są materiały. Mając w pamięci poprzednie doświadczenia, tym razem Sunpi postanowiła sama wynająć zespół prawników, by pomógł jej w usunięciu materiałów z internetu. Zapłaciła za to 500 funtów (równowartość 2660 złotych).
W rozmowie z "The Independent" Sunpi przyznała, że od czasu odkrycia tych pornograficznych treści ma trudności z zasypianiem. - Nie mogę spać, bo ciągle chcę sprawdzać, czy istnieją jeszcze inne. Budzę się, czuję się niespokojna. Ciągle wpisuję w wyszukiwarkę Google swoje imię i nazwisko, żeby upewnić się, że wszystko stamtąd zniknęło - relacjonuje.
ZOBACZ TEŻ: Macron protestuje przeciw samemu sobie, Trump szarpie się z policją. Wysyp deepfake'ów w sieci
Deepfake'owe wideo to zwykle filmy pornograficzne
W rozmowie z "The Independent" 29-latka przyznała, że fakt, iż musiała pokryć koszty usunięcia deepfake'owych grafik z własnej kieszeni, irytuje ją. Twórczyni internetowa zaznaczyła również, że w jej ocenie obecne przepisy prawne, dotyczące bezprawnego wykorzystania wizerunku w podobnych przypadkach, muszą zostać zmienione, by lepiej chronić ofiary.
Z badań firmy Deeptrace, zajmującej się cyberbezpieczeństwem, wynika, że aż 96 procent wszystkich dostępnych w sieci deepfake'owych wideo to filmy pornograficzne. Zgromadzone dotychczas dane wskazują, że w zdecydowanej większości do ich stworzenia wykorzystywane są wizerunki kobiet - mężczyźni stanowią około czterech procent wszystkich poszkodowanych.
Źródło: Independent
Źródło zdjęcia głównego: Instagram/@itssunpi