Za chwilę będzie tak, że dowolny filmik z osobą, która idzie ulicą, będzie mógł być szybko przerobiony tak, że zobaczymy tę samą osobę, te same ruchy, ale nagą - mówi w rozmowie z redakcją biznesową tvn24.pl Michał Koźbiał, badacz sztucznej inteligencji w NASK. Problem dotyczy głównie kobiet, ale narażony jest każdy. - Celem tego typu fejków mogą być szantaże, okupy, wyłudzenia – komentuje Michał Wendt, szef firmy informatycznej Elsii.
Rok temu QT Cinderella, popularna amerykańska graczka na Twitchu ujawniła, że jej wizerunek został skradziony i wykorzystany w filmie pornograficznym.
- Jestem wyczerpana. Tak wygląda ból, gdy widzi się siebie nagiego w filmie rozpowszechnionym po całym internecie - mówiła zapłakana podczas relacji na żywo.
Twitch star QTCinderella’s deepfake porn nightmare: ‘F–k the internet’ https://t.co/D3D0q4ghEN pic.twitter.com/nMll67qVet
— New York Post (@nypost) February 6, 2023
Ze względu na zaawansowane technologie efekt, który możemy zobaczyć na tego typu filmie, wydaje się bardzo realistyczny. - Materiały są nieprawdziwe, ale już ich rezultaty mają realne konsekwencje dla osoby poszkodowanej. Może mieć syndrom stresu pourazowego, cierpieć na depresję, mieć myśli samobójcze - komentuje w naszej rozmowie Michał Koźbiał, badacz sztucznej inteligencji, biometrii i przetwarzania obrazu w NASK.
Jeśli doświadczasz problemów emocjonalnych i chciałabyś/chciałbyś uzyskać poradę lub wsparcie, tu znajdziesz listę organizacji oferujących profesjonalną pomoc - zarówno dzieciom, jak i dorosłym.
"To efekt wyrachowania"
Ekspert NASK przyznaje, że narzędzia do stworzenia fikcyjnych obrazów, są dość łatwo dostępne i nie wymagają zaawansowanej wiedzy technologicznej. Jak tłumaczy, wystarczy, że ktoś dysponuje nawet zwykłym zdjęciem jakiejś osoby. - To efekt wyrachowania tych, którzy postanowili zarabiać na udostępnianiu narzędzi do deep nude, których efekt wydaje się bardzo realistyczny. Można je wykorzystywać nie tylko do zdjęć, ale i do tworzenia filmów - mówi.
- Za chwilę w ogóle będzie tak, że dowolny filmik z osobą, która idzie ulicą, będzie mógł być szybko przerobiony tak, że zobaczymy tę samą osobę, te same ruchy, ale nagą, Choć oczywiście nie będzie to jej prawdziwe ciało. Spodziewamy się również rozwoju AI w kierunku generowania całych scen filmowych jedynie na podstawie opisu, ewentualnie uzupełnionego o zdjęcie portretowe - przewiduje.
Serwis X na początku roku zablokował możliwość wyszukiwania frazy "Taylor Swift" po tym, jak platformę tę obiegły fałszywe, wygenerowane przez sztuczną inteligencję obrazy przedstawiające nagą piosenkarkę. Sprawa stała się na tyle poważna, że głos zabrała rzeczniczka Białego Domu Karine Jean-Pierre, która podczas konferencji prasowej określiła rozprzestrzenianie tych fałszywych zdjęć "alarmującą" sytuacją.
Więcej przeczytasz tu: X blokuje wyszukiwanie frazy "Taylor Swift". Powodem fałszywe "nagie zdjęcia" gwiazdy
Główna motywacja to zemsta
Na Uniwersytecie Antwerpskim w Belgii zapytano ankietowanych w wieku między 15 a 25 rokiem życia, czy mieli styczność z technologią służącą do tworzenia fałszywych nagich zdjęć. Ponad 40 proc. potwierdziło, że słyszało o deep nude.
- Rozbieranie zdjęć dotyczy głównie kobiet, bo 98 procent, ale narażony jest każdy. Okazało się, że główną motywacją osób, które zdecydowały się na zrobienie deep nude, była chęć zemsty - opowiada Michał Koźbiał. Część wskazywała też inne cele. - Przy czym nie miała świadomości, że to jest nielegalne i że komuś może szkodzić - dodaje.
Z ankiety wynika też, że spośród osób, które widziały deep nude, 68 proc. stwierdziło, że był on w mediach społecznościowych. Najczęściej, bo 32,9 proc. na Snapchat, 25,7 proc. na X, 25,5 proc. na Instagramie, 20,2 proc. na TikToku, a 18,9 proc. na Telegramie.
- Jeżeli znajdziemy film pornograficzny czy zdjęcia o charakterze seksualnym z naszym wizerunkiem, to powinniśmy zwrócić się do administratora strony, żeby zostały usunięte. Mamy w Polsce prawo do zapomnienia. Kolejnym krokiem jest zgłoszenie sprawy na policję. To nielegalne, żeby publikować czyjś wizerunek bez zgody, szczególnie w kontekście seksualnym. To jest zabronione. Z kolei w Wielkiej Brytanii nie tylko publikacja jest zabroniona, a nawet już sam proces generowania tego typu materiałów - wskazuje Koźbiał.
Zauważa, że w przypadku przerabiania zdjęć osób niepełnoletnich już na etapie tworzenia jest to też nielegalne w Polsce. Nielegalne jest też tworzenie czy posiadanie materiałów o charakterze seksualnym, które przedstawiają fikcyjne osoby małoletnie, wygenerowane całkowicie z wykorzystaniem AI.
- Bazą do szukania materiałów nie są tylko media społecznościowe - mówi Koźbiał i dodaje, że nasze zdjęcia bywają zamieszczane na innych witrynach, np. na stronie pracodawcy.
- Jednocześnie dzisiaj ważna jest kwestia próby ograniczenia tego, kto może z naszych zdjęć korzystać, kto je widzi na przykład na naszym profilu w mediach społecznościowych. Kolejna ważna sprawa to charakter udostępnianych przez nas materiałów. Łatwiej przerobić zdjęcia kogoś, kto pokazuje znajomym swoje zdjęcia z plaży w kostiumie kąpielowym - zwraca uwagę.
Szantaże, okupy, wyłudzenia
Michał Wendt szef firmy informatycznej Elsii, przestrzega w rozmowie z biznesową redakcją tvn24.pl, że "celem tego typu fejków mogą być szantaże, okupy, wyłudzenia". - Na przykład pracownik urzędu skarbowego może być w ten sposób szantażowany po to, aby podpiął do komputera pendrive, dając dostęp do danych czy wpuszczenia złośliwego oprogramowania - mówi.
Według niego dziś narażeni jesteśmy wszyscy. - Najskuteczniejszym działaniem oprócz edukacji i zgłaszania służbom tego typu przestępstw, jest to, aby jednak nie wchodzić w dialog z tymi, którzy będą próbować nas szantażować rzekomymi materiałami. Oni szukają takich ofiar, które faktycznie dadzą się zmanipulować - wyjaśnia.
- Przestępcy chcą trafić do konkretnej grupy. Jeżeli ktoś jest oporny, to nie tracą na niego czasu. Najgorsze co możemy zrobić, to odpowiadać, negocjować, wchodzić w dialog. Oni skupią się na tych, na których mogą zarobić, uzyskać to, czego potrzebują. Jeśli ich działanie nie przynosi efektów, to poszukają takiej ofiary, w przypadku której efekty efekty będą - zaznacza.
Michał Wendt zwraca uwagę, że jesteśmy też w trakcie wojny hybrydową z Rosją, wiele jej działań ma doprowadzić do destabilizacji, odciągnięcia uwagi od rzeczy ważnych. - Dlatego fejkowy film pornograficzny z ministrem to też możliwy scenariusz – ocenia.
Mail z groźbą - co robić?
Na rządowej stronie gov.pl znajdujemy informację, o tym co zrobić, gdy zostaliśmy ofiarą cyberprzestępcy. Pada takie pytanie: otrzymałem maila z groźbą udostępnienia moich prywatnych zdjęć jeśli nie zapłacę, co mogę zrobić?
"W tym przypadku zachodzi podejrzenie popełnienia przestępstwa. Tego typu przestępstwo jest ścigane na wniosek osoby poszkodowanej. Należy je zgłosić w najbliższej jednostce policji lub prokuraturze. Możliwe jest również złożenie zawiadomienia za pomocą https://www.gov.pl/web/gov/zglos-przestepstwo. Dodatkowo incydent dotyczący cyberprzestrzeni należy zgłosić do zespołu ekspertów z CSIRT NASK - na stronie https://incydent.cert.pl/ dostępny jest prosty interaktywny formularz umożliwiający wysłanie zgłoszenia o potencjalnym niebezpiecznym incydencie, w którego treści należy zapisać otrzymaną wiadomość w całości, wraz z załącznikiem i nagłówkami w osobnym pliku i przesłać do analizy" - czytamy odpowiedzi.
Chcesz podzielić się ważnym tematem? Skontaktuj się z autorką tekstu: joanna.rubin@wbd.com
Źródło: tvn24.pl
Źródło zdjęcia głównego: r.classen/Shutterstock