Technologia deepfake pozwala tworzyć nagrania, wideo i audio, które wydają się autentyczne, choć takimi nie są. Ostatnim przykładem oszustwa z użyciem wizerunku znanej osoby jest historia Jolanty Kwaśniewskiej, którą opisywaliśmy w tvn24.pl
"Deepfake’i to zagrożenie, które może spotkać każdego"
Fałszywe nagrania generowane przez sztuczną inteligencję stają się coraz częściej narzędziem oszustw i dezinformacji. O skali problemu mówiła na antenie TVN24 adwokatka Joanna Ryczek, pełnomocniczka m.in. byłej pierwszej damy Jolanty Kwaśniewskiej.
- Im większe zaufanie do osoby publicznej, tym większa siła rażenia takich nagrań – podkreślała mecenas Ryczek.
Przypomniała, że niedawno ofiarą deepfake’u padła Jolanta Kwaśniewska, której wizerunek wykorzystano w spreparowanym filmie reklamującym fałszywe inwestycje. – Tam są niuanse, jak nietypowe ułożenie twarzy czy modulacja głosu, ale wielu odbiorców nie potrafi ich rozpoznać – zaznaczyła.
Ekspertka wyjaśniała też, jakie kroki mogą podjąć osoby poszkodowane. – Możemy zgłosić takie treści administratorom platform, powiadomić prokuraturę czy wystąpić na drogę cywilną – mówiła.
Jej zdaniem przydatnym rozwiązaniem mogłyby być tzw. "ślepe pozwy", które pozwalają dochodzić ochrony dóbr osobistych nawet wtedy, gdy sprawca pozostaje nieznany.
- Nasz wizerunek chronią przepisy o dobrach osobistych, prawie autorskim i ochronie danych osobowych, ale egzekwowanie tych praw w praktyce wciąż jest trudne – dodała.
Rozmówczyni zwróciła uwagę, że deepfake’i mogą być wykorzystywane również w walce politycznej, co niesie dodatkowe zagrożenia.
- Jeżeli ktoś intencjonalnie posługuje się takim narzędziem, by włożyć w usta polityka słowa sprzeczne z jego poglądami, może wyrządzić poważne szkody zawodowe i wizerunkowe – ostrzegała Joanna Ryczek.
W jej ocenie potrzebne są nie tylko narzędzia prawne, ale też większa świadomość społeczna, by odbiorcy krytycznie podchodzili do treści oglądanych w sieci.
Autorka/Autor: Jan Sowa
Źródło: tvn24.pl
Źródło zdjęcia głównego: Shutterstock