Przypadek Georgii Meloni, której wizerunek wykorzystano w porno, jest bardzo hardcore'owy, ale deepfake to także imitacja głosu człowieka z banku, który dzwoni w sprawie naszych pieniędzy - mówi w rozmowie z redakcją biznesową tvn24.pl Aleksandra Przegalińska, badaczka AI, filozofka i futurolożka. - Musimy zdawać sobie sprawę, że nowa technologia wchodzi do życia człowieka dość nieoczekiwanie, może je demolować - komentuje wicepremier i minister cyfryzacji Krzysztof Gawkowski.
W minionym tygodniu włoski rząd przyjął projekt ustawy, który przewiduje karę od roku do pięciu lat więzienia za szkody wizerunkowe wyrządzone przy wykorzystaniu sztucznej inteligencji. To pierwszy w Europie zbiór przepisów dotyczących AI.
Wcześniej portal stacji BBC podał, że premier Włoch Giorgia Meloni domaga się 100 tysięcy euro odszkodowania za zamieszczenie w internecie filmów pornograficznych z jej wizerunkiem, które stworzono przy pomocy technologii deepfake.
Deepfake to mówiąc najprościej stworzone lub przerobione zdjęcie albo wideo, które ma sprawiać wrażenie prawdziwego.
- Nie wszystko jest w deepfake'ach złe i nie wszystko jest karygodne. Jednak oczywiście inne podejście do deepfake'ów będzie mieć Taylor Swift, Joe Biden czy Georgia Meloni, której przypadek jest bardzo hardcore'owy, niż osoba, która nigdy nie padła ofiarą takiej manipulacji. Wizerunek premier Włoch przecież został wykorzystany w porno - komentuje w rozmowie z redakcją biznesową tvn24.pl dr. hab. Aleksandra Przegalińska, badaczka AI, filozofka i futurolożka.
Jednocześnie skala oddziaływania deepfake'ów z wizerunkami znanych osób może być ogromna.
W styczniu serwis X musiał czasowo zablokować możliwość wyszukiwania frazy "Taylor Swift" po tym, jak platformę tę obiegły fałszywe, wygenerowane przez sztuczną inteligencję obrazy przedstawiające nagą piosenkarkę. W tym samym miesiącu część Amerykanów, odbierając telefon, mogła usłyszeć fałszywe i wygenerowane komputerowo nagranie głosu prezydenta Joe Bidena, który miał zniechęcać wyborców do udziału w demokratycznych prawyborach..
Przegalińska: sztuczna inteligencja biedna nie jest
Jak wskazuje dr Ewelina Bartuzi-Trokielewicz z NASK, państwowego instytutu badawczego nadzorowanego przez Ministerstwo Cyfryzacji, technologia sztucznej inteligencji osiągnęła poziom, kiedy już nawet krótkie nagranie może posłużyć do stworzenia przekonującej imitacji głosu danej osoby. Wystarczy do tego 6 sekund wypowiedzi. Na dodatek na podstawie jednego zdjęcia osoby oraz próbki głosu można stworzyć wideo o naturalnej ekspresji.
Zdaniem Aleksandry Przegalińskiej "deepfake w jakimś sensie stał też formą komentowania rzeczywistości. Nie wszystkie z nich albo nawet zdecydowana większość nie ma charakteru potencjalnie przestępczego".
- Inna sytuacja jest w przypadku deepfake'a, który jest próbą wprowadzenia w błąd w sytuacji dla nas bardzo istotnej. Na przykład klon głosu człowieka z banku, który dzwoni w sprawie naszych pieniędzy. Albo klon głosu Joe Bidena dzwoniącego do ludzi, żeby ich przekonywać, żeby nie głosowali na niego w wyborach. To jest kompletna dezinformacja w kluczowej sytuacji, jaką są demokratyczne wybory - podkreśla.
Czytaj także w Konkret24: Nie, żołnierze nie odwrócili się plecami na widok Joe Bidena
Badaczka AI uważa, że najlepszą szczepionką na deepfake wcale nie będą regulacje, choć one są bardzo ważne. - Stanowią ramę tego, jak powinniśmy reagować. Szczepionką dla społeczeństwa na deepfake jest to, że jesteśmy świadomi ich istnienia. Wiemy, że sztuczna inteligencja może być wykorzystywana do tego, żeby deepfake'ować. Zajęcia z tego obszaru powinny odbywać się w szkole i to w nurcie krytycznym. Trzeba edukować w zakresie tego, co jest technologicznie możliwe, ale z punktu widzenia moralnego absolutnie niedopuszczalne - zaznacza.
Przegalińska wyjaśnia w naszej rozmowie, że już w tej kwestii w Polsce tworzą się projekty i współprace. - Jestem w grupie doradczej Barbary Nowackiej, ministry edukacji - wyjaśnia.
Systemowa edukacja jest ważna, bo według Przegalińskiej jest mała szansa, że era sztucznej inteligencji się szybko skończy albo że po prostu świat z niej zrezygnuje. - Tam jest też mnóstwo pieniędzy, sztuczna inteligencja biedna nie jest - przyznaje profesorka.
Gawkowski: to się może wydarzyć
Pytamy wicepremiera i ministra cyfryzacji Krzysztofa Gawkowskiego, czy boi się, że jednego dnia deepfake z jego wizerunkiem wyląduje w sieci? - Zdaję sobie sprawę, że może się to wydarzyć, że moje zdjęcia czy filmy posłużą do manipulacji - odpowiada. - Uważam, że deepfake i dezinformacja muszą być uregulowana prawnie. Właśnie pracujemy nad kwestią oznaczania nieprawdziwych treści - mówi szef MC w rozmowie z biznesową redakcją tvn24.pl.
- Musimy zdawać sobie sprawę, że nowa technologia wchodzi do życia człowieka dość nieoczekiwanie, może je demolować. Technologia może nas w jasny sposób oszukiwać i musimy się na to przygotować. Po pierwsze regulacyjnie, po drugie od strony kompetencji higieny cyfrowej, po trzecie dać poczucie, że państwo się tym tematem opiekuje, wymaga od platform większej odpowiedzialności. Chodzi o oznaczanie tego, co jest prawdziwe, a co jest nieprawdziwe, bo deepfake’ów i dezinformacji będzie coraz więcej - wyjaśnia.
Według szefa resortu cyfryzacji, "dzisiaj na uważanie jest za późno dlatego, że przez ostatnią dekadę liczba zdjęć, filmów, które wysłaliśmy do sieć jest olbrzymia". - Z nich można dowolnie wykorzystywać materiały do tworzenia różnego rodzaju przekazu dezinformacyjnego. Dziesięć lat temu powiedziałbym: "Uważaj na to, co wstawiasz do sieci, bo to może być wykorzystane przeciwko tobie". Dzisiaj dobrą radą jest mówić, jak na taki deepfake zareagować - podkreśla.
Dopytujemy, jak na deepfake zareagować? - Jeśli nasze wypowiedzi są zmanipulowane na przykład w taki sposób, że mogą doprowadzać do sytuacji, w której nawołujemy do przestępstwa, to trzeba te sprawy zgłaszać do CERT Polska - odpowiada minister.
Zaznacza, że wtedy państwo zaczyna się tą sprawą opiekować, bo ktoś nadużył prawa, złamał je albo wprost chce zrobić krzywdę innej osobie.
- Zgłaszanie to jednak za mało. Państwo musi robić więcej, dlatego wdrażamy unijny akt DSA (o usługach cyfrowych - red.), który też reguluje tego typu kwestie. Musimy rozważyć, jak w przyszłości miałoby wyglądać oznaczanie przez platformy treści prawdziwych i fałszywych, żeby ludzie po prostu mieli świadomość tego, na co patrzą - wskazuje Gawkowski. Wicepremier podkreśla w rozmowie z tvn24.pl, że "z kolei nieoznaczenie materiałów będzie odpowiednio karane, czyli wprowadzimy sankcje".
Krzysztof Gawkowski zauważa, że cyfrowa rzeczywistość jest w życiu każdego człowieka, nawet tego, który uważa, że ona go nie dotyczy. - Po rozpoczęciu wojny na Ukrainie pojawiły się dezinformacje dotyczące tego, że w Polsce zabraknie benzyny. Każdy konflikt jest elementem, który będzie wzmacniał różnego rodzaju nielegalne, niebezpieczne działania na innych polach. Wojna w Ukrainie doprowadziła do tego, że Polska jest w stanie zimnej wojny z Rosją w cyberprzestrzeni. Mamy nieustający wyścig zbrojeń w tym obszarze i każdy polityk musi sobie zdawać z tego sprawę. Dlatego też pracujemy nad regulacjami, które mają istotnie zwiększyć naszą cyberodporność - podkreśla.
Jak dodaje, "społeczeństwo też musi mieć świadomość, że być może zobaczy film wygenerowany przez sztuczną inteligencję, na którym ktoś wzywa, żeby na przykład uciekać z Polski. To się może wydarzyć. Bez względu na regulacje, każdy z nas powinien nauczyć się weryfikowania faktów".
Wojna o nasze umysły
Podobnego zdania jest rzecznik prasowy Dowództwa Komponentu Wojsk Obrony Cyberprzestrzeni ppłk Przemysław Lipczyński. - W Wojsku Polskim trwają prace nad stworzeniem specjalistycznych komórek odpowiedzialnych za monitoring, identyfikację i przeciwdziałanie zagrożeniom związanym z wojną kognitywną (w wojnie kognitywnej ludzki umysł staje się polem bitwy - przyp. red). Niezwykle istotne jest również to, aby budować społeczną odporność na tego typu zagrożenia - zauważa w rozmowie z tvn24.pl.
- W tym przypadku edukacja jest podstawą. W trwającej wojnie o nasze umysły korzystanie z wiarygodnych źródeł informacji i krytyczne myślenie jest kluczowe dla zapewnienia naszego wspólnego bezpieczeństwa - podkreśla ppłk Lipczyński.
Kiedy powinna zapalić się czerwona lampka?
Jane Knap, researcherka związana z rynkiem technologicznym uważa, że głównym problem w obszarze dezinformacji jest to, że nie poddajemy pod wątpliwość informacji, które dostajemy.
- Krótko mówiąc, nie sprawdzamy źródeł. Media społecznościowe są największym źródłem dezinformacji, bo informacje są przekazywane głównie na Facebooku i X. Tradycyjne media tracą na znaczeniu, co potwierdzają statystyki - wskazuje w rozmowie z biznesową redakcją tvn24.pl.
Jane Knap dodaje, że nawet jeśli zdajemy sobie sprawę, że patrzymy na nieprawdziwe albo wątpliwe informacje w mediach, to i tak znacząca większość z nas ich nie sprawdzi.
Chodzi o badanie Eurostatu z grudnia 2021 roku, z którego wynika, że 47 proc. osób w wieku 16-74 lat w Unii Europejskiej widziało nieprawdziwe lub wątpliwe informacje w witrynach informacyjnych lub mediach społecznościowych w ciągu trzech miesięcy poprzedzających badanie. Jedynie 23 proc. badanych użytkowników internetu zweryfikowało prawdziwość informacji lub treści. W przypadku Polski 40 proc. respondentów przyznało, że natknęło się na nieprawdziwe lub wątpliwe informacje w internecie, a zaledwie 16 proc. sprawdziło wiarygodność przeczytanych treści.
Dopytujemy więc, jak możemy przeprowadzić taką weryfikację? - Na przykład, jak patrzymy na zdjęcie i korzystamy z przeglądarki Google, to możesz sobie po prostu wbić te zdjęcie w Google Images, co jest bezpłatne. Wtedy wyskoczy nam informacja, kiedy zdjęcie było zrobione, jaka była jego lokalizacja. Na przykład okaże się, że zdjęcie, które mamy zamieszczone w newsie z wczoraj, jest tak naprawdę sprzed dziesięciu lat. Powinna zapalić się nam czerwona lampka - zaznacza Knap.
Jak dodaje, tak samo jest z deepfake'ami. Są bardzo proste narzędzia, które pomogą nam w weryfikacji.
- Deepfake Detector jest również darmowy. Wrzucamy wideo, które wydają nam się dziwne i program wyświetla nam informacje, czy obraz był stworzony w generatorze grafiki AI. W Google Fact Check Explorer za to sprawdzimy źródła, czy dany temat rzeczywiście wyszedł na przykład z Reutersa czy z TVN-u - podaje przykłady.
Kolejne gratisowe narzędzie ma Amnesty International - YouTube DataViewer, które pozwala sprawdzić dokładną lokalizację, datę i godzinę opublikowania wideo.
- Problemem jest jednak to, że nie ma jednego narzędzia, które wszystko weryfikuje. Gdzie indziej sprawdza się zdjęcia, a gdzie indziej wideo. Nie każdemu będzie się chciało tak skakać. Część tych narzędzi jest też w Google, a o firmie są przecież różne opinie w zakresie gromadzenia danych. Polecam też sprawdzić ofertę szkoleń fact-checkingowych na przykład w lokalnych urzędach pracy czy miasta. Są coraz częściej dostępne - zachęca Jane Knap.
Kto jest narażony na oszustwo?
Jej zdaniem oprócz narzędzi niezbędna jest spostrzegawczość i czujność. Jako przykład podaje historię dziewczyny, do której zadzwonił bot naśladujący głos jej mamy. - Ten głos imitujący spanikowaną mamę mówił, że jest na autostradzie, że zepsuł się jej samochód, że przyjechała pomoc drogowa, która chce od niej dodatkowych pieniędzy. Poprosiła o przelanie pieniędzy. Córka oczywiście szybko chciała pomóc mamie i była gotowa zrobić ekspresowy przelew - opowiada Knap.
Córkę zatrzymała w tej decyzji koleżanka, która poprosiła, aby spróbowała się uspokoić i nie ulegała emocjom, a następnie żeby kontrolnie zadzwoniła do swojej mamy.
- Chodziło o to, aby sprawdzić czy rzeczywiście potrzebuje pomocy. Okazało się oczywiście, że mama nie była na żadnej autostradzie i nie miała wypadku - zaznacza researcherka.
Kto jest najbardziej narażony na to, że padnie ofiarą takiego oszustwa? - Jak ktoś mieszka na przykład w bardzo małej miejscowości i ma dostęp do kilku kanałów informacyjnych lub nie jest zbyt biegły cyfrowo, to paradoksalnie najczęściej badania pokazują, że jest bardziej podejrzliwy niż osoby, które codziennie zalewane są fake newsami różnego typu - wyjaśnia Jane Knap.
Jak precyzuje, takie badania przeprowadził Uniwersytet Illinois i wynikało z nich, że osoby żyjące w większych miastach są bombardowani każdego dnia ogromną ilością informacji i będą bardziej narażone na fałszywe SMS-y, fałszywego maila i w związku z tym dokonają szybkiej płatności. - Podejmują decyzje na "autopilocie", bardziej kompulsywnie i emocjonalnie. Osoba, która mieszka w mniejszej miejscowości albo jest starsza dodatkowo zadzwoni z trzy razy do sąsiada czy wnuczka i zapyta wprost: "A po co ci te pieniądze?" - zauważa.
Czytaj też: "Najpierw musi być chęć, żeby w ogóle sprawdzić". Eksperci o tym, jak skutecznie walczyć z fake newsami
Chcesz podzielić się ważnym tematem? Skontaktuj się z autorką tekstu: joanna.rubin@wbd.com
Źródło: tvn24.pl