Walka z dezinformacją przypominać może walkę ze znaną z mitologii greckiej wielogłową hydrą. Gdy odrąbie się jeden łeb, na jego miejsce wyrastają kolejne. Rosyjskie farmy trolli, Partia Pięciu Groszy, deepfake'i. Narzędzi, z których mogą korzystać reżimy autorytarne jest coraz więcej. Zanim ta hydra urośnie na tyle, by nas zjeść, można i trzeba się do batalii z nią przygotować.
Luty 2023. Wenezuela przygotowuje się właśnie do hucznych obchodów karnawału, a prezydent Nicolas Maduro uroczyście otwiera nowy stadion do gry w baseball. Reżimowe media jak zwykle przedstawiają sytuację kraju w samych superlatywach. Podczas jednego z wydań serwisu informacyjnego w publicznej telewizji prowadzący dzieli się z widzami kolejnymi pozytywnymi wiadomościami.
"Chwalą nas na Zachodzie!" – brzmi główny przekaz. Widzowie dowiadują się, że amerykańska telewizja przyznaje, że Wenezuela może poszczycić się wysokimi zyskami z turystyki, a twierdzenia o rzekomym zubożeniu bogatego w ropę kraju są przesadzone. Na dowód na ekranach telewizorów Wenezuelczyków pojawia się blondyn mówiący perfekcyjną angielszczyzną z amerykańskim akcentem. Noah przekonuje, że do Wenezueli ciągną turyści z całego świata na zbliżający się karnawał, co potwierdza, że gospodarka państwa ma się dużo lepiej, niż wielu chce sądzić.
W kolejnym materiale pojawia się czarnoskóry prezenter Daren z rzekomo amerykańskiej telewizji, także mówiący idealnie po amerykańsku. Opowiada o zyskach, jakie generuje turniej baseballowy Serie del Caribe, który odbył się tydzień wcześniej w Caracas.
Obydwóch "amerykańskich" prezenterów, oprócz sympatii do reżimu Maduro, łączy jeszcze jedno: nigdy nie istnieli.
Daren i Noah to postaci wykreowane za pomocą narzędzia stworzonego przez jedną z brytyjskich firm technologicznych. Generator oparty na sztucznej inteligencji pozwala nadać komunikat o dowolnej treści, w dowolnym języku, za pomocą jednego z kilkudziesięciu dostępnych awatarów.
Ten jaskrawy przykład wykorzystania sztucznej inteligencji i technologii deepfake w sianiu państwowej propagandy został szybko zdemaskowany. Spreparowane materiały z awatarami "zatrudnionymi" przez reżim Maduro zostały zablokowane w serwisie YouTube. Sprawnie zareagowała również sama firma, do której należało użyte narzędzie. Z dużej części przestrzeni internetowej materiał zniknął, choć jak wiadomo – czegoś, co raz się w sieci pojawiło, nie sposób zupełnie wyrugować.
W teorii
Walka z dezinformacją przypominać może walkę ze znaną z mitologii greckiej wielogłową hydrą. Gdy odrąbie się jeden łeb, na jego miejsce wyrastają kolejne. Nie oznacza to jednak, że jest to walka zupełnie beznadziejna. Zwłaszcza, że deepfake’owa hydra nie jest jeszcze dorosłą, budzącą postrach bestią. Jest mała, nieporadna i ciągle raczkuje. Zanim urośnie na tyle, by nas zjeść, można się do batalii z nią przygotować. Na początek trzeba ją dobrze poznać.
Deepfake to rodzaj sztucznej inteligencji wykorzystywanej do tworzenia obrazów oraz materiałów audio i wideo. Termin ten opisuje zarówno technologię, jak i wynikającą z niej zafałszowaną treść. Termin "deepfake" jest połączeniem głębokiego (ang. deep) uczenia się i słowa "fałszywy" (ang. fake). Został rozpowszechniony po tym, gdy na portalu Reddit w grudniu 2017 roku użytkownik o pseudonimie "deepfakes" opublikował kilka filmów pornograficznych z "udziałem" znanych hollywoodzkich aktorek.
W skrócie: za pomocą tej technologii stworzyć można całkowicie oryginalne treści, w których ktoś robi lub mówi coś, czego nie zrobił ani nie powiedział.
Do stworzenia deepfake’a najczęściej wykorzystuje się dwa algorytmy – generatora do tworzenia treści i dyskryminatora, który służy do jej testowania. Najprościej rzecz ujmując: podczas gdy generator pracuje nad stworzeniem zmanipulowanego wideo – bazując na rzeczywistych zdjęciach i nagraniach danej osoby, dyskryminator sprawdza, do jakiego stopnia realistyczna jest tworzona treść. Ten proces jest powtarzany wielokrotnie. Z czasem generator doskonali się w tworzeniu coraz realistyczniej wyglądających obrazów, a dyskryminator zdobywa większą wprawę w wykrywaniu błędów. Efekt końcowy to tak wiarygodnie zmanipulowany materiał, że dyskryminator ma problem z odróżnieniem go od prawdy.
Tak zwane generatywne sieci przeciwstawne (GAN) wykorzystywane są do generowania zarówno obrazów, tekstu, audio, jak i treści wideo. Choć wiele z nich jest dostępnych w otwartych źródłach, do stworzenia wiarygodnych treści potrzeba dużej ilości danych i odpowiedniej mocy obliczeniowej. Dlatego, choć teoretycznie każdy może tworzyć deepfake’i, koszt stworzenia przekonującego materiału może kosztować kilka tysięcy dolarów. Ich potencjał jest jednak ogromny, bo pozwala na uzyskanie realistycznych rezultatów.
Jak twierdzi w rozmowie z tvn24.pl Filip Stawski z Uniwersytetu Kazimierza Wielkiego w Bydgoszczy, z kognitywnego punktu widzenia, nasz system poznawczy nie jest przystosowany do odróżniania deepfake’ów od prawdy.
- Jesteśmy istotami społecznymi, czytanie twarzy ma duże znaczenie ewolucyjne - mówi Stawski. - Mamy nawet wyspecjalizowany obszar w mózgu, który za to odpowiada. Czasami dostrzegamy twarz w jakimś zacieku na ścianie czy innym nieregularnym kształcie, bo od niemowlęctwa nasz mózg szuka wzorców i właśnie kształtu twarzy, "dopowiadając" sobie znaczną część tego, co finalnie, subiektywnie widzimy. Możemy przez to nie dostrzegać zakłóceń w profesjonalnie zrobionych deepfake’ach - tłumaczy.
Na wojnie
Trzeci tydzień pełnoskalowej napaści Rosji na Ukrainę. Na zhakowanej stronie ukraińskiej telewizji newsowej i w mediach społecznościowych zaczyna rozprzestrzeniać się fałszywe wideo, na którym prezydent Wołodymyr Zełenski przyznaje się do porażki. Zwraca się do obywateli swojego kraju o złożenie broni. Pada stwierdzenie, że Rosji należy oddać Donbas. A także sugestia, że sam już opuścił kraj.
Rosyjska próba wpłynięcia na Ukraińców za pomocą spreparowanego materiału spaliła na panewce. Fejkowe nagranie zostało wypuszczone za wcześnie, filmik był bardzo kiepskiej jakości i łatwo można się było zorientować, że jest nieprawdziwy.
Gorzej poszło z szybkim zorientowaniem się, że przy użyciu technologii deepfake powstawały też rzekome rozmowy mera Kijowa Witalija Kliczko z burmistrzami i prezydentami europejskich stolic. Próbowano w ten sposób – i to na żywo - oszukać władze Wiednia, Budapesztu, Berlina, Madrytu i Warszawy.
Za każdym razem ktoś umawiał się na rozmowę z europejskimi politykami z wiarygodnego adresu email. Potem przeprowadzał ją, posługując się twarzą i głosem mera Kijowa. Ze znanych publicznie przypadków wiadomo, że rozmówcy na pewnym etapie nabierali podejrzeń, że coś jest nie tak i albo od razu przerywali rozmowę, albo po skończeniu jej informowali władze Ukrainy o zajściu.
Dobitnie pokazuje to przykład rozmowy "Kliczki" z burmistrzynią Berlina, Franziską Giffey. W czerwcu 2022 roku kancelaria berlińskiego Senatu poinformowała, że podczas wideokonferencji rzekomy Witalij Kliczko miał zwrócić się do Giffey z wnioskiem o odesłanie do Ukrainy, z pomocą policji, wszystkich ukraińskich mężczyzn znajdujących się na terenie Niemiec. Jak informuje redakcja DW, podejrzenia Giffey wzbudziła także prośba o wsparcie dla Kijowa przy organizacji parady równości – zaskakująca w momencie eskalacji rosyjskiej agresji na Ukrainę. Rozmowa została przerwana. Wcześniej jednak, zanim zaczęły pojawiać się zaskakujące prośby, burmistrzyni Berlina i mężczyzna twierdzący, że jest Kliczką, rozmawiali bez podejrzeń przez 15 minut.
Zdaniem Kancelarii Senatu Berlina, podczas połączenia użyto technologii deepfake. Ambasada Ukrainy potwierdziła, że Witalij Kliczko nie rozmawiał wówczas z Giffey.
Jak podaje niemiecki magazyn "Kontraste", fałszywe rozmowy przeprowadzić mieli rosyjscy komicy - Vovan i Lexus, znani z telefonicznych żartów. Sami zainteresowani oświadczyli zresztą, że także tym razem był to z ich strony jedynie żart, a nie działanie motywowane politycznie. Wielokrotnie utrzymywali, że działają niezależnie, a nie na zlecenie służb. Jednak jeśli prześledzić działania rosyjskich komików na przestrzeni ostatnich kilku lat, okazuje się, że ich żarty jakimś "zbiegiem okoliczności" zawsze służą interesom rosyjskiego reżimu. W wywiadzie dla niezależnego portalu Meduza, komicy przyznali zresztą, że za cel swoich żartów nigdy nie obraliby ani Ramzana Kadyrowa, ani Władimira Putina. Ich zdaniem, prowadziłoby to do destabilizacji Rosji.
W propagandzie
Choć o technologii deepfake i zagrożeniach, jakie niesie, mówi się od kilku lat, spreparowane w ten sposób materiały, które pojawiają się w przestrzeni publicznej są zazwyczaj nadal na tyle niewiarygodne, że nie są wykorzystywane na szeroką skalę. W sianiu dezinformacji nawet reżimy autorytarne, w tym Rosja czy Chiny, sięgają więc zazwyczaj po bardziej tradycyjne techniki propagandowe.
- Na co dzień farmy trolli są dużo skuteczniejsze – uważa Filip Stawski.
Podobnego zdania jest prof. Aleksandra Przegalińska, filozofka, futurolożka z Akademii Leona Koźmińskiego. - Mimo że deepfake’i mają reputację precyzji, wiele z nich wciąż nie jest bardzo przekonujących, a manipulowanie rzeczywistością za pomocą konwencjonalnych technik produkcji filmów może być prostsze - stwierdza badaczka.
- Rosyjska machina na masową skalę stosuje w propagandzie i informacji fake (news – red.). Po prostu. Zwyczajny i powszechny - dodaje Anna Łabuszewska, znawczyni Rosji i dziennikarka związana z "Tygodnikiem Powszechnym".
Od rozpoczęcia wojny 24 lutego 2022 roku, Rosjanie wielokrotnie stosowali dezinformację na różne sposoby. Tylko w pierwszym miesiącu inwazji na Ukrainę, analitycy ukraińskiej firmy LetsData, zajmującej się badaniem środowiska informacyjnego, zidentyfikowali aż trzydzieści przypadków rozpuszczania przez Moskwę nieprawdziwych informacji. Dziennie.
- Być może w preparowaniu materiałów dla telewizji jest stosowana technologia deepfake, ale do wykreowania równoległej rzeczywistości wykorzystywane są głównie sprawdzone metody – toporne i prymitywne, ale wystarczające, by otumanić naród – mówi Łabuszewska.
Takimi topornymi i prymitywnymi metodami są, między innymi, właśnie farmy trolli. Choć zwykły kojarzyć się z działaniami podejmowanymi przede wszystkim przez Rosję, to z tego narzędzia propagandowego na niewyobrażalnie wielką skalę korzystają także Chiny. Jak mówi dr Michał Bogusz, starszy specjalista w Programie Chińskim Ośrodka Studiów Wschodnich, Pekin jest w stanie w kilka chwil zmobilizować do dystrybucji propagandy i fake newsów nie setki, nie tysiące, a miliony ludzi.
- Chińskie farmy trolli nazywane są Wu Mao Dang, czyli Partią Pięciu Groszy. Wzięło się to z tego, że rzekomo właśnie pięć chińskich groszy trolle mają dostawać od wpisu. Wiemy jednak z przecieków różnych instrukcji chińskich władz, że (opłacani użytkownicy sieci – red.) to tylko część armii trolli - mówi w rozmowie z tvn24.pl dr Michał Bogusz. - Dużą część stanowią też zwykli państwowi urzędnicy, którzy, kiedy trzeba zmienić jakąś narrację w internecie, odkładają na bok swoje obowiązki, siadają do internetu i tworzą wpisy. To jest kilka milionów ludzi i partia jest w stanie te kilka milionów ludzi szybko zmobilizować na front. To oczywiście dotyczy propagandy wewnętrznej. Dla zewnętrznej używane są płatne farmy trolli z państw trzeciego świata, bo nie mogą swoim ludziom dać dostępu do zewnętrznych mediów społecznościowych (w Chinach oficjalnie zablokowane są m.in. Twitter, Facebook czy YouTube – przyp. red.).
Bogusz zwraca uwagę, że takie działania podejmowane są przez Chiny także w czasie wojny w Ukrainie. - Cała propaganda rosyjska jest powielana i potęgowana przez Chiny i wycelowana w Afrykę, Amerykę Południową i inne państwa Azji. My tego nie widzimy, bo nie jesteśmy celem chińskiej propagandy. Bitwa informacyjna toczy się z Zachodem, ale nie na terenie Stanów Zjednoczonych czy Europy, tylko na terenie Globalnego Południa - wyjaśnia.
Chińczycy w sianiu dezinformacji korzystają więc z całego arsenału już sprawdzonych środków. Oprócz farm trolli, jak wymienia Michał Bogusz, to także niedopowiedzenia i półprawdy w przekazie tradycyjnych mediów, uprawianie propagandy za pomocą kinematografii i wymazywanie zbiorowej pamięci.
- To znaczy, że robi się wszystko, żeby nie mówiło się o jakimś temacie - tłumaczy Bogusz. - W przeszłości było tak z wielkim głodem za czasów Mao, z wydarzeniami na Placu Tiananmen, a ostatnio robi się tak ze strategią "zero covid", która doprowadziła do protestów w różnych częściach kraju. Partia dąży do zbiorowej amnezji także w tym temacie. Żeby o tym nie mówiono, żeby zniknął z debaty publicznej.
Chińczycy oczywiście nie odstają od reszty świata, jeśli chodzi o postępy w pracy nad sztuczną inteligencją, w tym deepfake’ami.
- Mamy do czynienia z gorączką złota w sektorze sztucznej inteligencji w Chinach - przekonuje Bogusz. - Na pewno są firmy lokalne, które tworzą własne modele językowe sztucznej inteligencji, takie jak ChatGPT. Do tego powstaje duża ilość firm, które nie rozwijają sztucznej inteligencji per se, ale tworzą różnego rodzaju interfejsy do kontaktu ze sztuczną inteligencją. Mają duże postępy w dziedzinach, w których jest potrzebna duża ilość danych i uczenie maszynowe. Państwo chińskie takim przedsięwzięciom, które uznają za potencjalnie dobrze zapowiadające się, ułatwia życie, przymyka oko na nielegalne pozyskiwanie danych wrażliwych od użytkowników, z państwowych baz danych albo w ramach wymian z innymi firmami. Mogą dokonać bardzo dużych postępów, bo pracują na ogromnych ilościach danych, na których można uczyć SI. Nie przodują w niczym, ani nie są specjalnie zapóźnieni, może poza mocą obliczeniową. Chińskie firmy mają do dyspozycji relatywnie słabszą, co wynika z ograniczeń eksportowych, które narzucają Amerykanie. Tutaj mają wąskie gardło, to może bowiem opóźnić szkolenie modeli językowych sztucznej inteligencji. Myślę jednak, że mogą dużo nadgonić, to tylko kwestia czasu.
Nikt chińskiego rządu nie złapał na gorącym uczynku, jeśli chodzi o wykorzystanie deepfake`ów w sianiu dezinformacji. Wiadomo natomiast, że w sieci krążyły spreparowane materiały z awatarami, które na wenezuelską modłę występowały w roli prezenterów telewizyjnych i szerzyły chińską propagandę.
W lutym 2023 roku amerykańska firma badawcza Graphika opisała sprawę fikcyjnego serwisu informacyjnego o nazwie Wolf News. Występujący na ekranie prezenterzy pojawiali się w materiałach, które w mediach społecznościowych publikowały prochińskie boty i konta, które często wspierają działania Komunistycznej Partii Chin. Krytykowali oni amerykański rząd za opieszałość w walce z przemocą w USA i rozpływali się nad istotną rolą Chin na arenie międzynarodowej. Ale znów – materiały te zostały zrobione bardzo chałupniczo i bardzo nieudolnie, więc udało się je szybko odkłamać.
Zdaniem Michała Bogusza, mimo stawiania na "tradycyjne metody" siania dezinformacji, państwowa chińska propaganda może w przyszłości korzystać z rozwiązań opartych na technologii deepfake.
- Uważam, że trzeba zdroworozsądkowo założyć, że przygotowują to - mówi w rozmowie z tvn24.pl Bogusz. - Ale myślę, że raczej na jakieś ważne wydarzenie, kiedy będą wiedzieli, że mają jedną okazję, żeby zastosować to, co mają w swoim arsenale. Myślę, że trzymają to jako asa w rękawie na czarną godzinę, jakąś zagrywkę, kiedy będzie im to naprawdę potrzebne w kryzysowej sytuacji. Może w przypadku jakiegoś konfliktu? To może być Tajwan, ale nie tylko - również jakiś konflikt z Wietnamem na Morzu Południowochińskim, z Filipinami, albo z Japonią o Wyspy Senkaku. Jeżeli teraz zaczną to wykorzystywać na co dzień, to jak z każdą bronią, pojawią się kontr-bronie, które będą ją neutralizowały.
W regulacjach
W Chinach, na początku bieżącego roku, wprowadzono szerokie regulacje na sektor sztucznej inteligencji. Powstała specjalna państwowa baza danych, do której trzeba przekazywać stworzone algorytmy. Samo ich tworzenie również jest unormowane przepisami.
Te wszystkie ograniczenia, jak podkreśla Michał Bogusz, dotyczą przede wszystkim podmiotów prywatnych i w dużej mierze polegają na oznaczeniu zmanipulowanego czy wygenerowanego materiału w taki sposób, aby odbiorca wiedział, że ma do czynienia np. z nieprawdziwą osobą. Kontroli podlega także przekaz i wydźwięk treści generowanych przy pomocy sztucznej inteligencji - muszą być pozytywne, nie mogą być wykorzystywane do siania niepokojów, paniki i rozpowszechniania nieprawdziwych informacji. Przepisy Chińskiej Administracji Cyberprzestrzeni weszły w życie w styczniu i mają przeciwdziałać oszczerstwom, poniżaniu innych i oszustwom, ale służą też oczywiście kontroli władzy nad nową technologią.
Do oszustw dochodzi jednak pomimo wprowadzenia nowego prawa. W maju media obiegła informacja o wyłudzeniu 4,3 milionów juanów (ok. 2,5 mln złotych) w regionie Mongolii Środkowej. Sprawcy posłużyli się technologią deepfake, by wcielić się w przyjaciela pewnego mężczyzny i poprosić go o pomoc finansową. W chińskim internecie rozgorzała wówczas dyskusja, czy nowe regulacje istotnie nadążają za postępem technologicznym.
W kwietniu tego roku przepisami związanymi z technologią deepfake zajęła się także rosyjska Duma.
- Zaproponowano, aby wprowadzić kary za posługiwanie się nią w finansach i biznesie - mówi Anna Łabuszewska. - Rosja na razie nie ma regulacji prawnych dotyczących stosowania deepfake`ów, a takie rozwiązania zostały przecież wprowadzone np. w USA czy w Chinach. Niemniej władze Rosji są tym zainteresowane. Np. w bankowości starają się zapewniać bezpieczeństwo. W listopadzie 2022 r. była szeroka akcja promocyjna banku Sbier, który chwalił się, że jego klienci mogą spać spokojnie, bo ich oprogramowanie wykrywa deepfake’i. Wystawę, gdzie były prezentowane te technologie, odwiedził osobiście Putin.
Regulacje w tym zakresie wprowadzane są także w państwach demokratycznych. Kilka stanów w USA (m.in. Teksas, Wirginia) przyjęło przepisy zakazujące rozpowszechniania deepfake’ów, ale dotyczą one jedynie wyborów i "doklejania" osób do materiałów pornograficznych. Prace nad ściślejszymi regulacjami, które obowiązywałyby na poziomie federalnym, wciąż trwają. Natomiast Komisja Europejska poszła z regulacjami przynajmniej kilka kroków dalej. W czerwcu unijni komisarze przyjęli Akt ws. sztucznej inteligencji. Na stronie KE czytamy, że Unia chce uregulować sztuczną inteligencję, jednocześnie zapewniając optymalne warunki do jej rozwoju. W projekcie pogrupowano systemy SI według ryzyka, jakie potencjalnie mogą stwarzać dla użytkowników. Im to ryzyko będzie większe, tym ściślejsze regulacje. Co ważne, konieczne będzie ujawnianie, że dane materiały zostały wygenerowane za pomocą sztucznej inteligencji. Dotyczy to także treści wykreowanych za pomocą technologii deepfake. Nowe prawo nie zostało jeszcze zatwierdzone, Unia chciałaby je uchwalić do końca 2023 roku.
Samymi regulacjami nie wygramy jednak z szybko rozwijającą się technologią, podkreślają osoby zajmujące się nowymi technologiami i dezinformacją. Potrzebne są jeszcze narzędzia do rozpoznawania deepfake’ów. Pracują nad nimi zespoły badaczy z całego świata.
- Rozpoznanie deepfake'ów może być trudne, zwłaszcza gdy technologia staje się coraz bardziej zaawansowana - mówi tvn24.pl prof. Aleksandra Przegalińska. - Niemniej jednak, istnieje kilka wskazówek, które mogą pomóc w identyfikacji potencjalnych deepfake'ów: jakość obrazu, niezgodności z błyskiem światła i cieniem, nienaturalne ruchy czy brak synchronizacji audio-wideo. Czasami wystarczy czujne oko – dodaje.
Z tą opinią zgadza się również Filip Stawski, kognitywista z Uniwersytetu Kazimierza Wielkiego w Bydgoszczy. - Po większości nagrań deepfake`owych widać jednak, że są zmanipulowane. Zrobienie tego dobrze jest pracochłonne i kosztowne. W takich najczęściej wykorzystywanych programach motoryka i ruch twarzy są nienaturalne.
Zdaniem Stawskiego, rozpoczyna się jednak swego rodzaju wyścig zbrojeń między twórcami narzędzi do dezinformowania, opartych na technologii deepfake, i tymi, którzy tworzą narzędzia do jej rozpoznawania.
- Programy zdolne do rozpoznawania manipulacji oparte są na tej samej technologii, czyli na sztucznych sieciach neuronowych, modelach uczenia maszynowego. Trwają równolegle prace nad opracowaniem takiej technologii deepfake, żeby programy do prewencji nie były w stanie ich rozpoznać i prace nad takimi programami do prewencji, żeby były zdolne rozpoznać nawet te najbardziej zaawansowane deepfake’i – zwraca uwagę.
W polityce
Dotychczasowe przypadki wykorzystania deepfake`ów (a przynajmniej te, o których wiemy) przez reżimy autorytarne i dyktatury wydają się mało wysublimowane. Zwłaszcza jak na potencjalne możliwości tej technologii.
Prof. Aleksandra Przegalińska, poszukując odpowiedzi na pytanie o to, jakim narzędziem w rękach niedemokratycznych władz może być deepfake, posłużyła się ChatemGPT.
- Muszę przyznać, że ChatGPT znalazł co najmniej kilka zastosowań, o których nawet nie pomyślałam – mówi i cytuje odpowiedź narzędzia do generowania treści na bazie danych i zapytań wprowadzanych przez użytkownika:
"Technologia deepfake, w rękach autorytarnych reżimów, może mieć wiele potencjalnych zastosowań, które mogłyby pomóc w utrzymaniu władzy i kontroli nad społeczeństwem. W zależności od stopnia zaawansowania technologii i umiejętności manipulacji mediów, autorytarne reżimy mogą wykorzystać Deepfake do:
Dezinformacji: Deepfake`i mogą być wykorzystane do tworzenia fałszywych wiadomości i propagandy, które służą do manipulowania opinią publiczną. Na przykład, mogą być tworzone filmy pokazujące przeciwników reżimu w kompromitujących sytuacjach lub wypowiadających kontrowersyjne opinie, których w rzeczywistości nigdy nie wyrażali.
Szkolenie sił zbrojnych: Technologia Deepfake może być wykorzystana do tworzenia realistycznych symulacji i szkoleń dla wojska, co może pomóc w utrzymaniu kontroli nad siłami zbrojnymi.
Zmiana historii: Deepfake`i mogą być używane do zmiany zapisów historycznych, tworzenia fałszywych filmów historycznych i manipulacji pamięcią historyczną.
Nawigacja dyplomatyczna: Deepfake`i mogą być wykorzystywane do tworzenia fałszywych wiadomości lub rozmów, które mogą wpływać na stosunki dyplomatyczne z innymi krajami.
Kontrola narracji: Deepfake może być wykorzystywany do tworzenia fałszywych filmów, które pokazują liderów reżimu w pozytywnym świetle, podkreślając ich osiągnięcia i popularność wśród ludzi.
Zastraszanie i represje: W skrajnych przypadkach, Deepfake`i mogą być używane do tworzenia filmów pokazujących brutalne akcje przeciwko opozycji lub społecznościom mniejszościowym jako środek zastraszenia".
Tyle ChatGPT. Kyle Hiebert, niezależny badacz i analityk związany między innymi z kanadyjskim think-tankiem Centre for International Governance Innovation (CIGI), uważa, że możliwości zastosowania deepfake’ów przez autorytaryzmy są praktycznie nieskończone. W swoim tekście dla CIGI pisze o tym tak:
"Deepfake są dobrodziejstwem dla autokracji ze względu na sposób, w jaki autorytarni przywódcy czerpią siłę z technologii, która omamia i przydaje się w kontroli społecznej [...]. Z perspektywy agresora, deepfake'i nadadzą się do [...] minimalizowania zbrodni wojennych poprzez wytwarzanie dowodów pokazujących, że przeciwnicy dopuszczają się podobnych okrucieństw".
Zdaniem Filipa Stawskiego, ta technologia może służyć przede wszystkim na potrzeby polityki wewnętrznej.
- W krajach, gdzie brakuje niezależnych mediów, można pokazać takie zmanipulowane nagranie, np. z Joe Bidenem, i nikt tego nie zweryfikuje - mówi Stawski. - Autorytaryzmy mogą fake’ować nagrania z udziałem działaczy opozycyjnych, innych polityków czy nieprzychylnych im dziennikarzy i fabrykować w ten sposób "dowody", żeby kogoś np. skazać albo zdyskredytować. Nie wiemy tego na pewno, ale być może miało to już miejsce w Turcji, podczas kampanii wyborczej.
Przed pierwszą turą wyborów prezydenckich w Turcji, do internetu wyciekło pornograficzne nagranie, na którym widać było Muharrema Ince - kandydata opozycyjnej, centrolewicowej partii Memleket Partisi. Ince, po tym jak prokurator w Ankarze oświadczył, że wszczyna śledztwo w sprawie rzeczonej sekstaśmy, wycofał swoją kandydaturę. Jednocześnie stwierdził, że nagranie zostało spreparowane przy użyciu deepfake`a.
- Jeśli to prawda, będzie to przykład pierwszej tak bezczelnej manipulacji w wyborach za pomocą tej technologii - komentuje Stawski.
- Na akcje "rosyjskich przyjaciół", stosujących deepfake, skarżył się też Kemal Kilicdaroglu, główny rywal wyborczy prezydenta Turcji Recepa Tayyipa Erdogana - dodaje Anna Łabuszewska. - Rosja nie zareagowała na te słowa. Wygrał jej pupil, Erdogan. Może coś było na rzeczy, może nie. Nikt nikogo za rękę nie złapał.
Kilicdaroglu zamieścił wówczas na Twitterze wpisy po turecku i rosyjsku, w których apelował do Rosjan o niemieszanie się w tureckie sprawy wewnętrzne i oskarżał ich o zamieszczanie zmanipulowanych materiałów, ośmieszających opozycję. Kandydat zjednoczonej tureckiej opozycji twierdził także, że ma na ingerencję Rosjan twarde dowody, ale nie podał żadnego konkretnego przykładu.
W demokracji
Sytuacja z pornograficznym nagraniem tureckiego polityka pokazuje kolejny problem, z którym musimy mierzyć się jako społeczeństwo obywatelskie w obliczu rozwoju technologii opartych na sztucznej inteligencji, w tym na deepfake.
- Trudno udowodnić, że coś deepfake’iem nie jest. Jeśli jakiś polityk będzie się upierał, że nagranie, które przedstawia go w złym świetle (na przykład ujawniające korupcję) nie jest prawdziwe, to co z tym zrobić? – zastanawia się Filip Stawski. - Zresztą sam fakt istnienia takiej technologii i możliwości publikacji takich materiałów osłabi zaufanie do mediów, co gorsze również, wśród bardziej racjonalnych odbiorców.
Takie przypadki mają miejsce już teraz, a niektóre liczą już kilka lat. W 2018 roku do internetu wyciekło nagranie z Joao Dorią, ówczesnym burmistrzem Sao Paulo, uczestniczącym w orgii. Żonaty polityk upierał się, że filmik został zmanipulowany za pomocą deepfake’a. Jak pisze BBC, nikomu nie udało się ani tego potwierdzić, ani temu zaprzeczyć.
Obecnie internet w USA jest wręcz zalany fałszywymi treściami. Internauci mogli natknąć się na przykład na filmik z Joe Bidenem, rzekomo obrażającym osobę transpłciową, albo Hillary Clinton, która miała wyrażać swoją sympatię dla republikańskiego polityka Rona DeSantisa.
Trudno nie zgodzić się z tezą, że im bliżej do amerykańskich wyborów, tym będzie gorzej. Zwolennicy dwóch największych obozów politycznych będą tworzyć treści pogrążające swoich przeciwników, które będą coraz trudniejsze do odróżnienia od prawdy. Dlaczego mieliby tego nie robić, skoro przykład idzie z góry?
Były prezydent USA Donald Trump wypuścił niedawno na własnej platformie społecznościowej Truth Social wideo, na którym prezenter CNN Anderson Cooper wyrażał się o Trumpie w wulgarny sposób. Trump najwyraźniej nie zwrócił uwagi na to, że słowa Coopera nie pasowały do ruchu jego warg, albo nie za bardzo się tym przejął.
- Jeżeli stanie się trudne odróżnienie prawdy od fikcji, to może to prowadzić do sytuacji, w której ludzie zaczynają wątpić we wszystko, co widzą i słyszą. Taki kryzys zaufania może podważać fundamenty demokratycznego społeczeństwa, które zależy od otwartej i uczciwej komunikacji - mówi prof. Aleksandra Przegalińska-Skierkowska.
O tym, jak wrażliwym tematem staje się sztuczna inteligencja i jej etyczne wykorzystanie, przekonali się przedstawiciele Koalicji Obywatelskiej, która w spocie wyborczym wykorzystała głos Mateusza Morawieckiego wygenerowany za pomocą właśnie SI. Głos ten odczytywał fragmenty maili autorstwa premiera, ujawnionych w tzw. aferze Dworczyka. Początkowo ani w spocie, ani w towarzyszącym mu wpisie w mediach społecznościowych nie zamieszczono żadnej informacji o tym, że stoi za nim sztuczna inteligencja, co wzbudziło krytykę wielu internautów i ekspertów od dezinformacji. "Uważałabym jednakowoż, że kiedy powstaje klon głosu to należy to oznaczać w samym poście, żeby było jasne, że to nagranie powstało z wykorzystaniem AI. Trzymajmy się najlepszych standardów w dobie generatywnej sztucznej inteligencji #AI" – napisała na Twitterze prof. Aleksandra Przegalińska. Spoty, w których partia wykorzystywała wygenerowane głosy polityków, zostały ostatecznie uzupełnione o tę informację.
"Demokracje opierają się na fundamencie wolności słowa, alternatywnych punktów widzenia, niewygodnych prawd i otwartej wymiany idei — bez względu na to, jak często ta wymiana jest krucha. Szybka ewolucja dezinformacji w ostatnich latach ujawniła, że ta podstawa demokracji jest jednocześnie jej słabością. Ponieważ technologia deepfake znajduje się u progu szybkiego wzrostu, jest to problem, który prawdopodobnie będzie się znacznie pogłębiał" - pisze w swojej analizie dla CIGI Kyle Hiebert.
Jego zdaniem technologia deepfake wpłynie na zaostrzenie politycznego sporu, doprowadzając do jeszcze większej polaryzacji. Zyskają na tym krzewiciele teorii spiskowych i populiści, którzy będą w ten sposób chcieli zdyskredytować instytucje demokratyczne i niezależnych ekspertów, czyli stępić narzędzia służące do kontroli władzy w dojrzałych demokracjach.
Jak przewidują eksperci, na których powołuje się agencja Reutersa, w całym 2023 roku w mediach społecznościowych opublikowane zostanie około pół miliona sfałszowanych za pomocą deepfake filmików i nagrań audio. Już w maju miało ich być odpowiednio trzy i osiem razy więcej niż w tym samym okresie w 2022 roku. Powodem jest znacznie niższa cena - klonowanie głosu kosztowało wtedy 10 tysięcy dolarów, obecnie można to zrobić za zaledwie kilka dolarów.
Jak jednak podkreślają moi rozmówcy, deepfake nie musi być wyłącznie narzędziem dezinformacji. Może być wykorzystywany także w edukacji, rozrywce i sztuce. Niezbędne będą tu odpowiednie regulacje, ale sama technologia nie jest czymś, czego powinniśmy się obawiać. Powinniśmy obawiać się raczej tych przywódców politycznych, którzy nie mają oporów przed wykorzystywaniem jej dla utrzymania lub zdobycia władzy.
Autorka/Autor: Wojciech Skrzypek //bb
Źródło: tvn24.pl
Źródło zdjęcia głównego: Shutterstock