Platforma Obywatelska opublikowała spoty, w których użyto głosów polityków PiS wygenerowanych przez sztuczną inteligencję. Eksperci wyjaśniają, jakie ten pomysł może nieść konsekwencje.
#MailePrawdy - pod tym hasztagiem Platforma Obywatelska prowadzi kampanię w mediach społecznościowych. Przypomina najczęściej komentowane maile premiera i najważniejszych osób z jego otoczenia. Wiadomości pochodzą przede wszystkim z prywatnej skrzynki ministra Michała Dworczyka, ale nie tylko. Publikowano też maile ze skrzynek pocztowych europosła Joachima Brudzińskiego i szefa Orlenu Daniela Obajtka. Od czerwca 2021 roku publikuje je serwis Poufna Rozmowa.
Według jednej z teorii za wyciekiem danych stoją białoruskie służby.
Według niedawnych doniesień "Gazety Wyborczej", prokuratura prowadzi trzy śledztwa w sprawie wycieku maili ze skrzynki Michała Dworczyka. Pierwsze dotyczy "przekroczenia uprawnień przez funkcjonariuszy publicznych wykorzystujących prywatne skrzynki poczty elektronicznej do wykonywania zadań służbowych". Według źródeł dziennika "w charakterze ewentualnych przyszłych podejrzanych wymienia się kilkoro ministrów i doradców premiera, na czele z samym Morawieckim".
Drugie śledztwo dotyczy "przejęcia danych dostępowych do konta poczty elektronicznej należącej do szefa Kancelarii Prezesa Rady Ministrów". W tej sprawie udało się ustalić trzech podejrzanych, którzy przekazywali sobie maile wykradzione ze skrzynki Michała Dworczyka. Ostatnie śledztwo, wszczęte w lutym, dotyczy podejrzenia, że w korespondencji mailowej wymienianej przez ministra Michała Dworczyka z jego doradcą do spraw obronności doszło do ujawnienia tajemnic państwowych, w tym chronionych najwyższą klauzulą "ściśle tajne".
Politycy Prawa i Sprawiedliwości starają się unikać tematu i przekonują, że co najmniej część korespondencji może być sfałszowana. Nigdy jednak nie wskazali nieprawdziwych maili. Kilka osób potwierdziło za to autentyczność niektórych z opublikowanych wiadomości.
Platforma pokazuje "jak jest naprawdę" i używa sztucznej inteligencji
- Mówią na siebie Zjednoczona Prawica, ale chyba sami dobrze wiecie, jak jest naprawdę. A co myśli o tym pan premier? Posłuchajcie sami - zachęca lektor w spocie opublikowanym przez PO 24 sierpnia na Twitterze. Dalej widać Mateusza Morawieckiego i fragment jego wypowiedzi z sejmowej debaty z 13 grudnia 2022 roku wokół wniosku o odwołanie ministra sprawiedliwości Zbigniewa Ziobry. - Zjednoczona Prawica jest twarda jak stal - powiedział wówczas premier.
W kolejnym ujęciu spotu inny lektor o głosie podobnym do Mateusza Morawieckiego odczytuje fragment jego prawdziwego maila do doradców, który w listopadzie 2022 roku pojawił się na Poufnej Rozmowie. Data maila to 23 września 2020 roku. "Dalsze rządzenie w warunkach mniejszościowych jest trudne, ale nie niemożliwe"; "w warunkach kryzysu to dodatkowy argument, że pewne sprawy nie idą, bo przeszkadza nam opozycja i nielojalny Ziobro". Te zdania z korespondencji premiera ze współpracownikami czytane są głosem przypominającym głos szefa rządu, ale wygenerowanym przez sztuczną inteligencję.
W spocie jeszcze trzykrotnie powtórzono ten sam zabieg. Najpierw widać i słychać wypowiedź Morawieckiego z mównicy sejmowej, a chwilę później fragment maila odczytywany jest przez głos wytworzony przez AI. - Was łączy jedna rzecz: was łączy nienawiść do Prawa i Sprawiedliwości, a nas łączy Polska - to słowa premiera do opozycji wygłoszone w Sejmie. - Ziobro jest cyniczny i gotowy działać przeciw nam - to już fragment maila szefa rządu do doradców odczytany przez lektora.
W spocie podano źródła wykorzystanych materiałów. Na końcu zamieszczono również adnotację: "Sfinansowane przez KKW Koalicja Obywatelska PO .N IPL Zieloni". Początkowo ani w spocie, ani w poście nie zamieszczono żadnej dodatkowej informacji.
Czubkowska: "Trzeba to jasno i wyraźnie oznaczyć"
24 kwietnia na głos, którym odczytano domniemanego maila Mateusza Morawieckiego, zaczęli zwracać uwagę eksperci. "Ja wiem wiem zaraz mi się oberwie za symetryzm... Ale: gdy wykorzystuje się AI do sztucznego generowania głosu szczególnie polityka to trzeba to jasno i wyraźnie oznaczyć" - napisała na Twitterze Sylwia Czubkowska, dziennikarka zajmująca się nowymi technologiami (pisownia oryginalna). "Uważałabym jednakowoż, że kiedy powstaje klon głosu to należy to oznaczać w samym poście, żeby było jasne, że to nagranie powstało z wykorzystaniem AI. Trzymajmy się najlepszych standardów w dobie generatywnej sztucznej inteligencji #AI" - komentowała prof. Aleksandra Przegalińska, ekspertka zajmująca się badaniami nad sztuczną inteligencją.
Sylwia Czubkowska opublikowała swojego posta 24 sierpnia o 11.07. Tego samego dnia tuż przed godziną 13 wysłaliśmy pytania na adres biura prasowego klubu parlamentarnego Koalicji Obywatelskiej. O komentarz poprosiliśmy również SMS-em rzecznika PO Jana Grabca. Dotąd nie dostaliśmy odpowiedzi. O 13.10 pod tweetem z omawianym spotem administrator konta zamieścił nowy post o treści: "Lektor wygenerowany przez AI".
Platforma publikuje takie filmy od 21 sierpnia
Podobne widea Platforma Obywatelska publikuje od 21 sierpnia. Dotychczas każdego dnia umieszczała w mediach społecznościowych jeden spot. Fragmenty maili, których prawdziwości nigdy nie podważyli politycy PiS, odczytywały w nich głosy łudząco podobne do byłego szefa KPRM Michała Dworczyka, prezesa Orlenu Daniela Obajtka czy wiceminister rozwoju i technologii Olgi Semeniuk.
W spotach publikowanych między 21 a 24 sierpnia nie było oznaczenia dotyczącego wykorzystania sztucznej inteligencji do wygenerowania głosu lektora. To zmieniło się, jak pisaliśmy wyżej, 24 sierpnia po godzinie 13. Od tego momentu pod każdym z nich dodano dodatkowy wpis z informacją o sztucznie wygenerowanym głosie.
Grabiec: absolutnie nie zgadzam się z opinią, że jest to deepfake
- Absolutnie nie zgadzam się z opinią, że jest to deepfake, których stosowanie uważamy za naganne i których sami nigdy nie będziemy stosować - powiedział 24 sierpnia w rozmowie z wyborcza.biz rzecznik PO Jan Grabiec. - Tutaj po prostu zamiast lektora, który normalnie czytałby tekst, głos podobny do głosu premiera Morawieckiego podłożył komputer - przekonywał. Dodał, że partia stawia w tym obszarze "dopiero pierwsze kroki", a w przyszłości filmy wykorzystujące sztuczną inteligencję będą oznaczane.
Tego samego dnia o spocie mówił w Polsat News wiceprzewodniczący PO Borys Budka. Na pytanie prowadzącego, dlaczego na początku nagrania nie umieszczono informacji o wykorzystaniu sztucznej inteligencji, odpowiedział: - To są treści z tak zwanych maili Dworczyka. (…) Bo nie ma takiej potrzeby. W odpowiedzi na wątpliwość dziennikarza, czy to nie jest wprowadzanie w błąd, Budka odpowiedział: - Premier Morawiecki każdego dnia wprowadza ludzi w błąd. Zaznaczył jednak, że do spotu dodano wyjaśnienie, "żeby wszystko było jasne".
Jakie znaczenie ma ruch PO dla trwającej kampanii? W jaki sposób użycie technologicznych narzędzi zmienia przekaz politycznego komunikatu? Pytani przez nas eksperci podkreślają, że użycie sztucznej inteligencji "robi różnicę" na wielu płaszczyznach. I powinno być oznaczane.
Platforma nie była pierwsza
Eksperci od lat zalecają ostrożne wykorzystanie deepfake’ów czy innych form wykorzystania sztucznej inteligencji. W czerwcu w Stanach Zjednoczonych dyskutowano o wykorzystaniu obrazów wygenerowanych przez sztuczną inteligencję przez współpracowników Rona DeSantisa, rywala Donalda Trumpa w walce o nominację republikanów w wyborach prezydenckich w 2024 roku. Na Twitterze opublikowano film zawierający prawdziwe zdjęcia, ale i fałszywe obrazy byłego prezydenta przytulającego i całującego dr. Anthony'ego Fauciego - byłego głównego doradcę medycznego prezydenta Stanów Zjednoczonych z czasów pandemii COVID-19.
W czerwcu Parlament Europejski przyjął stanowisko negocjacyjne w sprawie Aktu o Sztucznej Inteligencji, który wprowadza różne poziomy ryzyka dla tej technologii. Nowe regulacje zakładają, że ma ona być ukierunkowana na człowieka i godna zaufania oraz zapewniać ochronę zdrowia, bezpieczeństwa, praw podstawowych i demokracji przed szkodliwymi skutkami technologii.
Trwają negocjacje dotyczące ostatecznego kształtu przepisów. Wiadomo jednak, że na stole negocjacyjnym są wymogi odnośnie generatywnych systemów sztucznej inteligencji opartych na takich modelach jak na przykład ChatGPT. Konieczne będzie ujawnianie, że treści wygenerowała sztuczna inteligencja - włącznie z pomocą w odróżnianiu graficznych deepfake'ów od prawdziwych obrazów.
Dr Oczkoś: miecz obosieczny; Dr Annusewicz: to jeszcze nie jest przekroczenie pewnej granicy
Dr Mirosław Oczkoś jest zaskoczony, że PO sięgnęła po sztuczną inteligencję. Zwraca uwagę na tworzone dopiero narzędzia do rozpoznawania deepfake'ów czy użycia AI.
- Ja bym się nad tym trzy razy zastanowił. Trzeba pamiętać, że jest to miecz obosieczny. Za chwilę może się pojawić jakiś spot z Donaldem Tuskiem, który będzie mówił już zupełnie zmyślone rzeczy - uważa.
Przypomnijmy, że politycy PiS nie podważyli prawdziwości maili użytych w spotach przez PO.
To zaburza realny odbiór sytuacji. Zaczynamy żyć w wirtualnej rzeczywistości, nie będąc na to odpowiednio przygotowani.
“Wykorzystanie AI w kampanii wyborczej może z pewnością prowadzić do manipulacji i dezinformacji. Może to zniekształcić prawdziwy obraz kandydatów i ich programów, co wpływa na zdolność wyborców do podejmowania świadomych decyzji” - pisze w opinii dla TVN24 Aleksandra Przegalińska.
Mniej kategorycznie wypowiada się dr Olgierd Annusewicz, politolog z Uniwersytetu Warszawskiego. - To jeszcze nie jest przekroczenie pewnej granicy. Jest jednak pewna drobna różnica między podkładaniem głosów polityków pod treść e-maili, których autentyczności nie zaprzeczono a zupełnie wymyślonymi wypowiedziami. Nie można jednak wykluczyć, że ta granica zostanie przekroczona w przyszłości – komentuje.
Dr Annusewicz dostrzega ryzyko podjęte przez sztabowców PO, ale uważa, że nie przysporzy to partii kłopotów ze strony wyborców.
Sztuczna inteligencja jako "pokusa" dla polityków
Bartosz Czupryk, ekspert od wizerunku politycznego mówi o pozytywnym wykorzystaniu sztucznej inteligencji w polityce - na przykład w celu sprecyzowania oczekiwań lub preferencji wyborców.
- Istnieje jednak pokusa wykorzystania sztucznej inteligencji do manipulowania informacją, domniemaniem, przypuszczeniem nawet czyimś wizerunkiem czy wypowiedzią osoby, polityka - zauważa ekspert.
Czupryk podkreśla, że wypowiedzi ustne mają większą nośność niż pisany tekst.
W kontekście pozyskiwania głosów wyborców cała kampania powinna być transparentna i zrozumiała dla wszystkich. Uważam, że postępowanie inaczej jest naruszeniem standardów etycznych, które powinny być fundamentem kultury politycznej. Należy postawić pytanie, czy po tym incydencie pozostałe partie również odważą się sięgnąć po sztuczną inteligencję do tego typu manipulacji. Jestem tu realistą. I obawiam się, że, mając sztuczną inteligencję jako silne narzędzie wsparcia kampanii, górę będzie brał interes polityczny, czyli wyborcze zwycięstwo.
Zdaniem Czupryka, sztuczna inteligencja może precyzyjnie uderzać w najczulsze oczekiwania i emocje odbiorców. - Przede wszystkim, żeby być uczciwym wobec wyborcy, wykorzystanie AI w materiałach wyborczych powinno być prawnie uregulowane i też odpowiednio oznakowane - zaznacza ekspert.
Profesor Dariusz Jemielniak, socjolog z Akademii Leona Koźmińskiego badający dezinformację i sieci społecznościowe sprawę spotu nazywa dyskusyjną.
- Można podnosić, że słuchacze mają świadomość, że mają do czynienia z inscenizacją - w końcu wyciek e-maili jest powszechnie znany - zauważa w mailu przesłanym redakcji. - Jednocześnie mamy do czynienia z niebezpiecznym precedensem, kiedy co prawda nie wkłada się ludziom słów, których nie byli autorami, ale jednak nie wypowiadali - dodaje.
W szerszym kontekście przyczynia się to do atmosfery przyzwolenia dla deepfake'ów i powoduje, że kiedy dojdzie do wkładania komuś w usta zdań, z którymi nigdy nie miał do czynienia, będzie można podnosić, że "przecież wszyscy tak robią", a detalami już sobie nikt nie będzie głowy zawracał.
Prof. Jemielniak ocenia, że podobne wykorzystanie sztucznej inteligencji może mieć negatywne konsekwencje. "Mam negatywne zdanie o takim zabiegu. Co więcej, sądzę, że równie dobrze zadziałałaby taka inscenizacja, w której byłaby informacja tekstowa, że głos podłożono".
Źródło: tvn24.pl, Konkret24
Źródło zdjęcia głównego: KO