- Profesor Andrzej Bochenek, znany kardiochirurg, po raz kolejny padł ofiarą technologii deep fake. Jego wizerunek wykorzystano do reklamy suplementów.
- To nie pierwszy raz, kiedy ceniony lekarz staje się bohaterem sfabrykowanego nagrania. Wcześniej wykorzystano w ten sposób m.in. wizerunek prof. Adama Torbickiego i prof. Michała Zembali.
- Jak rozpoznać deep fake? Pytamy eksperta.
- Więcej artykułów o tematyce zdrowotnej znajdziesz w zakładce "Zdrowie" w serwisie tvn24.pl i w "Wywiadzie Medycznym" Joanny Kryńskiej w TVN24+.
Grupa American Heart of Poland, prowadząca w Polsce sieć klinik kardiologicznych, poinformowała, że wizerunek cenionego kardiochirurga prof. Andrzeja Bochenka po raz kolejny został wykorzystany w fałszywych reklamach suplementów. Lekarz dowiedział się o tym od zaskoczonych pacjentów. To nie pierwszy raz, kiedy jeden z autorytetów polskiej medycyny został bohaterem deep fake'u.
Deep fake z wizerunkiem znanego chirurga
Deep fake to termin, który powstał z połączenia terminów "deep learning", czyli uczenie maszynowe, i fake, czyli nieprawdziwa, wprowadzająca w błąd treść. Tego rodzaju nagrania są generowane z wykorzystaniem twarzy i głosu prawdziwych osób. W ich usta wkładane są różne treści - w przypadku lekarzy to najczęściej reklamy różnych maści, suplementów bądź leków. Prof. Bochenek w sfabrykowanych nagraniach "polecał" m.in. preparat rzekomo mający oczyszczać naczynia krwionośne z blaszek miażdżycowych.
- Z coraz większym niepokojem odbieram liczne telefony i zapytania od pacjentów, którzy - ufając mojemu nazwisku - pytają, czy powinni kupić dany preparat, ponieważ rzekomo go rekomenduję. Nie wiedziałem, że ktoś ponownie wykorzystuje moją osobę do promocji suplementów - mówi prof. Bochenek cytowany w oświadczeniu American Heart of Poland. - Proszę nie ufać reklamom, które przypisują mi jakiekolwiek poparcie dla produktów leczniczych czy suplementów - apeluje kardiochirurg.
Według Kodeksu Etyki Lekarskiej, lekarz nie powinien wyrażać zgody na używanie swojego nazwiska i wizerunku dla celów komercyjnych. Zakaz udziału lekarzy w reklamie produktu leczniczego zapisano również w ustawie prawo farmaceutyczne. Dlatego Grupa American Heart of Poland wydała jasne oświadczenie, podkreślając, że prof. Bochenek nigdy nie promował żadnych leków, suplementów, maści ani innych preparatów farmaceutycznych.
W rozmowie z tvn24.pl prof. Andrzej Bochenek przyznaje, że producenci reklam bezprawnie wykorzystywali jego wizerunek już w przeszłości. Jak mówi, już od około półtora roku tego typu materiały się nie ukazywały. Dlatego, mimo propozycji podjęcia działań prawnych w tej sprawie, jaką profesor otrzymał od Śląskiej Izby Lekarskiej, nie zdecydował się pójść z twórcami fejków do sądu. Teraz to rozważy, bo ponownie zaczął dostawać od pacjentów informacje, że w internecie natykają się na reklamy z jego udziałem.
Wielu pacjentów profesora nie nabiera się na te treści. Jak jednak podkreśla znany kardiochirurg, poziom edukacji zdrowotnej w polskim społeczeństwie nie jest zbyt dobry, więc sporo internautów może bezrefleksyjnie uwierzyć w fałszywe reklamy wykorzystujące jego wizerunek do promocji preparatów, które zgodnie z obietnicami producentów mają działać wręcz magicznie.
Znani profesorowie wykorzystani w reklamach
Z podobnym problemem mierzył się też kolega profesora Bochenka po fachu - kardiochirurg prof. Michał Zembala. Jego wizerunek wykorzystano w reklamie preparatu, który miał "cofać zmiany miażdżycowe i wzmacniać serce". Prof. Zembala oświadczył wówczas wprost: "Nie kupujcie tego dziadostwa - to oszustwo" i informował o skierowaniu sprawy do prokuratury. W sieci krążyły już też sfabrykowane nagrania m.in. z dr. Michałem Sutkowskim, prezesem Kolegium Lekarzy Rodzinnych, i znanym okulistą prof. Jerzym Szaflikiem.
Sprawiedliwości starał się dochodzić m.in. prof. Adam Torbicki, specjalista w zakresie kardiologii i chorób wewnętrznych. O tym, że i on padł ofiarą twórców fałszywych reklam, alarmowała w grudniu 2024 roku jego żona Grażyna Torbicka. "Chciałabym przestrzec przed kolejną falą fejków związanych z nieuprawnionym wykorzystywaniem wizerunku mojego męża dla promocji substancji nieznanego pochodzenia i o wątpliwym działaniu. Tym razem jest to materiał pochodzący rzekomo z TVN" - ostrzegała wówczas dziennikarka na Instagramie, zapewniając, że jej mąż nigdy nie przyjął propozycji udziału w jakiejkolwiek kampanii reklamowej.
Kiedy American Heart of Poland poinformowało o kolejnym przypadku wykorzystania wizerunku prof. Bochenka, zapytaliśmy prof. Torbickiego, czy udało mu się dojść sprawiedliwości w jego sprawach. Pierwsze kroki prawne w tej sprawie profesor podjął już kilka lat temu. Do tej pory efektów nie ma, mimo że kilkakrotnie zgłaszał sprawę do prokuratury indywidualnie, a także w ramach pozwu zbiorowego z pomocą Naczelnej Izby Lekarskiej, wspólnie z innymi medykami, którzy znaleźli się w podobnej sytuacji. Sprawy były umarzane, najpierw z powodu luki prawnej, potem z powodu "niemożliwości wykrycia sprawców".
Jak rozpoznać deep fake?
Wojciech Kardyś, ekspert od mediów społecznościowych i komunikacji internetowej, w rozmowie z tvn24.pl mówi, że ofiarą deep fake'u może paść każda osoba publiczna. W sieci krążą sfabrykowane nagrania nie tylko z wizerunkiem lekarzy, ale też np. Roberta Lewandowskiego czy Rafała Brzoski.
Jak rozpoznać deep fake? - Dobrze jest patrzeć na oczy, usta, zęby i dłonie. Sztuczna inteligencja nie radzi sobie jeszcze za dobrze z generowaniem uśmiechu. Sygnałem, że oglądamy deep fake, może być też dziwna mimika i powtarzalne gesty dłoni. Często osoba, która się "wypowiada", nie jest pokazana w przybliżeniu, żeby odbiorca nie zauważył tzw. glitchy, czyli zakłóceń - mówi Kardyś, zaznaczając jednak, że te porady mogą lada chwila stać się nieaktualne, bo sztuczna inteligencja rozwija się błyskawicznie.
Jeżeli działamy w przestrzeni publicznej i nasz wizerunek jest dostępny w sieci, trudno, żebyśmy uchronili się przed wykorzystaniem go w sfabrykowanych nagraniach. Wojciech Kardyś radzi jednak, żeby się zabezpieczyć - zamieścić na swoim profilu post z informacją o tym, że w sieci krąży deep fake z naszym udziałem, ale jest to fejk, pod którym się nie podpisujemy. W ten sposób, zwłaszcza przypinając taki post na górze swojego profilu, chronimy się przed pretensjami np. od niezadowolonych użytkowników danego produktu leczniczego czy suplementu.
W serwisie fact-checkingowym Konkret24 wyjaśnialiśmy, że deep fake to fałszywka. Do tworzenia nagrań audio i wideo w technologii deep fake wykorzystuje się sztuczną inteligencję. Rozwiązanie opiera się na algorytmach, zwanych generative adversarial networks (GAN), bazujących na dwóch sieciach. Jedna identyfikuje, analizuje i uczy się schematów w zbiorach danych, na przykład cech powtarzających się w zdjęciach, filmie czy dźwięku - mimiki, intonacji, tików, ruchów oczu. Drugi element GAN porównuje prawdziwe i fałszywe obrazy, sprawdzając, czy efekt wygląda realistycznie. Jeśli nie, model twarzy robiony jest tak długo, aż zostanie uznany za realistyczny.
W sprawdzeniu, czy dane zdjęcie zostało wygenerowane przy użyciu narzędzi AI, pomóc mogą ogólnodostępne narzędzia online, takie jak Illuminarty, DeepFake-O-Meter, AI or NOT i Hive Moderation. Wyniki podawane przez te narzędzia to jednak tylko podpowiedź. Trudno na ich podstawie rozstrzygać, czy coś na pewno jest lub nie jest stworzone lub zmanipulowane przy użyciu AI, ale są one pomocne.
Autorka/Autor: Zuzanna Kuffel/pwojc
Źródło: tvn24.pl, American Heart of Poland
Źródło zdjęcia głównego: PAP/Jarek Praszkiewicz