"Oszustwo na Blika" weszło na wyższy poziom i jest dużo groźniejsze, bo trudne do rozpoznania. W wiadomości otrzymanej za pomocą mediów społecznościowych możemy usłyszeć imitację głosu znajomej osoby, proszącej o pieniądze. - Słysząc mocną historię, nie będziemy działać w pełni racjonalnie. Jesteśmy w nerwach i wyłącza nam się zdrowy rozsądek - mówi w rozmowie z redakcją biznesową tvn24.pl Joanna Gajewska z Naukowej i Akademickiej Sieci Komputerowej. Stąd już prosta droga do utraty środków.
Mrągowska policja na swojej stronie internetowej przestrzega przed tzw. "oszustwami na Blika" i wyjaśnia, że oszuści włamują się na konto ofiary na portalu społecznościowym i z tego konta wysyłają wiadomości do znajomych tej osoby z prośbą o pożyczenie pieniędzy i wysłanie kodu Blik.
"Kobieta, która podała kod Blik oszustom, a nie koleżance, straciła dwa tysiące złotych. Tyle samo straciła kolejna pani, która też myślała, że pomaga znajomej" - opisuje policja.
Joanna Gajewska, badaczka sztucznej inteligencji i technologii deepfake w Naukowej i Akademickiej Sieci Komputerowej (NASK) komentuje w naszej rozmowie, że tego typu oszustwo weszło już na wyższy poziom i jest dużo groźniejsze.
Precyzuje, że chodzi o rozwiązania "text-to-speech" (z ang. przełożenie tekstu na mowę), gdzie wprowadzany jest tekst i próbka głosu danej osoby, pod którą oszuści chcą się podszyć z wykorzystaniem technologii deepfake. Dzięki temu powstaje tak zwane audio deepfake. Możemy go dostać w formie wiadomości głosowej (głosówki) z prośbą o kod Blik w wiadomości w mediach społecznościowych. Usłyszymy wówczas imitację głosu bliskiej nam osoby.
Próbkę głosu można zdobyć od ręki
- Niestety rozwiązań tego typu jest bardzo dużo na rynku i są szeroko dostępne. Praktycznie każdy jest w stanie coś takiego stworzyć, wystarczy mała próbka głosu, nawet mniej niż jedna minuta. W mediach społecznościowych często udostępniamy swoje nagrania i wizerunek na zdjęciach. Od ręki można taką próbkę zdobyć - zaznacza ekspertka.
Podkreśla, że tego typu oszustwa dotykają bezpośrednio zwykłych obywateli. - Włamują się komuś na konto na Facebooku, nagrywają głosówkę danej osoby i wysyłają po jego znajomych z prośbą o Blika. I ktoś w tej głosówce tłumaczy, że zapomniał portfela, że jest w sklepie albo też przedstawia bardziej dramatyczną historię o wypadku i pilnej potrzebie pieniędzy. Technologia pozwala wysyłać te głosówki tak, że mamy poczucie konwersacji, która wygląda bardzo realnie - wyjaśnia.
Jej zdaniem wiarygodność, jaką zyskują tego typu oszustwa dzięki wykorzystaniu zaawansowanych technologii sprawia, że coraz więcej osób traci w ten sposób pieniądze lub udostępnia oszustom swoje wrażliwe dane, loginy, hasła.
- Firma McAfee przeprowadziła badanie, w którym na siedem tysięcy ankietowanych około dziesięć procent padło ofiarą oszustwa głosowego, z czego ponad siedemdziesiąt procent straciło pieniądze. Jedynie trzydzieści procent ankietowanych było w stanie odróżnić audio deepfake od prawdziwego nagrania. Te badania były przeprowadzane w 2023 roku, a technologia deepfake bardzo szybko się rozwija. Dzisiaj statystyka będzie zapewne jeszcze mniej optymistyczna - ocenia.
Skąd jeszcze znają nasz głos? "Nieistotne ankiety"
To nie wszystko. Inny bardzo popularny rodzaj przestępstwa jest taki, że dzwoni do nas bliska osoba i fizycznie widzimy w telefonie, że wyświetla nam się jej numer.
- Odbieramy telefon i słyszymy głos znajomego, który prosi nas o wsparcie, bo uległ na przykład wypadkowi, zgubił portfel albo został okradziony. Przestępcy przewidują, że szybko zareagujemy i wyślemy przelew mobilny. Słysząc mocną historię, nie będziemy działać w pełni racjonalnie. Jesteśmy w nerwach i wyłącza nam się zdrowy rozsądek. W bardzo podobny sposób może dojść do próby wyłudzenia od nas danych wrażliwych czy loginów i haseł - przestrzega Gajewska.
W tym przypadku chodzi o rozwiązania "speech-to-speech" (z ang. speech - mowa), jest to kolejna metoda wykorzystywana do generowania audio deepfake. W czasie rzeczywistym głos oszusta jest konwertowany na docelowy głos ofiary. Jednak, aby stworzyć tego typu audio deepfake pożądana jest nieco dłuższa próbka głosu ofiary, bo kilka minut. Tego typu metody są najczęściej wykorzystywane przez oszustów, ponieważ pozwalają na generowanie głosu w czasie rzeczywistym podczas rozmowy telefonicznej.
Pojawiają się też próby wyłudzenia pieniędzy ze względu na okup. - I w tym przypadku również media społecznościowe mogą odgrywać kluczową rolę, dostarczając oszustom wielu informacji na nasz temat i naszych bliskich. Czyli odbieramy telefon, a w słuchawce usłyszymy głos naszego dziecka, które będzie krzyczeć, płakać, prosić, że mamy przesłać pieniądze. Zazwyczaj będzie się to działo w momencie, kiedy nie jesteśmy w stanie sprawdzić tej informacji i oszuści to wiedzą - tłumaczy Joanna Gajewska.
Gra na emocjach i mroczny świat
Ekspertka zauważa, że rozwój usług finansowych sprawia, że wszystko możemy zrobić szybko, za jednym kliknięciem. To wygodne, ale to też ułatwia działanie przestępcom.
- Przy tym oni stosują socjotechniki, wprowadzają nas w pewną nerwowość, bo wtedy łatwiej popełniamy błąd i wysyłamy przelew. To jest tu istotne. Gdybyśmy musieli iść do placówki banku czy usiąść przed komputerem, logować się i weryfikować, to być może przez ten czas byśmy się uspokoili, zdrowy rozsądek by do nas wrócił. Zastanowilibyśmy się, czy coś nie gra w przedstawionej historii lub spróbowalibyśmy zweryfikować ją w inny sposób, co jest najlepszym sposobem w tej sytuacji - opowiada.
Podkreśla, że "tu mamy grę na emocjach". - Czynnik ludzki jest najsłabszym ogniwem całego łańcucha bezpieczeństwa. Jesteśmy istotami, które mają emocje. Dlatego tak ważna jest edukacja, świadomość tego, jak wygląda świat. Również ten nieco mroczny, świat cyberprzestępstw - stwierdza.
Media społecznościowe nie są jedyną bazą, z której korzystają przestępcy. - Dzwoni telefon i słyszymy, że ktoś chce z nami przeprowadzić nieistotną ankietę. To też sposób na pozyskanie naszej próbki głosowej. Dlatego warto jak najkrócej rozmawiać z osobami, których nie znamy - radzi Gajewska.
Detektory deepfake'ów
W naszej rozmowie ekspertka NASK przewiduje, że oszustw wykorzystujących deepfake będzie jeszcze więcej. Dlatego ważne jest, aby tworzyć technologie, które to rozpoznają.
- Narzędzie zainstalowane na naszych urządzeniach, umożliwiające weryfikację danego materiału, czy to audio czy wideo, w czasie rzeczywistym w dużej mierze rozwiązałoby problem. Mam tu na myśli detektory materiałów deepfake, które powinny być rozwijane i wprowadzane na szeroką skalę. Nakłaniałabym do rozszerzania tych technologii, do promowania i do finansowania narzędzi, które mają za zadanie wykrywać oszustwa - apeluje.
Jednocześnie wskazuje, że odpowiednie restrykcje prawne są bardzo istotne. - Jest to jednak dopiero początek ogromnej rewolucji. Ta technologia jest trudna do ujęcia w ramy prawne. Póki co, jesteśmy w tym wyścigu opóźnieni - zauważa.
Jak dodaje, w NASK na bieżąco analizują nowe oszustwa, oglądane są deepfake'i. - To, co widzieliśmy jeszcze miesiąc temu, ogromnie różni się od tego, co widzimy dziś. Materiały są coraz lepsze, coraz bardziej kreatywne - ocenia.
Jak się więc bronić przed oszustami? - Uratuje nas zdrowy rozsądek, ale też to, że jak odbierzemy telefon, to spróbujmy zweryfikować otrzymane informacje i zalecenia. Zanim wyślemy pieniądze, rozłączmy się i sami zadzwońmy do babci, córki, cioci, do kogoś, kto rzekomo do nas dzwonił. Koniecznie trzeba się rozłączyć i połączyć ponownie. Wtedy dodzwonimy się do prawdziwego odbiorcy - wyjaśnia.
Joanna Gajewska mówi, że specjaliści polecają też przygotowanie z naszymi bliskimi pytania weryfikacyjnego. Takiego, na którego odpowiedź znają wybrane osoby. - Dzięki temu możemy w czasie rzeczywistym potwierdzić prawdziwość tej rozmowy. Należy również rozważnie prowadzić swoje media społecznościowe. Zanim udostępnimy jakieś informacje czy materiał, zastanówmy się kogo mamy w znajomych i kto może to zobaczyć - zaznacza.
Jest działanie, "które każdy z nas powinien podejmować"
Z prośbą o komentarz redakcja biznesowa tvn24.pl zwróciła się do Polskiego Standardu Płatności, operatora Blika.
Jak czytamy w odpowiedzi, w przypadku cyberprzestępstw kluczowa jest stała edukacja oraz nagłaśnianie istoty weryfikowania źródeł, treści. Z kolei w przypadku deepfake wideo warto zwrócić uwagę na niesynchroniczność ruchu warg i wypowiadanych słów czy zubożałą lub zmechanizowaną mimikę twarzy.
Biuro prasowe zaznacza, że w Bliku 6-cyfrowy kod, który ważny jest tylko przez dwie minuty, generowany jest w aplikacji bankowej, do której użytkownik loguje się tylko sobie znanym hasłem. Następnie, aby płatność została wykonana, konieczne jest jej zatwierdzenie w aplikacji mobilnej banku.
"Użytkownik przed akceptacją płatności widzi dane transakcji: kwotę, nazwę sklepu czy adres bankomatu. Kluczem jest wyrobienie dobrego nawyku polegającego na dokładnej weryfikacji danych transakcji. Jest to działanie, które każdy z nas powinien podejmować, a które realnie zabezpiecza nas przed oszustami" - wyjaśnia biuro prasowe.
Jednocześnie spółka zaznacza, że ściśle współpracuje z bankami, dzieląc się informacjami o ujawnionych modelach przestępczości i praktykach w zakresie bezpieczeństwa.
Czytaj też: "Wchodzi nieoczekiwanie, może demolować życie"
Źródło: tvn24.pl
Źródło zdjęcia głównego: r.classen/Shutterstock