Aż 58 procent badanych wskazało, że nie wie, co to jest deepfake.
Deepfake to stworzone lub przerobione zdjęcie, wideo, nagranie dźwiękowe, które ma sprawiać wrażenie prawdziwego.
Problem z rozpoznaniem deepfake'ów
30 proc. ankietowanych przyznało, że zdarzyło im się uznać materiały wideo lub obrazy wygenerowane przez AI za prawdziwe, a niemal tyle samo (29 proc.) nie potrafiło ocenić ich autentyczności.
Co czwarty respondent (27 proc.) za wiarygodne uznał również nagrania audio stworzone przez algorytmy.
Autorzy raportu zwrócili uwagę, że technologie deepfake, które umożliwiają tworzenie realistycznych, lecz fałszywych komunikatów głosowych i wizualnych, są coraz częściej wykorzystywane przez cyberprzestępców.
Tylko 42 procent wie, co to deepfake
- Tymczasem, jak wynika z badania, tylko 42 procent pracowników deklaruje, że zna to pojęcie. Niska rozpoznawalność takich zjawisk zwiększa ryzyko, że fałszywe komunikaty nie zostaną zidentyfikowane jako potencjalne zagrożenie, które może mieć realne konsekwencje, zarówno na poziomie operacyjnym, jak i reputacyjnym - zaznaczył cytowany w raporcie Beniamin Szczepankiewicz, analityk cyberzagrożeń, ESET.
Ponad połowa badanych pracowników (55 proc.) stwierdziła, że nie odbyła żadnego szkolenia z cyberbezpieczeństwa w ciągu ostatnich pięciu lat. Ankietowani wskazywali, że szkolenia, z którymi mieli do czynienia, skupiały się na obszarach takich jak procedury wewnętrzne (59 proc.) czy ochrona danych osobowych (56 proc.). Jednocześnie 19 proc. badanych pracowników przyznało, że udostępnia narzędziom AI wrażliwe dane firmowe. Raport został przygotowany przez firmy ESET i DAGMA Bezpieczeństwo IT na podstawie badania przeprowadzonego w 2025 r. na próbie ponad 1000 Polaków metodą CAWI.
Autorka/Autor: jjs/kris
Źródło: PAP
Źródło zdjęcia głównego: Shutterstock