Ludzie potrafią rozpoznać komunikaty głosowe wygenerowane z pomocą sztucznej inteligencji tylko w 73 procentach przypadków, ustalili badacze z University College London. Według nich alarmujące jest to, że nawet po przeszkoleniu, czym są komunikaty typu deepfake, często nie jesteśmy w stanie ich odróżniać od prawdziwej mowy.
Wyniki badania opublikowano w Center for Open Science, a w środę opisał je "Guardian". Naukowcy z University College London sprawdzili, czy ludzie są w stanie odróżnić prawdziwą mowę człowieka od sztucznie wygenerowanych komunikatów typu deepfake.
ZOBACZ TEŻ: Upozorował porwanie kobiety i zażądał od rodziny okupu. Pomogła mu w tym sztuczna inteligencja
Deepfake. Badania londyńskich naukowców
Badacze wygenerowali przy użyciu sztucznej inteligencji po 50 różnych komunikatów w językach angielskim i mandaryńskim. Zastosowali w tym celu narzędzie pozwalające na zamianę tekstu na mowę. Tak stworzone komunikaty dali następnie do odsłuchania 529 uczestnikom badania, aby sprawdzić, czy będą oni w stanie poprawnie wskazać, czy nagrania powstały sztucznie.
Okazało się, że mowę wygenerowaną z pomocą AI badani poprawnie wykrywali tylko w 73 proc. przypadków. Ci, którzy udzielali poprawnej odpowiedzi zauważali, że ich uwagę w nagraniach zwracał oddech, odstępy między słowami i płynność mówiącego. Wynik ten był jedynie nieznacznie lepszy wśród uczestników badania, którym zademonstrowano, po jakich cechach taką mowę można wykryć i puszczono im kilka nagrań, informując, że są to deepfake'i. - W naszym badaniu wykazaliśmy, że przeszkolenie ludzi w zakresie wykrywania deepfake'ów niekoniecznie może pomóc im stać się w tym lepszymi - wskazała główna autorka badania Kimberly Mai.
Narzędzia do wykrywania deepfake'ów
Technologia deepfake oprócz generowania komunikatów językowych pozwala także na stworzenie sztucznych fotografii lub filmów, przedstawiających ludzi w sytuacjach, w których się tak naprawdę nigdy nie znaleźli. Mai zauważyła, że na tę chwilę narzędzia służące wykrywaniu deepfake'ów nie są jeszcze wystarczająco dobrze rozwinięte i zaapelowała o ulepszanie ich, aby zmniejszać zagrożenia płynące ze stosowania tej technologii.
Jeszcze innym zagrożeniem może być zaś sytuacja, w której ludzie będą uznawać, że w rzeczywistości prawdziwe nagrania są fałszywymi i argumentować, że nie ma wystarczających sposobów na sprawdzenie, czy tak jest - twierdzi Sam Gregory, dyrektor organizacji Witness, cytowany przez "Guardiana".
ZOBACZ TEŻ: Sztuczna inteligencja służy do tworzenia deepfake'ów, ale może też je rozpoznawać. "Musimy bardzo uważać"
Źródło: Guardian
Źródło zdjęcia głównego: Shutterstock