Popularny asystent wirtualny firmy Amazon będzie miał możliwość naśladowania głosów, również osób, które już odeszły. Wystarczy niewielka próbka ich głosu z nagrania.
O nowych możliwościach asystenta głosowego poinformował Rohit Prasad, wiceprezes i główny naukowiec Alexy. Dzięki opracowywanej przez firmę technologii asystent będzie mógł naśladować głos praktycznie każdego, wystarczy mniej niż minuta nagrania. Nie podano jednak na razie, kiedy funkcja ta będzie dostępna w urządzeniach.
Podczas odbywającej się właśnie w Las Vegas konferencji firma zaprezentowała, jak będzie to wyglądać. Na pokazanym nagraniu dziecko zapytało: "Babciu, czy możesz dokończyć mi czytać 'Czarnoksiężnika z krainy Oz'?", a z urządzenia popłynął głos starszej kobiety.
Alexa będzie naśladować głos zmarłych osób
Sama technologia nie jest nowa, podobnie jak pomysł wykorzystania jej do wirtualnego "ożywiania" zmarłych. Brytyjski "Guardian" przypomina Joshuę Barbeau, który wyszkolił chatbota GPT-3, by móc "rozmawiać" ze swoją narzeczoną, zmarłą osiem lat wcześniej.
Prasad, przedstawiając planowaną użyteczność Alexy, zwrócił uwagę, że podczas pandemii koronawirusa "wielu z nas straciło kogoś, kogo kochało". I dodał: "Chociaż sztuczna inteligencja nie może wyeliminować bólu po stracie bliskiej osoby, z pewnością może sprawić, że wspomnienia po niej przetrwają".
Jednak naśladowanie głosów budzi kontrowersje. "Guardian" zwraca uwagę, że kilka godzin przed ogłoszeniem planów przez Amazona inny technologiczny gigant, Microsoft, opublikował swoje zasady etyczne związane z wykorzystaniem sztucznej inteligencji. Pojawia się tam również kwestia użycia czyjegoś głosu przez urządzenie. "Łatwo można sobie wyobrazić, jak może to być wykorzystane w niewłaściwy sposób do podszywania się pod mówców i oszukiwania słuchaczy" - portal cytuje Natashę Crampton, dyrektorkę ds. sztucznej inteligencji.
ZOBACZ TEŻ: Twierdzi, że sztuczna inteligencja ma świadomość jak dziecko. Inżynier z Google'a zawieszony w obowiązkach
Zajmujący się technologią Engadget.com przywołuje opinie ekspertów od bezpieczeństwa, którzy obawiają się, że naśladowanie głosów może utorować drogę do zalewu nowych oszustw. Przykłady zresztą już są. W 2020 roku użycie głosu konkretnej osoby umożliwiło oszustwo w Zjednoczonych Emiratach Arabskich. Używający go przestępcy skłonili kierownika banku, by przelał 35 milionów dolarów, podszywając się pod dyrektora firmy, z którym wcześniej rozmawiał.
Na razie Alexa jest w stanie podszyć się np. pod... kota.
Źródło: The Guardian, CNBC
Źródło zdjęcia głównego: Shutterstock