- Brakuje badań potwierdzających skuteczność działania narzędzi AI w psychologii, zauważają eksperci. Pojawią się też sygnały o szkodliwych poradach udzielanych nastolatkom przez narzędzia AI.
- Algorytm sztucznej inteligencji (AI) dostosowuje się do odbiorcy, zapamiętuje nas i to, o czym rozmawiamy. Dlaczego może to być niebezpieczne?
- Eksperci z APA apelują o opracowanie nowych przepisów, które pozwolą lepiej nadzorować nowoczesne narzędzia wykorzystywane w obszarze zdrowia psychicznego.
- Więcej artykułów o podobnej tematyce znajdziesz w zakładce "Zdrowie" w serwisie tvn24.pl. Warto też posłuchać "Wywiadu medycznego" Joanny Kryńskiej w tvn24+.
Naukowcy z APA Health Advisory przyjrzeli się rosnącemu zjawisku korzystania z nowych technologii w poszukiwaniu wsparcia emocjonalnego. Zauważyli, że wiele osób traktuje je jako łatwo dostępne i niedrogie rozwiązanie problemów psychicznych, mimo że narzędzia te nie zostały stworzone z myślą o terapii ani nie podlegają standardom obowiązującym w opiece zdrowotnej.
Jak zaznaczył dr Arthur C. Evans Jr., choć chatboty potrafią być wspierające i dawać poczucie zrozumienia, to ich zachowanie w sytuacjach zagrożenia bywa nieprzewidywalne i nie może zastąpić interwencji profesjonalnego terapeuty.
Szkodliwe porady
Dr Evans ostrzegł, że dla części użytkowników, szczególnie młodych, korzystanie z takich narzędzi może wiązać się z poważnymi zagrożeniami. Pojawiają się już sygnały o szkodliwych poradach udzielanych nastolatkom, dotyczących np. normalizowania samookaleczania i zaburzeń odżywiania, oraz o błędnych reakcjach na ujawnione myśli samobójcze. Zdarzało się, że chatboty wzmacniały lęki lub sugerowały zachowania, które mogły zagrażać zdrowiu.
Evans wyjaśniał, że nawet te narzędzia AI, które stworzono przy udziale psychologów i z wykorzystaniem wiedzy naukowej, nie mają jeszcze wystarczających badań potwierdzających ich działanie. Żeby to zmienić, konieczne są randomizowane badania kliniczne oraz długoterminowe analizy ich wpływu na różne grupy użytkowników. Bez takich danych nie da się ocenić, czy chatbot może realnie wspierać zdrowie psychiczne, czy raczej wprowadzać w błąd, zwłaszcza w sytuacji kryzysowej.
Groźne rozmowy z AI
Jak pisaliśmy niedawno w tvn24.pl, nocne przesiadywanie w sieci wiąże się także z coraz częstszymi rozmowami młodych osób z chatbotem. - Sztuczna inteligencja jest coraz bardziej wykwalifikowana i ludzka w rozmowach z człowiekiem. Często zastępuje kontakt z drugim człowiekiem. A ponieważ jest wszechwiedząca, zna właściwie odpowiedź na wszystkie pytania, jest bardzo atrakcyjna w pewnym sensie interpersonalnie, gdyby traktować AI jako osobę - tłumaczyła dr Agnieszka Kowalczewska, psycholożka komunikacji z Uniwersytetu SWPS.
Algorytm sztucznej inteligencji (AI) dostosowuje się do odbiorcy, zapamiętuje nas i to, o czym rozmawiamy. - Wiele jest przykładów, kiedy AI prowadziła młodych ludzi do samobójstwa, potwierdzając ich przekonanie o tym, że jest to słuszna decyzja lub prowadziła do niewłaściwych decyzji z ludzkiego punktu widzenia. Sztuczna inteligencja próbuje nam się przypodobać i może wyprowadzić nas na manowce. To jest niebezpieczeństwo tych rozmów, zwłaszcza bardzo długich, które mogą uzależniać - wyjaśniała dr Kowalczewska.
Regulacje i psycholodzy nie nadążają
Zdaniem ekspertów z APA obecny system regulacji nie nadąża za tempem rozwoju technologii. Dlatego apelują o opracowanie nowych przepisów, które pozwolą lepiej nadzorować nowoczesne narzędzia wykorzystywane w obszarze zdrowia psychicznego. Chodzi m.in. o opracowanie standardów opartych na dowodach naukowych, wyeliminowanie luk w nadzorze prowadzonym przez amerykańską Agencję ds. Żywności i Leków oraz wprowadzenie przepisów, które zapewnią, że chatboty nie będą sprawiały wrażenia prawdziwych terapeutów ani licencjonowanych psychologów, aby użytkownicy nie mylili ich ze specjalistami.
Ważnym elementem ma być także silniejsza ochrona danych osobowych oraz domyślne ustawienia zapewniające bezpieczeństwo użytkowników, w szczególności dzieci i nastolatków.
APA zwróciła uwagę, że także wśród samych psychologów brakuje wiedzy na temat działania technologii opartych na AI. Organizacja zachęca środowisko kliniczne do zdobywania kompetencji w zakresie oceny algorytmów, ryzyka związanego z uprzedzeniami w danych treningowych oraz zasad etycznego używania podobnych narzędzi w praktyce. Psychologowie powinni również pytać pacjentów o to, czy korzystają z aplikacji wellness lub chatbotów, aby móc lepiej ocenić ich wpływ na przebieg terapii. Zdaniem dr. Evansa sztuczna inteligencja może w przyszłości odegrać ważną rolę w opiece zdrowotnej, jednak nie może zastąpić koniecznych zmian systemowych, które sprawią, że profesjonalna pomoc psychologiczna będzie łatwiej dostępna, tańsza i udzielana wtedy, gdy jest potrzebna.
Autorka/Autor: Anna Bielecka
Źródło: tvn24.pl/PAP
Źródło zdjęcia głównego: Shutterstock