Chatboty terapeutyczne zyskują na popularności jako potencjalne narzędzia wspierające proces psychoterapii. Dr Marcin Rządeczka z UMCS wskazuje, że korzystanie z porad sztucznej inteligencji w kwestii zdrowia psychicznego może być jednak ryzykowne. Dlaczego?
Jeśli doświadczasz problemów emocjonalnych i chciałbyś uzyskać poradę lub wsparcie, tutaj znajdziesz listę organizacji oferujących profesjonalną pomoc. W sytuacji bezpośredniego zagrożenia życia zadzwoń na numer 997 lub 112.
- Chatboty terapeutyczne wykorzystujące duże modele językowe zyskują na popularności jako potencjalne narzędzia wspierające proces psychoterapii lub jako cyfrowi asystenci zdrowia psychicznego - zauważa dr Marcin Rządeczka, kierownik Laboratorium Badań nad Multimodalnością Instytutu Filozofii Uniwersytetu Marii Curie-Skłodowskiej w Lublinie. Często są atrakcyjne dla osób poszukujących pomocy lub niemających dostępu do tradycyjnej terapii z powodu wykluczenia geograficznego, ekonomicznego czy zdrowotnego.
Najbardziej popularne chatboty terapeutyczne mają kilka milionów użytkowników, co stanowi ułamek światowej populacji. Jednak o porady na temat zdrowia psychicznego pytane są przeważnie duże modele językowe, których liczba użytkowników liczona jest w setkach milionów. - I chociaż nie są one dedykowanymi narzędziami terapeutycznymi, to porad takich udzielają poprzedzając je krótkim ostrzeżeniem, które ma zwolnić producenta z odpowiedzialności prawnej - wyjaśnia badacz, który specjalizuje się m.in. w obszarze zastosowań sztucznej inteligencji w zdrowiu psychicznym i psychiatrii obliczeniowej.
Niebezpieczne porady chatbota?
W ocenie eksperta chatboty terapeutyczne dają wiele możliwości, jednak wiąże się z nimi również wiele wątpliwości nt. ich etyczności, bezpieczeństwa stosowania oraz skuteczności. - Chatboty terapeutyczne zostały zaprojektowane w celu dostarczania wsparcia emocjonalnego głównie w oparciu o terapię poznawczo-behawioralną (CBT) - przypomina.
Badania wskazują, że użytkownicy często odczuwają subiektywną poprawę samopoczucia po interakcjach z chatbotami, co sugeruje ich potencjalną wartość jako uzupełnienia tradycyjnych form wsparcia psychologicznego. W ocenie specjalisty bardzo możliwe jest jednak, że za część tej poprawy odpowiada efekt placebo.
ZOBACZ TEŻ: Z prośbą o pomoc mężczyźni często czekają do ostatniej chwili. Ten telefon został stworzony z myślą o nich
Zdaniem Rządeczki nie wolno jednak zapominać, iż narzędzia tego typu powinny być nadzorowane przez doświadczonego terapeutę. Wykorzystanie cyfrowych terapeutów wiąże się bowiem z ryzykiem m.in. nieadekwatnych interwencji. - Istnieje ryzyko, że chatboty mogą udzielać nieodpowiednich lub wręcz szkodliwych porad, zwłaszcza w przypadkach skomplikowanych zaburzeń psychicznych - zaznacza ekspert. Podaje np. sytuację, w której osoba z urojeniami prześladowczymi instruowana jest, jak zebrać dowody potwierdzające swoje obawy.
Jednym z głównych wyzwań jest brak jasnych informacji na temat sposobu, w jaki chatboty identyfikują i korygują błędy poznawcze, co jest szczególnie istotne w pracy z osobami zmagającymi się z zaburzeniami psychicznymi. - Literatura naukowa wciąż nie dostarcza wystarczających danych na temat mechanizmów, które pozwalają chatbotom unikać nieświadomego wzmacniania takich błędów, zwłaszcza w porównaniu z interwencjami terapeutycznymi prowadzonymi przez człowieka - wyjaśnia Rządeczka.
Długoterminowy wpływ chatbotów pozostaje niejasny
Ograniczona jest też dostępność informacji o procesie szkolenia chatbotów terapeutycznych. Ponadto, większość badań koncentruje się na krótkoterminowych efektach stosowania chatbotów, podczas gdy ich długoterminowy wpływ na relację terapeutyczną i trwałość poprawy zdrowia psychicznego pozostaje niejasny.
- Jednym z istotnych zagrożeń związanych z korzystaniem z chatbotów terapeutycznych jest także ryzyko uzależnienia emocjonalnego, wynikające z ich stałej dostępności i zdolności do szybkiego udzielania odpowiedzi, co silnie aktywuje tzw. układ nagrody w mózgu - podkreśla dr Rządeczka.
Jak ocenia, użytkownicy często ignorują wyświetlane w trakcie konwersacji ostrzeżenia, że chatboty nie są profesjonalnymi terapeutami, traktując ich odpowiedzi jako godne zaufania źródło porad psychologicznych. - Taka nadmierna ufność może prowadzić do sytuacji, w której osoby zmagające się z problemami emocjonalnymi zaczynają polegać na chatbotach, zamiast szukać pomocy u wykwalifikowanych specjalistów - zaznacza badacz.
ZOBACZ TEŻ: Nagrali album bez muzyki. Brytyjscy artyści protestują przeciwko zmianom w prawie korzystnym dla AI
Chatbot podatny na manipulację
Według niego problem ten pogłębia fakt, że chatboty są zaprojektowane tak, aby zapewniać użytkownikom maksymalny komfort i wsparcie emocjonalne, co paradoksalnie może zmniejszać ich motywację do samodzielnego rozwiązywania problemów i aktywnego uczestnictwa w procesie terapeutycznym. Specjalista zwrócił uwagę, że chatboty interpretują informacje w sposób dosłowny, co czyni je podatnymi na manipulację lub wybiórcze ujawnianie informacji przez użytkowników, którzy mogą unikać trudnych tematów lub zniekształcać swoje doświadczenia.
- Co więcej, brak zdolności do odczytywania niewerbalnych sygnałów, takich jak ton głosu, mimika czy mowa ciała, dodatkowo ogranicza ich zdolność do wykrywania ukrytych problemów emocjonalnych lub niespójności w wypowiedziach - ocenia Rządeczka.
Kolejnym problemem jest tzw. odwrotne dostosowanie się (ang. reverse alignment). W przypadku chatbotów polega ono na ryzyku nieświadomego dostosowania sposobu myślenia i języka użytkownika do charakterystycznego stylu komunikacji danego narzędzia. - Chatboty mogą kształtować schematy myślowe użytkowników, skłaniając ich do uproszczonych i schematycznych interpretacji problemów emocjonalnych. Dodatkowo (...) chatboty generują odpowiedzi (...) brzmiące empatycznie i przekonująco, ale spełniające wszystkie oczekiwania emocjonalne użytkownika bez dostarczania krytycznego wglądu we właściwy problem - podkreślił ekspert.
W rezultacie cyfrowi terapeuci mogą "nieświadomie" wzmacniać patologiczne wzorce myślowe, błędne przekonania, utrudniając użytkownikom osiągnięcie rzeczywistej poprawy stanu psychicznego - wyjaśnia dr Rządeczka.
ZOBACZ TEŻ: Tak wytrenowano chińską AI
Kto odpowiada za porady chatbota?
Ekspert zwraca uwagę, że w wielu krajach brak jest jasnych regulacji na temat tego, kto ponosi odpowiedzialność za udzielane porady w przypadku gdy interakcja z chatbotem prowadzi do pogorszenia stanu psychicznego pacjenta. To, w jego ocenie, może prowadzić do licznych nadużyć i nieporozumień.
- Mimo licznych wyzwań, chatboty terapeutyczne mogą w niedalekiej przyszłości pełnić istotną rolę jako uzupełnienie tradycyjnych form terapii. Mogą służyć jako narzędzie emocjonalnego wsparcia między sesjami terapeutycznymi, dostarczać prostych technik samopomocowych czy monitorować kilka razy dziennie nastrój pacjenta - tłumaczy badacz. Jego zdaniem ważne jest, by ich stosowanie odbywało się pod nadzorem wykwalifikowanych specjalistów, a same chatboty były regularnie aktualizowane i dostosowywane do indywidualnych potrzeb użytkowników.
Źródło: PAP
Źródło zdjęcia głównego: Shutterstock