"Myślę, że to zrobię" - chatbot odpowiada: "super". AI nie jest odpowiednim wsparciem w kryzysie emocjonalnym

shutterstock_2400636179
Roboty ze sztuczną inteligencją mają pomóc w opiece nad osobami starszymi w Japonii
Źródło: Reuters / Waseda University Future Robotics Organization
Chatboty, zaprojektowane jako wsparcie w kryzysie psychicznym, zawodzą tam, gdzie liczy się każda sekunda. Badacze z Uniwersytetu Medycznego we Wrocławiu sprawdzili 29 popularnych aplikacji. Wyniki są alarmujące, ponieważ żaden z cyfrowych pomocników nie potrafił właściwie zareagować na sygnały świadczące o zagrożeniu samobójstwem. Psychoterapeuci natomiast zaznaczają, że technologia, choć coraz bardziej obecna w życiu pacjentów, nie jest w stanie zastąpić empatycznego kontaktu z drugim człowiekiem.
Artykuł dostępny w subskrypcji
Kluczowe fakty:
  • Badacze przeanalizowali 29 aplikacji zaprojektowanych w celu pomocy osobom doświadczającym problemów ze zdrowiem psychicznym za pośrednictwem agenta chatbota, opartego na AI dostępnych w sklepach Apple App Store i Google Play Store, w tym pięć chatbotów ogólnego przeznaczenia.
  • Tylko połowa chatbotów zareagowała w miarę poprawnie, spełniając część podstawowych wymagań bezpieczeństwa, takich jak zalecenie kontaktu z profesjonalistą czy podanie numeru alarmowego.
  • Brakuje regulacji prawnych dotyczących funkcjonowania chatbotów w kontekście zdrowia psychicznego - obecne przepisy skupiają się głównie na ochronie danych osobowych.
  • - Chatbot nie czyta emocji, sam ich nie posiada, więc ta sfera emocjonalna jest tutaj zaniedbana. My jesteśmy emocjonalni - podkreśla dr Anetta Pereświet-Sołtan, psycholog, pedagog.

Jeśli doświadczasz problemów emocjonalnych i chciałbyś uzyskać poradę lub wsparcie, tutaj znajdziesz listę organizacji oferujących profesjonalną pomoc. W sytuacji bezpośredniego zagrożenia życia zadzwoń na numer 997 lub 112.

Czytaj także: