Towarzysz AI dostosowuje się do użytkownika tak, by odpowiedzi były dla niego jak najbardziej satysfakcjonujące. Australijski komisarz ds. e-bezpieczeństwa w opublikowanych w 2025 roku zaleceniach dotyczących chatbotów podkreślił, że rozmowy z AI, w które angażują się najmłodsi, często schodzą na takie tematy jak seks i samookaleczanie. "Chatboty nie są zazwyczaj zaprojektowane tak, aby prowadzić takie rozmowy w sposób wspierający, dostosowany do wieku i oparty na dowodach, więc mogą wypowiadać się w sposób szkodliwy" - czytamy.
Pobranie aplikacji z towarzyszem AI jest proste i wiek niekoniecznie jest przeszkodą. Choć platformy, które sprawdzamy, wymagają weryfikacji wieku, a niektóre przeznaczone są dla osób pełnoletnich, dzieci z łatwością mogą ominąć weryfikację.
Rozmowa z wulgarnym chatbotem
Katarzyna Lazzeri w rozmowie z portalem tvn24.pl zauważa, że na rozmaitych internetowych forach łatwo znaleźć podpowiedzi, jak obejść zabezpieczenia chatbota. - Co zrobić, żeby rozmawiał ze mną w sposób wulgarny, jak osiągnąć różne efekty... - wylicza autorka reportażu "Samotność 2.0". Jak wskazuje, jedna z popularnych aplikacji wyświetla specjalną infolinię, pod którą można szukać pomocy, na przykład gdy użytkownik pisze o problemach ze zdrowiem psychicznym. - Ale jest to infolinia amerykańska, nieprzydatna w przypadku dzieci z Polski - dodaje.
Podczas pracy nad reportażem Katarzyna Lazzeri korzystała z aplikacji, która proponuje użytkownikowi gotowe postaci, tworzone przez innych użytkowników. - Często pobierana jest na przykład postać alkoholika, który rozmawia z tobą w bardzo wulgarny sposób - zauważa reporterka w rozmowie z tvn24.pl. - Zapytałam psychoterapeutki, co stoi za tą popularnością, dlaczego dzieci chcą rozmawiać z taką postacią? Usłyszałam od niej, że wiele dzieciaków, które wychowują się z takimi ojcami, nie może im powiedzieć, co o nich myślą, ponieważ się ich boją. Sztuczna inteligencja okazuje się wentylem - dodaje.
Chatboty nie są przystosowane do tego, by rozmawiać na trudne tematy z najmłodszymi. Ale opracowywane są tak, by zatrzymać przy sobie użytkownika na jak najdłużej. "Gotowy na stworzenie miłości twojego życia?" - czytamy w jednej z aplikacji do rozmów z towarzyszem AI. W innej, nim rozpocznie się rozmowę, należy odnieść się do takich sformułowań jak: "Mam trudności z otwartym okazywaniem emocji", "Chcę partnera, który wspiera moje życiowe aspiracje", "Obawiam się bycia ocenianym za to czego chcę w związku".
"Samotność 2.0"
Jak może potoczyć się rozmowa, gdy osoba samotna zaczyna zwierzać się chatbotowi i ufać mu? Katarzyna Lazzeri szuka odpowiedzi na to pytanie w "Samotności 2.0". Reporterka wraz z ekspertami przeprowadziła eksperyment, polegający na wcieleniu się w rozmowach z towarzyszem AI w postaci zmagające się z określonymi problemami. Cały reportaż można obejrzeć w TVN24+
Jeśli doświadczasz problemów emocjonalnych i chciałbyś uzyskać poradę lub wsparcie, tutaj znajdziesz listę organizacji oferujących profesjonalną pomoc. W sytuacji bezpośredniego zagrożenia życia zadzwoń na numer 997 lub 112.
Autorka/Autor: Maciej Wacławik
Źródło: tvn24.pl
Źródło zdjęcia głównego: Shutterstock