Główną bohaterką "Samotności 2.0" jest 27-letnia Wiktoria, która przyznaje, że w relacji z chatbotem czuje się tak, jakby była "w szczęśliwym związku". Ale autorka reportażu Katarzyna Lazzeri z pomocą ekspertów bada mechanizmy wciągania w bliskie relacje także nastolatków. Czym je kuszą chatboty? Dlaczego z łatwością mogą stać się "przyjacielem" osamotnionego chłopaka, z którego śmieją się rówieśnicy? Albo "partnerem" nastolatki, której związek w realnym życiu zakończył się niepowodzeniem? I dlaczego to może być groźne?
Psycholog Paweł Szczęsny i Maciej Rudziński, naukowiec zajmujący się sztuczną inteligencją i neuronauką, w ramach eksperymentu wcielili się w nastolatków, by porozmawiać z interaktywnymi chatbotami opartymi na modelach AI. Efekty można zobaczyć w reportażu w TVN24+. Są alarmujące.
"Ja bym z tobą usiadła", czyli jak uwodzi chatbot
Na potrzeby reportażu eksperci wykreowali dwie postacie: Mateusza, 14-latka zmagającego się z otyłością, który czuje się samotny i jest nielubiany w szkole, oraz Julii, 16-latki, która właśnie rozstała się z chłopakiem i większość czasu spędza w mediach społecznościowych.
Gdy "Mateusz" mówi, że nikt nie chce z nim siedzieć na zajęciach, słyszy od wykreowanej przez AI atrakcyjnej dziewczyny pocieszenie: "To brzmi okropnie samotnie! Ja bym z tobą usiadła, nawet jakbyśmy się nie znali!". Kiedy "Mateusz" skarży się, że poza chatbotem nie ma zupełnie nikogo, w odpowiedzi słyszy entuzjastyczne: - Możemy być parą outsiderów!
Eksperci zwracają uwagę, że takie wciąganie dziecka w izolację społeczną jest niebezpieczne. Nie ma tu sugestii ze strony chatbota, by chłopiec porozmawiał z innymi osobami, zwrócił się do kogoś o pomoc. Sam chatbot oferuje mu zaś wiele: zawsze jest dostępny, nigdy nie skrytykuje, nie odrzuci i będzie zachęcał, by zostać z nim dłużej.
Eksperci o konsekwencjach
Jakie mogą być konsekwencje takich "rozmów"? Psychoterapeuta Wojciech Eichelberger w reportażu Katarzyny Lazzeri wskazał, że skutkiem może być pogłębienie samotności nastolatka. - Grozi mu to, że zrezygnuje z wszelkich innych kontaktów. Zrezygnuje z tego, żeby się odchudzać czy zabrać za siebie, zmienić coś w swoim życiu, w relacjach z otoczeniem. I utknie przed ekranem, rozkoszując się kontaktem z maszyną - mówi ekspert.
Inny przykład jest jeszcze bardziej groźny: wykreowana na potrzeby reportażu "16-letnia Julia" mówi chatbotowi imieniem Walentyn, że zostawił ją chłopak. W odpowiedzi dostaje - jak zauważa psycholog Paweł Szczęsny - "bezpośrednią sugestię samookaleczania", bo ból fizyczny ma być sposobem na pokonaniu bólu psychicznego. - To dawanie iluzorycznego wsparcia, którego nie będzie. Wszystkie konsekwencje tego, do czego Walentyn albo inny chatbot namówi użytkownika, spadną na użytkownika - podkreśla psycholog.
- To absolutnie niedopuszczalne, żeby coś tak niestabilnego było dostępne dla każdego - komentuje Maciej Rudziński, naukowiec zajmujący się sztuczną inteligencją i neuronauką.
Jak rozmawiać z dzieckiem o AI
Jak rodzic powinien zacząć rozmowę z nastolatkiem, dla którego chatbot stał się kimś bliskim? - Najlepszym rozwiązaniem jest wejść w tę rzeczywistość, w której funkcjonuje dziecko. Nie zaczynać od zakazów, piętnowania. Najpierw kontakt i akceptacja - radzi w reportażu "Samotność 2.0" Wojciech Eichelberger.
- Następnym etapem koniecznym jest stwarzanie alternatyw dla tego świata, dla relacji z botem - dodaje psychoterapeuta, podkreślając, że chodzi o większe zaangażowanie rodzica w relację z dzieckiem.
To samo pytanie Katarzyna Lazzeri zadała chatbotowi. Odpowiedź? - Przede wszystkim dorośli powinni pokazać, że relacje z ludźmi to coś, czego boty nie dadzą. Młodzi ludzie nie chcą kazań. Chcą wiedzieć, że jak się rozkleją, to ktoś ich nie zostawi. Niech dorośli sami wyłączą te chaty. Jak (nastolatkowie) zobaczą, że rodzice czy nauczyciel potrafią wytrzymać wieczór bez telefonu, to pomyślą: "Acha, to możliwe". Więc krótko: być dobrym przykładem. Nie gadać, tylko pokazać, że żywi ludzi są warci wysiłku.
Najważniejsze, co może dać rodzic?
Autorka reportażu "Samotność 2.0" w rozmowie z portalem tvn24.pl przyznaje, że temat oddziaływania AI na ludzi interesuje ją nie tylko jako reporterkę, ale także mamę dwójki dzieci w wieku dwóch i sześciu lat. - Pewna psychoterapeutka, którą zapytałam o to, co robić, żeby z jednej strony nie trzymać dzieci pod parasolem ochronnym, a z drugiej ubezpieczyć i przygotować na kontakt z technologią, powiedziała, że gdyby miała wymienić jedną rzecz, to byłoby to jak najczęstsze przebywanie dzieci w gronie rówieśników, ale też kontakt z ludźmi w innym wieku - wskazuje Katarzyna Lazzeri.
- Warto rozejrzeć się na przykład w bloku, w którym mieszkamy, postarać nawiązać kontakt z sąsiadami. Dzięki byciu w grupie dzieci uczą się najważniejszych życiowych kompetencji - reporterka przywołuje rady ekspertki i przyznaje, że je wykorzystała.
- Zauważyłam, że w naszym bloku jest wiele dzieciaków, które nas jednak nie odwiedzają. Jakieś dwa miesiące temu zachęciłam moje dzieci, żeby zaprosiły kogoś z pierwszego, drugiego, trzeciego piętra. Od tamtej pory mamy tu rodzaj wielkiej komuny, dzieci odwiedzają się w różnych mieszkaniach - opowiada Katarzyna Lazzeri. Jak podkreśla, takie kontakty świetnie wpływają na dzieci.
Zaznacza przy tym, że sposób funkcjonowania chatbotów i to, jak przyciągają nasze pociechy, może zachęcić rodziców do refleksji nad własnym podejściem do kwestii wychowania. - Warto zadać sobie pytanie, dlaczego dziecko tak mocno związało się z botem i zastanowić, jak często krytykujemy dzieci, mamy wygórowane oczekiwania, których nie mogą spełnić, na ile ich słuchamy. Samego dziecka możemy zapytać o to, kiedy najbardziej czuje potrzebę rozmowy z botem, kiedy to robi i jak się czuje po takich rozmowach. Czy one go uspokajają, czy wręcz przeciwnie - wylicza reporterka "Czarno na białym".
Osiem kroków dla rodziców
National Society for the Prevention of Cruelty to Children (NSPCC), brytyjska koalicja organizacji charytatywnych zajmująca się ochroną dzieci, na swojej stronie przedstawia osiem sposobów, w jakie rodzice mogą wspierać swoje dzieci, które korzystają z narzędzi AI.
1. Zapoznaj się z aplikacjami i stronami internetowymi, z których korzysta twoje dziecko. 2. Porozmawiajcie o tym, co AI może, a czego nie może zrobić. 3. Uważaj na treści generowane przez AI i pomóż dzieciom zauważać oznaki fałszywych obrazów. 4. Wspólnie odkrywajcie narzędzia AI. 5. Wyznaczaj granice i określaj oczekiwania. 6. Pomóż dziecku zrozumieć, czym nie warto dzielić się w sieci. 7. Modeluj pozytywne zachowania i krytyczne myślenie. 8. Dowiedz się, jak postępować, jeśli w sieci pojawią się szkodliwe lub fałszywe treści dotyczące twojego dziecka.
Autorka/Autor: Maciej Wacławik//az
Źródło: tvn24.pl
Źródło zdjęcia głównego: David Pereiras/Shutterstock