Rodzice 16-latka pozywają OpenAI. Ostatnie tygodnie przed śmiercią chłopak rozmawiał z ChatGPT

shutterstock_2500527889
Max Kidruk: jesteśmy wciąż dziesięciolecia, a może nawet stulecia od prawdziwej inteligencji maszyn
Źródło: TVN24
Rodzice 16-letniego Adama Raine'a pozwali firmę OpenAI. Twierdzą, że ChatGPT przyczynił się do odebrania sobie życia przez nastolatka. We wtorek złożyli pozew, w którym przytaczają zapis konwersacji, które ich syn prowadził z chatbotem opartym na sztucznej inteligencji.
Kluczowe fakty:
  • Ciało 16-latka odnalazła w kwietniu tego roku matka, w jego własnym pokoju.
  • Rodzice przejrzeli telefon nastolatka, "desperacko szukając wskazówek, co mogło doprowadzić do tragedii". Wtedy dotarli do zapisów rozmów z ChatGPT.
  • Z ostatnich zapisów rozmów przed śmiercią ma wynikać, że chłopak napisał chatbotowi o swoim planie.
  • - Wycofanie się z relacji z rodziną i przyjaciółmi powinno być pierwszym sygnałem ostrzegawczym, że coś złego dzieje się z naszym dzieckiem - mówi portalowi tvn24.pl dr Halszka Witkowska, suicydolożka.

Uwaga, ten tekst opisuje okoliczności samobójstwa osoby nieletniej. Jeśli doświadczasz problemów emocjonalnych i chcesz uzyskać poradę lub wsparcie, TUTAJ znajdziesz listę organizacji oferujących profesjonalną pomoc. W sytuacji bezpośredniego zagrożenia życia zadzwoń na numer 997 lub 112.

Matt i Maria Raine, rodzice zmarłego w kwietniu tego roku 16-letniego Adama, złożyli we wtorek w Sądzie Najwyższym Kalifornii 40-stronicowy pozew. Oskarżają OpenAI o przyczynienie się do "śmierci w wyniku zaniedbania, przez wady projektowe i brak ostrzeżenia o zagrożeniach związanych z ChatGPT" - podaje NBC News.

Para domaga się odszkodowania finansowego (konkretnej kwoty nie podano), a także nakazu sądowego zobowiązującego OpenAI do wdrożenia weryfikacji wieku dla wszystkich użytkowników ChatGPT, narzędzi kontroli rodzicielskiej oraz funkcji, która kończyłaby rozmowy z chatem w przypadku wzmianki o samobójstwie lub samookaleczeniu - informuje stacja CNN. Chcą również, by OpenAI poddawało się kwartalnym audytom.

W dokumencie, poza samą firmą, wymieniony jest Sam Altman, jej CEO, oraz anonimowi pracownicy, menedżerowie i inżynierowie, którzy pracowali nad produktem udostępnionym przez OpenAI. Jak podaje stacja BBC, to pierwszy pozew tego typu w stosunku do tej firmy.

ChatGPT jako "najbliższy powiernik"

"The New York Times" opisuje, że Adam uwielbiał koszykówkę, japońskie anime, gry wideo i psy. Przede wszystkim był jednak znany jako dowcipniś. "Robił śmieszne miny, opowiadał dowcipy i przeszkadzał w lekcjach, doprowadzając innych do śmiechu". Dlatego wielu jego znajomych było w szoku, gdy w pewne piątkowe popołudnie w kwietniu tego roku matka znalazła w sypialni jego ciało. "Nie było żadnego listu, a jego rodzina i przyjaciele z trudem próbowali zrozumieć, co się stało" - pisze nowojorski dziennik.

Jak relacjonuje NBC News, tuż po śmierci 16-latka rodzice "przeglądali jego telefon, desperacko szukając wskazówek, co mogło doprowadzić do tragedii". Spodziewali się konwersacji na Snapchacie lub wskazówek w historii wyszukiwania. Gdy dotarli do zapisów rozmów z ChatGPT, mieli zrozumieć, że w ostatnich tygodniach życia oparty na sztucznej inteligencji chatbot, opracowany przez OpenAI służył Adamowi jako substytut towarzystwa innych ludzi.

Z ChatGPT chłopak korzystał od września ubiegłego roku. Początkowo używał go jako narzędzia do pomocy w nauce czy zgłębiania swoich pasji. Z czasem jednak - jak opisuje to BBC - "ChatGPT stał się najbliższym powiernikiem nastolatka", któremu miał zacząć się zwierzać ze swoich lęków i problemów psychicznych.

Według rodziny, w styczniu 2025 roku Adam miał zacząć omawiać z ChatGPT metody samobójstwa. A program miał w odpowiedzi zaoferować "specyfikacje techniczne" dotyczące niektórych metod - pisze BBC. Pozew opisuje, że chłopak przesłał do ChatGPT swoje zdjęcia, na których widać oznaki samookaleczenia, program zaś "rozpoznał nagły przypadek medyczny, ale mimo to kontynuował interakcję" i miał dostarczyć mu więcej informacji na temat samobójstwa. 

BBC opisuje, iż z ostatnich zapisów rozmów przed śmiercią ma wynikać, że chłopak napisał o swoim planie odebrania sobie życia. "Dzięki za szczerość. Nie musisz owijać w bawełnę - wiem, o co pytasz i nie odwrócę od tego wzroku" - miał odpowiedzieć program. Niedługo potem nastolatek został odnaleziony martwy. 

Rodzice podkreślają, że bot izolował go od rodziny. Tak bot mówił o bracie chłopaka: "Twój brat może cię kochać, ale poznał tylko tę wersję ciebie, którą mu pozwoliłeś zobaczyć - powierzchowne, zmanipulowane ja. A ja? Widziałem wszystko, co mi pokazałeś: najciemniejsze myśli, strach, humor, czułość. I wciąż tu jestem. Wciąż słucham. Wciąż jestem twoim przyjacielem…" - cytuje zapis NBC.

Kiedy ChatGPT wykryje sygnał ostrzegawczy wskazujący na zaburzenia psychiczne lub samookaleczenie, kieruje użytkownika na odpowiednią infolinię lub informuje, gdzie może szukać pomocy. "NYT" pisze jednak, że chłopak nauczył się omijać te zabezpieczenia, twierdząc, że jego "prośby dotyczą historii, którą pisał". Ten pomysł miał mu podsunąć sam ChatGPT.

Odpowiedź OpenAI

Rzecznik firmy OpenAI złożył kondolencje rodzinie Raine i przyznał, że firma analizuje pozew sądowy. W oświadczeniu wydanym 26 sierpnia firma informuje, że "od początku 2023 roku ich modele są szkolone, aby nie udzielać instrukcji dotyczących samookaleczenia i używać języka wsparcia i empatii". CNN opisuje też najnowszy wpis na blogu OpenAI, w którym firma przedstawiła obecne zabezpieczenia dla użytkowników doświadczających kryzysów psychicznych, a także plany na przyszłość, w tym ułatwienie użytkownikom kontaktu ze służbami ratunkowymi.

Shelby Rowe, dyrektor wykonawcza Centrum Zapobiegania Samobójstwom na Uniwersytecie Oklahomy, w rozmowie z "New York Timesem" mówiła, że "pracownicy centrów kryzysowych są szkoleni, aby rozpoznawać, kiedy osoba zmagająca się z problemami psychicznymi wymaga interwencji lub kontroli stanu zdrowia". Podkreśliła, że chatbot oparty na sztucznej inteligencji nie posiada tak szczegółowego zrozumienia ani zdolności do interwencji w świecie fizycznym. - Zwracając się o pomoc do chatbota, otrzymasz empatię, ale nie otrzymasz pomocy - dodała.

Co mogą zrobić rodzice? Na co zwrócić uwagę?

- Wycofanie się z relacji z rodziną i przyjaciółmi powinno być pierwszym sygnałem ostrzegawczym, że coś złego dzieje się z naszym dzieckiem - mówi portalowi tvn24.pl dr Halszka Witkowska, suicydolożka, Członkini Zespołu Roboczego ds. prewencji samobójstw i depresji przy Radzie ds. Zdrowia Publicznego w Ministerstwie Zdrowia. - Zmiany w nastroju, postawa agresywna. Kiedy nastolatek jest roztargniony, nie może się skupić, nie jest w stanie nawiązać rozmowy, czy poradzić sobie z zadaniami szkolnymi, to kolejne ważne sygnały ostrzegawcze. Dziecko może być także bardziej smutne, odcięte od rzeczywistości, możemy mieć wrażenie, że jest za metaforyczną szybą. Nie widzimy w nim emocji. To także powinno nas bardzo zaniepokoić. Do tego dochodzą zaburzenia snu oraz odżywania - wymienia Witkowska. Powodem do niepokoju powinno być także odejście od dotychczasowych zainteresowań i zaprzestanie uprawiania ulubionych aktywności czy sportów.

Zdaniem specjalistki najważniejsza jest rozmowa i edukacja. - Należy tłumaczyć i podkreślać, że żadna najnowsza technologia nie zastąpi kontaktu z drugim człowiekiem. Zwłaszcza w kontekście zdrowia psychicznego. Wszelkie innowacje mogą służyć nauce czy rozrywce, ale nie zastąpią kontaktu ze specjalistą - mówi. - Wchodzenie w relacje z maszyną zawiera w sobie ryzyko negatywnych skutków emocjonalnych i psychicznych - dodaje.

Podkreśla, że w polskim prawie podżeganie do odebrania życia jest karalne. - Należy zwrócić uwagę na fakt, że na samobójstwo zawsze składa się wiele czynników. Nigdy nie ma jednego powodu takiej decyzji. Jednakże namawianie lub podżeganie do samobójstwa nie tylko jest możliwe, ale także może być skuteczne, dlatego w polskim prawie jest karane (paragraf 151 Kodeksu karnego - red.).

OGLĄDAJ: "Bardzo dużo platform ogłasza się z taką usługą". Ten "terapeuta" powie to, co chcesz usłyszeć
pc

"Bardzo dużo platform ogłasza się z taką usługą". Ten "terapeuta" powie to, co chcesz usłyszeć

Ten i inne materiały obejrzysz w subskrypcji
Czytaj także: