Jeśli doświadczasz problemów emocjonalnych i chciałbyś uzyskać poradę lub wsparcie, tutaj znajdziesz listę organizacji oferujących profesjonalną pomoc. W sytuacji bezpośredniego zagrożenia życia zadzwoń na numer 997 lub 112.
W środę w sądzie poinformowano, że firmy zgodziły się na ugodę w sprawie zarzutów Megan Garcii, że jej syn Sewell Setzer popełnił samobójstwo wkrótce po tym, jak zachęcił go do tego chatbot Character.AI, wzorowany na postaci Daenerys Targaryen z serialu "Gra o tron".
Jedna z pierwszych takich spraw przeciwko AI
Warunki ugody nie zostały jeszcze ujawnione. Pozew był jednym z pierwszych w USA przeciwko firmie zajmującej się sztuczną inteligencją, która miała nie zapewnić dzieciom ochrony przed szkodami psychicznymi.
Firmy zawarły ugody w podobnych sprawach wniesionych przez rodziców z Kolorado, Nowego Jorku i Teksasu w sprawie szkód wyrządzonych nieletnim przez chatboty, jak wynika z dokumentów sądowych - przekazał Reuters.
W pozwie złożonym na Florydzie w październiku 2024 roku Garcia stwierdziła, że firma Character.AI zaprogramowała swoje chatboty tak, aby przedstawiały się jako "prawdziwa osoba, licencjonowany psychoterapeuta i dorosły kochanek, co ostatecznie sprawiło, że Sewell nie chciał dłużej żyć" poza wirtualnym światem.
Możliwe kolejne pozwy przeciwko OpenAI
Character.AI zostało założone przez dwóch byłych inżynierów Google, których Google później ponownie zatrudniło w ramach umowy przyznającej licencję na technologię startupu. Garcia argumentowała, że Google było współtwórcą tej technologii.
Sędzia Sądu Okręgowego USA Anne Conway odrzuciła w maju wniosek firm o umorzenie sprawy, odrzucając ich argument, że ochrona wolności słowa zagwarantowana w Konstytucji Stanów Zjednoczonych uniemożliwia pozew Garcii.
OpenAI stoi w obliczu odrębnego pozwu złożonego w grudniu w związku z domniemaną rolą ChatGPT w nakłonieniu chorego psychicznie mężczyzny z Connecticut do zabicia matki i popełnienia samobójstwa.
Monetyzacja samotności
Na zagrożenia, jakie idą wraz z rozwojem sztucznej inteligencji zwracała uwagę w tekście Mai Piotrowskiej Zofia Dzik, prezeska Instytutu Humanites - Człowiek i Technologia, think tanku zajmującego się relacjami między społeczeństwem, technologią i biznesem. - Dziś firmy technologiczne działają pod gigantyczną presją inwestorów: jak zmonetyzować poniesione nakłady? I to, moim zdaniem, jest smutny zwrot akcji. Zamiast szukać rozwiązań naprawdę istotnych - dla nauki, klimatu czy walki z dezinformacją - idą w kierunku produktów, które ludziom nie służą, a wręcz ich degradują - komentowała.
- To wciąż temat tabu. I właśnie dlatego mamy problem, żeby to dobrze uchwycić w badaniach. Ludzie, którzy wchodzą w bliższe relacje z chatbotami - może nie nazwijmy tego od razu "miłością", ale już na pewno przyjaźnią, transferem intymnych informacji, codziennymi i coraz głębszymi interakcjami - rzadko się do tego przyznają. Wiedzą, że to bywa społecznie niezręczne. W efekcie skali zjawiska tak naprawdę nie jesteśmy w stanie dobrze pojąć - przyznał w rozmowie z TVN24+ dr Konrad Maj psycholog społeczny z Uniwersytetu SWPS. który od lat bada wpływ technologii na psychikę i relacje społeczne.
Pomimo trudności próbę uchwycenia skutków takiej zażyłości podjęli badacze z amerykańskiego Massachusetts Institute of Technology (MIT). Poprosili uczestników, by przez 28 dni codziennie rozmawiali z ChatGPT - choćby przez kilka minut. Potem porównali, jak zmienia się ich nastrój i relacje z innymi. Wyniki były niepokojące: im częściej ktoś sięgał po rozmowę z chatbotem, tym częściej deklarował poczucie samotności. I tym rzadziej kontaktował się z prawdziwymi ludźmi.
Autorka/Autor: asty/ams
Źródło: Reuters
Źródło zdjęcia głównego: Ascannio / Shutterstock