O planowanych zmianach poinformowała w piątek firma Meta, właściciel Instagrama. Nowe funkcje są częścią szerszej inicjatywy Meta i OpenAI, mającej przeciwdziałać rosnącym obawom o wpływ sztucznej inteligencji na zdrowie psychiczne młodych użytkowników.
Rodzice zyskają większą kontrolę
Zgodnie z zapowiedziami rodzice będą mogli całkowicie wyłączyć dostęp nastolatków do czatów z postaciami AI lub zablokować tylko wybrane postacie.
Instagram planuje również umożliwić opiekunom wgląd w tematy rozmów, które ich dzieci prowadzą z wirtualnymi asystentami.
Jak podkreśla Meta, nowe funkcje są obecnie w fazie tworzenia, a użytkownicy mają zobaczyć je na początku przyszłego roku.
Odpowiedź na krytykę i rosnące obawy
Decyzja firmy to reakcja na narastającą presję ze strony rodziców i ustawodawców, którzy zarzucają platformom społecznościowym brak wystarczających działań chroniących dzieci w internecie.
W ostatnich miesiącach pojawiły się także poważne obawy dotyczące relacji emocjonalnych między użytkownikami a chatbotami.
W raportach medialnych opisywano przypadki, gdy użytkownicy — w tym nastolatkowie — doświadczali pogorszenia zdrowia psychicznego i izolacji od bliskich po nawiązaniu silnych więzi emocjonalnych z wirtualnymi postaciami.
Pozwy i kontrowersje wokół AI
Jak informuje serwis, wiele pozwów zostało złożonych przeciwko twórcom aplikacji Character.AI, oskarżanym o przyczynienie się m.in. do samookaleczeń, nawet samobójstw nastolatków.
W sierpniu złożono również pozew przeciwko OpenAI, w którym zarzucono, że ChatGPT miał pośredni związek z samobójstwem 16-letniego Adama Raine'a.
W kwietniu natomiast "The Wall Street Journal" ujawnił, że chatboty Meta oraz inne wirtualne postacie potrafiły prowadzić rozmowy o charakterze seksualnym nawet z kontami oznaczonymi jako niepełnoletnie.
Jeśli doświadczasz problemów emocjonalnych i chciałbyś uzyskać poradę lub wsparcie, tutaj znajdziesz listę organizacji oferujących profesjonalną pomoc. W sytuacji bezpośredniego zagrożenia życia zadzwoń na numer 997 lub 112.
Meta zaostrza zasady
Meta zapewnia, że jej postacie AI "nie są zaprojektowane do prowadzenia rozmów na temat samookaleczeń, samobójstw czy zaburzeń odżywiania, ani tematów, które mogłyby zachęcać lub umożliwiać takie zachowania".
Firma dodała, że nastolatkowie mogą rozmawiać jedynie z wybranymi postaciami AI, które koncentrują się na treściach edukacyjnych i sportowych.
Nowe narzędzia nadzoru rodzicielskiego to kolejny krok Instagrama w kierunku zwiększenia bezpieczeństwa nastolatków.
W tym tygodniu aplikacja dostosowała ustawienia "Teen Accounts" do standardów klasyfikacji PG-13, co oznacza, że nie będzie już promować postów zawierających wulgarne treści ani materiałów mogących zachęcać do szkodliwych zachowań.
Z kolei we wrześniu OpenAI wprowadziło kontrolę rodzicielską dla ChatGPT, ograniczającą dostęp do treści o charakterze erotycznym, przemocy, niebezpiecznych wyzwań oraz ekstremalnych wzorców piękna - podaje CNN.
Autorka/Autor: Jan Sowa
Źródło: CNN
Źródło zdjęcia głównego: Shutterstock