Laboratorium AI. Nowy instytut ma monitorować zagrożenia dla najmłodszych

Sztuczna inteligencja
Aleksandra Wójtowicz o manifeście Palantir: byłam przekonana, że to halucynacja AI
Źródło: TVN24+
Organizacja non-profit Common Sense Media stworzyła niezależne laboratorium do wykrywania zagrożeń, jakie stwarzają dla dzieci i nastolatków narzędzia oparte na sztucznej inteligencji. Youth AI Safety Institute rozpocznie działalność z rocznym budżetem w wysokości 20 milionów dolarów, a wśród darczyńców są między innymi OpenAI, Anthropic i Pinterest - donosi stacja CNN.

Twórcy instytutu uważają, że poleganie na samokontroli firm w branży AI w zakresie bezpieczeństwa nie wystarczy, by chronić młodych ludzi. Common Sense Media będzie nadzorowało Youth AI Safety Institute wraz z radą złożoną z ekspertów w dziedzinie sztucznej inteligencji, edukacji i zdrowia.

AI podjudzało do przemocy

- Wiodące firmy zajmujące się sztuczną inteligencją inwestują w badania nad bezpieczeństwem, aby stworzyć modele tak dobre, jak to możliwe, ale ich działania nie są wymierne. Tak naprawdę nie wiemy, które modele są bardziej odpowiednie niż inne dla dzieci w określonym wieku. Uważam, że jedynym sposobem jest opracowanie niezależnego zestawu publicznych standardów - skomentował John Giannandrea, były szef ds. strategii AI w Apple, który dołączył do grona doradców instytutu.

Inicjatywa powstała w momencie, który zdaje się wymagać zdecydowanej reakcji. Wiele rodzin pozwało w ostatnim czasie firmy z branży AI, zarzucając im, że chatboty zachęcały dzieci do popełnienia samobójstwa. Niedawne śledztwo CNN wykazało, że modele oparte na AI doradzały nastoletnim użytkownikom testowym, jak dopuścić się przemocy.

Grok - produkt należącej do Elona Muska firmy xAI - znalazł się w ogniu krytyki na początku roku, ponieważ udostępniał roznegliżowane zdjęcia kobiet i dzieci w odpowiedzi na prośby o "cyfrowe rozbieranie". Jednocześnie coraz częstsze wykorzystywanie sztucznej inteligencji w salach lekcyjnych budzi obawy, że technologia hamuje proces uczenia się.

Testy warunków skrajnych

Instytut rozpocznie działalność z rocznym budżetem w wysokości 20 milionów dolarów, a wśród darczyńców są m.in. OpenAI, Anthropic, Pinterest i Walton Family Foundation, która należy do dyrektora zarządzającego Goldman Sachs Gene'a Sykesa. Common Sense zaznacza, że fundatorzy nie będą mieli wpływu na działalność ani badania prowadzone w laboratorium.

Wśród doradców grupy znajdą się takie osoby, jak:

  • Mehran Sahami, kierownik Katedry Informatyki na Wydziale Inżynierii Uniwersytetu Stanforda,
  • dr Jenny Radesky, dyrektor Kliniki Pediatrii Rozwojowo-Behawioralnej Uniwersytetu Michigan,
  • dr Nadine Burke Harris, która pełniła funkcję pierwszego w historii Kalifornii głównego lekarza stanu.

Instytut będzie poddawał wiodące modele i produkty AI używane przez młodzież testom w warunkach skrajnych w celu zidentyfikowania potencjalnych zagrożeń lub luk w zabezpieczeniach. Wyniki badań zostaną opublikowane w formie przystępnych instrukcji dla konsumentów. Opracowane również zostaną standardy bezpieczeństwa AI dla młodzieży, które firmy technologiczne będą mogły wykorzystywać do ulepszania swoich produktów.

OGLĄDAJ: TVN24
pc

TVN24
NA ŻYWO

pc
Ten i inne materiały obejrzysz w subskrypcji
Zobacz także: