Twórcy instytutu uważają, że poleganie na samokontroli firm w branży AI w zakresie bezpieczeństwa nie wystarczy, by chronić młodych ludzi. Common Sense Media będzie nadzorowało Youth AI Safety Institute wraz z radą złożoną z ekspertów w dziedzinie sztucznej inteligencji, edukacji i zdrowia.
AI podjudzało do przemocy
- Wiodące firmy zajmujące się sztuczną inteligencją inwestują w badania nad bezpieczeństwem, aby stworzyć modele tak dobre, jak to możliwe, ale ich działania nie są wymierne. Tak naprawdę nie wiemy, które modele są bardziej odpowiednie niż inne dla dzieci w określonym wieku. Uważam, że jedynym sposobem jest opracowanie niezależnego zestawu publicznych standardów - skomentował John Giannandrea, były szef ds. strategii AI w Apple, który dołączył do grona doradców instytutu.
Inicjatywa powstała w momencie, który zdaje się wymagać zdecydowanej reakcji. Wiele rodzin pozwało w ostatnim czasie firmy z branży AI, zarzucając im, że chatboty zachęcały dzieci do popełnienia samobójstwa. Niedawne śledztwo CNN wykazało, że modele oparte na AI doradzały nastoletnim użytkownikom testowym, jak dopuścić się przemocy.
Grok - produkt należącej do Elona Muska firmy xAI - znalazł się w ogniu krytyki na początku roku, ponieważ udostępniał roznegliżowane zdjęcia kobiet i dzieci w odpowiedzi na prośby o "cyfrowe rozbieranie". Jednocześnie coraz częstsze wykorzystywanie sztucznej inteligencji w salach lekcyjnych budzi obawy, że technologia hamuje proces uczenia się.
Testy warunków skrajnych
Instytut rozpocznie działalność z rocznym budżetem w wysokości 20 milionów dolarów, a wśród darczyńców są m.in. OpenAI, Anthropic, Pinterest i Walton Family Foundation, która należy do dyrektora zarządzającego Goldman Sachs Gene'a Sykesa. Common Sense zaznacza, że fundatorzy nie będą mieli wpływu na działalność ani badania prowadzone w laboratorium.
Wśród doradców grupy znajdą się takie osoby, jak:
- Mehran Sahami, kierownik Katedry Informatyki na Wydziale Inżynierii Uniwersytetu Stanforda,
- dr Jenny Radesky, dyrektor Kliniki Pediatrii Rozwojowo-Behawioralnej Uniwersytetu Michigan,
- dr Nadine Burke Harris, która pełniła funkcję pierwszego w historii Kalifornii głównego lekarza stanu.
Instytut będzie poddawał wiodące modele i produkty AI używane przez młodzież testom w warunkach skrajnych w celu zidentyfikowania potencjalnych zagrożeń lub luk w zabezpieczeniach. Wyniki badań zostaną opublikowane w formie przystępnych instrukcji dla konsumentów. Opracowane również zostaną standardy bezpieczeństwa AI dla młodzieży, które firmy technologiczne będą mogły wykorzystywać do ulepszania swoich produktów.
Źródło: CNN
Źródło zdjęcia głównego: Adobe Stock