Dziecko uciekające przed dinozaurem przy piosence Lady Gagi. Koty tańczące na tylnych łapach w modnych ubraniach. Nagranie z policyjnej kamery, na którym funkcjonariusze aresztują... makaron z serem.
AI ma wkroczyć do mediów społecznościowych
Tak wygląda nowa aplikacja Sora od OpenAI, która ma wprowadzić AI do świata krótkich wideo. Nie tylko oni jednak eksperymentują. W Stanach Zjednoczonych Instagram pozwala już rozmawiać z wirtualnymi postaciami w prywatnych wiadomościach, a AI Alive od TikToka, dostępna w niektórych krajach, potrafi zamienić zdjęcie w film jednym kliknięciem.
To element wyścigu, który może zdefiniować przyszłość internetu. Technologiczni giganci szukają sposobu, by na sztucznej inteligencji wreszcie zarobić - choć coraz częściej mówi się o groźbie pęknięcia "bańki AI". Jednocześnie wpychanie algorytmów do mediów społecznościowych budzi rosnące obawy: od naruszania praw autorskich po zalew fałszywych, hiperrealistycznych treści.
Zaledwie kilka dni po premierze Sory prezes Motion Picture Association Charles Rivkin ostrzegł, że "filmy naruszające prawa autorskie naszych członków rozprzestrzeniają się w serwisie OpenAI i w całych mediach społecznościowych".
W odpowiedzi Sam Altman, szef OpenAI, zapowiedział, że twórcy wkrótce zyskają większą kontrolę nad generowaniem postaci, a firma rozważa nowy model dzielenia się przychodami. Próby stworzenia filmów z udziałem postaci takich jak Pikachu czy SpongeBob kończą się dziś komunikatem o naruszeniu zasad.
Rosną obawy o dezinformację
Nie ustają też obawy o dezinformację. Nowe narzędzia, zdolne generować realistyczne wideo, tylko je pogłębiają. Jak pokazały testy redakcji CNN, znaki wodne informujące o pochodzeniu filmu można łatwo usunąć.
OpenAI zapewnia, że Sora oznacza materiały cyfrowym podpisem C2PA, który pozwala zweryfikować źródło wideo, a także rozpoznaje wizerunki osób publicznych, by ograniczyć ryzyko deepfake’ów. Meta stosuje podobne zabezpieczenia - "niewidzialne" znaki wodne i etykiety informujące o treściach generowanych przez AI.
Coraz częściej mówi się też o wpływie chatbotów na psychikę nastolatków. Seria pozwów sugeruje, że wirtualne postacie z aplikacji Character.AI mogły przyczynić się do problemów emocjonalnych i samobójstw wśród młodych użytkowników. OpenAI podkreśla, że Sora ma wbudowane silniejsze zabezpieczenia - ogranicza treści dla dorosłych i uniemożliwia dorosłym inicjowanie rozmów z nastolatkami. Meta z kolei blokuje dorosłych o podejrzanym zachowaniu przed kontaktami z młodszymi użytkownikami.
"Pozostaje jeszcze pytanie, czy użytkownicy w ogóle chcą, by ich feedy zalewała 'AI-papka'. W zalewie przypadkowych treści generowanych przez Sorę i Meta AI nie ma nic, co zachęcałoby do bezmyślnego przewijania bez końca" - pisze CNN.
Sporo zamieszania
Sam pomysł połączenia mediów społecznościowych z asystentami AI już na początku roku wywołał sporo zamieszania. Część użytkowników Meta AI nie zdawała sobie sprawy, że ich rozmowy z chatbotem - w których poruszali nawet osobiste kwestie, takie jak zdrowie czy sprawy prawne - mogą trafiać do publicznego feedu aplikacji. Meta tłumaczyła wówczas, że czaty są domyślnie prywatne i nie pojawiają się w zakładce Discover, chyba że użytkownik sam udostępni je w kilku krokach.
Warto jednak zauważyć, że celem aplikacji Sora i Meta AI nie jest zachęcenie użytkowników do tworzenia własnych filmów przy pomocy narzędzi OpenAI i Meta, ale to, by prawdopodobnie przyciągnąć nowe pokolenie influencerów i twórców internetowych, którzy coraz chętniej sięgają po sztuczną inteligencję.
Autorka/Autor: mp
Źródło: CNN
Źródło zdjęcia głównego: Shutterstock