Wielki eksperyment technologicznych gigantów

telefony komorkowe smartphony shutterstock_2510921599
Max Kidruk: jesteśmy wciąż dziesięciolecia, a może nawet stulecia od prawdziwej inteligencji maszyn
Źródło: TVN24
Giganci technologiczni coraz śmielej eksperymentują z połączeniem sztucznej inteligencji i mediów społecznościowych. Pierwsze efekty tych prób pokazują jednak, że droga do nowej cyfrowej rewolucji może być dłuższa, niż się spodziewano.

Dziecko uciekające przed dinozaurem przy piosence Lady Gagi. Koty tańczące na tylnych łapach w modnych ubraniach. Nagranie z policyjnej kamery, na którym funkcjonariusze aresztują... makaron z serem.

AI ma wkroczyć do mediów społecznościowych

Tak wygląda nowa aplikacja Sora od OpenAI, która ma wprowadzić AI do świata krótkich wideo. Nie tylko oni jednak eksperymentują. W Stanach Zjednoczonych Instagram pozwala już rozmawiać z wirtualnymi postaciami w prywatnych wiadomościach, a AI Alive od TikToka, dostępna w niektórych krajach, potrafi zamienić zdjęcie w film jednym kliknięciem.

To element wyścigu, który może zdefiniować przyszłość internetu. Technologiczni giganci szukają sposobu, by na sztucznej inteligencji wreszcie zarobić - choć coraz częściej mówi się o groźbie pęknięcia "bańki AI". Jednocześnie wpychanie algorytmów do mediów społecznościowych budzi rosnące obawy: od naruszania praw autorskich po zalew fałszywych, hiperrealistycznych treści.

Zaledwie kilka dni po premierze Sory prezes Motion Picture Association Charles Rivkin ostrzegł, że "filmy naruszające prawa autorskie naszych członków rozprzestrzeniają się w serwisie OpenAI i w całych mediach społecznościowych".

W odpowiedzi Sam Altman, szef OpenAI, zapowiedział, że twórcy wkrótce zyskają większą kontrolę nad generowaniem postaci, a firma rozważa nowy model dzielenia się przychodami. Próby stworzenia filmów z udziałem postaci takich jak Pikachu czy SpongeBob kończą się dziś komunikatem o naruszeniu zasad.

Rosną obawy o dezinformację

Nie ustają też obawy o dezinformację. Nowe narzędzia, zdolne generować realistyczne wideo, tylko je pogłębiają. Jak pokazały testy redakcji CNN, znaki wodne informujące o pochodzeniu filmu można łatwo usunąć.

OpenAI zapewnia, że Sora oznacza materiały cyfrowym podpisem C2PA, który pozwala zweryfikować źródło wideo, a także rozpoznaje wizerunki osób publicznych, by ograniczyć ryzyko deepfake’ów. Meta stosuje podobne zabezpieczenia - "niewidzialne" znaki wodne i etykiety informujące o treściach generowanych przez AI.

Coraz częściej mówi się też o wpływie chatbotów na psychikę nastolatków. Seria pozwów sugeruje, że wirtualne postacie z aplikacji Character.AI mogły przyczynić się do problemów emocjonalnych i samobójstw wśród młodych użytkowników. OpenAI podkreśla, że Sora ma wbudowane silniejsze zabezpieczenia - ogranicza treści dla dorosłych i uniemożliwia dorosłym inicjowanie rozmów z nastolatkami. Meta z kolei blokuje dorosłych o podejrzanym zachowaniu przed kontaktami z młodszymi użytkownikami.

"Pozostaje jeszcze pytanie, czy użytkownicy w ogóle chcą, by ich feedy zalewała 'AI-papka'. W zalewie przypadkowych treści generowanych przez Sorę i Meta AI nie ma nic, co zachęcałoby do bezmyślnego przewijania bez końca" - pisze CNN.

Sporo zamieszania

Sam pomysł połączenia mediów społecznościowych z asystentami AI już na początku roku wywołał sporo zamieszania. Część użytkowników Meta AI nie zdawała sobie sprawy, że ich rozmowy z chatbotem - w których poruszali nawet osobiste kwestie, takie jak zdrowie czy sprawy prawne - mogą trafiać do publicznego feedu aplikacji. Meta tłumaczyła wówczas, że czaty są domyślnie prywatne i nie pojawiają się w zakładce Discover, chyba że użytkownik sam udostępni je w kilku krokach.

Warto jednak zauważyć, że celem aplikacji Sora i Meta AI nie jest zachęcenie użytkowników do tworzenia własnych filmów przy pomocy narzędzi OpenAI i Meta, ale to, by prawdopodobnie przyciągnąć nowe pokolenie influencerów i twórców internetowych, którzy coraz chętniej sięgają po sztuczną inteligencję.

TVN24 HD
Dowiedz się więcej:

TVN24 HD

Zobacz także: