"Sto milisekund". Dlaczego to tak niebezpieczne

"Prawilne Polki", eurokołchoz i polexit. Antyunijna propaganda napędzana przez AI
Maja Herman o zagrożeniach sztucznej inteligencji i decyzji "podjętej w sto milisekund"
Źródło: TVN24
Czy jesteśmy odporni na propagandowe przekazy wygenerowane za pomocą sztucznej inteligencji? O faktach naukowych i sposobach ochrony przed zagrożeniami w sieci mówiła w TVN24 psychiatrka Maja Herman. Jak przekazała, decyzję o tym, czy kogoś posłuchamy, podejmujemy już w "sto milisekund".

We wtorek w TVN24 Maja Herman, psychiatrka i influencerka dzieląca się w mediach społecznościowych swoją wiedzą, mówiła o zagrożeniach związanych z wykorzystaniem sztucznej inteligencji. Była pytana między innymi o wygenerowaną za jej pomocą serię nagrań przedstawiającą młode, atrakcyjne kobiety, przedstawiające się jako Polki i zachwalające w internecie korzyści wyjścia Polski z Unii Europejskiej.

Sprawę nagrań, które zdobywały po setki tysięcy wyświetleń opisał w grudniu dziennikarz Konkret24 Michał Istel.

Jak przyznała Herman, wygenerowane bohaterki materiałów wyglądają bardzo wiarygodnie. - Mówię w takim znaczeniu, że są ideałem każdej nastolatki, bo one są przepiękne (...). Są jeszcze w tym kanonie urody, który aktualnie jest dominujący - powiedziała.

Sto milisekund na podjęcie decyzji

Ekspertka pytana, czy jesteśmy wobec tego bezbronni na tego typu przekazy, powołała się na badania naukowe z 2006 roku, według których "decyzję o tym, czy ktoś jest dla nas kompetentny, atrakcyjny i sensowny, i czy będziemy go słuchać, podejmujemy w sto milisekund".

Zaznaczyła, że decyzja nie musi być zgodna z prawdą, jednak mimo to mózg zapamiętuje naszą pierwszą myśl. Jak wyjaśniła Herman, zjawisko to nazywa się heurystyką i jest błędem poznawczym.

Psychiatrka była dalej pytana, na kogo ma oddziaływać przekaz głoszony przez te wygenerowane Polki. - Ta młoda dziewczyna akurat celuje w inne młode dziewczyny lub w starszych mężczyzn, dlatego że to nie jest przekaz, który trafił do tych najmłodszych chłopców. Oni wcale nie są zainteresowani takim przekazem - wyjaśniła.

Tłumaczyła następnie, że algorytm mediów społecznościowych jest dopasowany do naszej grupy wiekowej. Z tego powodu - jak mówiła Herman - w celu wpłynięcia na osoby dorosłe użyto by innej wygenerowanej postaci. - Kogoś statecznego, spokojnego, stonowanego, być może z okularami, w marynarce - wymieniała.

Zagrożenia sztucznej inteligencji

Czy wygenerowane za pomocą sztucznej inteligencji przekazy skutecznie na nas wpływają? - Skuteczność pojawia się w momencie, gdy jest tego bardzo dużo i często jest powtarzane. Tak działa nasz mózg - wyjaśniła Herman.

Dodała też, że sposobem na uchronienie się od wpływu propagandowych przekazów jest edukacja i krytyczne myślenie. Ekspertka zastrzegła jednak, że nie jest łatwo nauczyć się myśleć w taki sposób, ponieważ czynność ta kosztuje mózg dużo energii.

Psychiatrka była też pytana o trend, który niedawno pojawił się na platformie X, gdzie zaczęły pojawiać się wygenerowane przez Groka, modelu Elona Muska, zdjęcia przedstawiające skąpo ubrane lub całkiem rozebrane osoby, zarówno publiczne, jak i prywatne.

Część z tych zdjęć przedstawiała dzieci. Osoby na zdjęciach nie wyrażały na to zgody, a często nawet nie miały świadomości tego, że ich wizerunki zostały w ten sposób przerobione. Okazało się, że Grok - chatbot oparty na sztucznej inteligencji - na polecenie użytkowników był w stanie przerabiać zdjęcia ze zwykłych na rozebrane bądź w trakcie czynności seksualnych.

Doświadczenia w tym aspekcie miała też sama Herman. Jak wspominała, pod jednym z jej wpisów ktoś polecił Grokowi, aby wygenerować jej zdjęcie w bikini - stało się tak, mimo że dodała regułę, która miała blokować to działanie. - I teraz co? Minie pół roku, wszyscy zapomną, że to była sytuacja chwilowa i Grok szalał - skwitowała.

OGLĄDAJ: Obejrzyj, zanim ktoś użyje twojego głosu lub twarzy
pc

Obejrzyj, zanim ktoś użyje twojego głosu lub twarzy

Ten i inne materiały obejrzysz w subskrypcji
Czytaj także: