|

"Wpadka technologii"? Chatboty kłamią, bo im w tym pomagamy

Eksperci przestrzegają: sztuczna inteligencja nie odróżnia prawdy od dominującej narracji
Eksperci przestrzegają: sztuczna inteligencja nie odróżnia prawdy od dominującej narracji
Źródło: Nahal Farzaneh/PAP/EPA, Shutterstock
Płonący Teheran jako Los Angeles, Glasgow jako Tel Awiw - wielu jest zdumionych, jak chatboty kłamią przy weryfikacji treści dotyczących konfliktu na Bliskim Wschodzie. Tymczasem sztuczna inteligencja, u której szukamy pomocy podczas masowej dezinformacji, również dzięki nam ją tworzy. Artykuł dostępny w subskrypcji

Płonie kilkupiętrowy budynek, wozy strażackie polewają go wodą, ale widać, że straty będą nieodwracalne. W opisie nagrania po turecku czytamy: "Trwa akcja gaszenia pożaru w Tel Awiwie, mieście oświetlonym irańskimi rakietami". Data się zgadza: 9 marca 2026 roku. Czyli cel trafiony przez irańskie rakiety.

Muhammad Shakeel, internauta z Pakistanu, sprawdza jednak tę informację. Pyta Groka, narzędzie sztucznej inteligencji oferowane przez firmę xAI Elona Muska: "Grok, co o tym myślisz?". Program potwierdza, że to scena z Izraela: "Film przedstawia strażaków walczących z dużym pożarem w budynku w Tel Awiwie (...) – zgodnie z doniesieniami o uderzeniach irańskich pocisków rakietowych podczas trwającego konfliktu między Stanami Zjednoczonymi i Izraelem a Iranem". Podaje źródła: "Wiadomości z CNN, Reuters, Al Jazeera". Czyli można wierzyć...

FAŁSZ
Grok fałszywie potwierdził, że "to scena z Izraela", podczas gdy widzimy Szkocję
Grok fałszywie potwierdził, że "to scena z Izraela", podczas gdy widzimy Szkocję
Źródło: x.com

A może jednak nie? Bo CNN i Reuters rzeczywiście opisały ten pożar, podając jednak, że to dworzec w szkockim Glasgow. Grok przyznaje się do błędu dopiero po uwagach internautów. Przeprasza, a pytany o powód pomyłki, stwierdza: "Film krążył w serwisie X w związku z doniesieniami o uderzeniu w Tel Awiwie w trakcie konfliktu".

O co tu chodzi? Podczas gdy wielu z nas wierzy w nieomylność narzędzi sztucznej inteligencji, eksperci nie. Wiedzą, dlaczego w przypadku takiej dezinformacji, jak na temat walk na Bliskim Wschodzie, narzędzia AI są często skazane na przegraną.

Czytaj także: