Płonie kilkupiętrowy budynek, wozy strażackie polewają go wodą, ale widać, że straty będą nieodwracalne. W opisie nagrania po turecku czytamy: "Trwa akcja gaszenia pożaru w Tel Awiwie, mieście oświetlonym irańskimi rakietami". Data się zgadza: 9 marca 2026 roku. Czyli cel trafiony przez irańskie rakiety.
Muhammad Shakeel, internauta z Pakistanu, sprawdza jednak tę informację. Pyta Groka, narzędzie sztucznej inteligencji oferowane przez firmę xAI Elona Muska: "Grok, co o tym myślisz?". Program potwierdza, że to scena z Izraela: "Film przedstawia strażaków walczących z dużym pożarem w budynku w Tel Awiwie (...) – zgodnie z doniesieniami o uderzeniach irańskich pocisków rakietowych podczas trwającego konfliktu między Stanami Zjednoczonymi i Izraelem a Iranem". Podaje źródła: "Wiadomości z CNN, Reuters, Al Jazeera". Czyli można wierzyć...
A może jednak nie? Bo CNN i Reuters rzeczywiście opisały ten pożar, podając jednak, że to dworzec w szkockim Glasgow. Grok przyznaje się do błędu dopiero po uwagach internautów. Przeprasza, a pytany o powód pomyłki, stwierdza: "Film krążył w serwisie X w związku z doniesieniami o uderzeniu w Tel Awiwie w trakcie konfliktu".
O co tu chodzi? Podczas gdy wielu z nas wierzy w nieomylność narzędzi sztucznej inteligencji, eksperci nie. Wiedzą, dlaczego w przypadku takiej dezinformacji, jak na temat walk na Bliskim Wschodzie, narzędzia AI są często skazane na przegraną.