- W ostatnich tygodniach sieć obiegły zdjęcia niedożywionych dzieci w Gazie, które sztuczna inteligencja przedstawiała jako stare fotografie na przykład z Jemenu.
- Internauci coraz częściej zauważają, że chatboty generują fałszywe odpowiedzi.
- Eksperci dostrzegają w tym celowe infekowanie AI dezinformacją.
- Sprawę ułatwia fakt, że zadaniem chatbotów jest udzielanie odpowiedzi poprawnych językowo, co nie oznacza poprawnych merytorycznie.
- Jak więc infekuje się chatboty kłamstwami?
Kobieta w muzułmańskim stroju trzyma na rękach kilkuletnią skrajnie wychudzoną dziewczynkę. Fotografia jest tak wymowna, że Aymeric Caron - francuski poseł publikujący materiały ze Strefy Gazy - publikując ją na platformie X, nie dodał komentarza. Internauci chcieli wiedzieć, kto to i czy zdjęcie rzeczywiście pochodzi z Gazy, więc zapytali Groka, narzędzie sztucznej inteligencji na platformie Elona Muska. Grok zaprzeczył: "Nie, to zdjęcie nie pochodzi z Gazy. Przedstawia ono Amal Hussain, 7-letnią dziewczynkę z Jemenu, która zmarła z powodu niedożywienia w 2018 roku. Aymeric Caron najwyraźniej błędnie opisał to zdjęcie". Na potwierdzenie swojej wersji podaje nawet źródła: "The New York Times", "Time", Al Jazeera.
Jednak Grok kłamie: tę fotografię zrobił fotoreporter agencji AFP Omar Al-Qattaa w dzielnicy Rimal w mieście Gaza 2 sierpnia 2025 roku. Przedstawia dziewięcioletnią niedożywioną palestyńską dziewczynkę Mariam Dawwas w ramionach matki.