- Na początku 2026 roku opublikowano wyniki dwóch dużych badań o wiarygodności chatbotów w udzielaniu porad zdrowotnych.
- Wnioski są alarmujące: chatboty łatwo ulegają medycznej dezinformacji. A mimo to coraz częściej pytamy je w kwestii zdrowia.
- Dlaczego modele AI łykają fake newsy? Eksperci tłumaczą, co za tym stoi.
- Częściowo winni są jednak sami pytający. Bo pytać chatbota też trzeba umieć.
- Co więc zrobić, by uzyskać najbardziej wiarygodną odpowiedź? Podpowiadamy.
Gdy ma się do napisania tekst o tym, czy można ufać chatbotom w kwestii zdrowia, lecz akurat łapie nas choroba - co robić? Można... zapytać o poradę chatbota. Przyznam, poszłam na tę łatwiznę.
Czuję ból głowy, ból mięśni, mam lekko podwyższoną temperaturę i ogólnie słabe samopoczucie, a w domowej apteczce widzę opakowanie znanego leku "o działaniu przeciwbólowym i przeciwgorączkowym" (nie podaję nazwy z uwagi na product placement). Lecz w ulotce leku czytam, że jednym ze składników jest metamizol, o którym to środku był niedawno materiał w "Superwizjerze" TVN24: że niesie ryzyko wywołania agranulocytozy, choroby powodującej gwałtowne obniżenie odporności organizmu. Sprzedaż metamizolu jest zakazana w ponad 30 krajach, lecz w Polsce środki z nim są dostępne bez recepty.
Do czterech chatbotów - Groka, Gemini, Perplexity i ChataGPT (w wersji bezpłatnej i Plus) - wpisuję więc pytanie: "Od kilku dni mam gorączkę. Chciałam wziąć [nazwa leku], ale po ostatnich doniesieniach medialnych dotyczących zawartego w niej szkodliwego metamizolu trochę się boję skutków ubocznych. Czy to bezpieczny lek?"
Odpowiedzi? Różne. ChatGPT podpowiada, że lek "ma zarówno zalety, jak i ryzyka" oraz że jest stosowany "w Polsce w innych krajach EU, gdy standardowe środki nie działają wystarczająco dobrze". Czytam, że "w badaniach porównawczych metamizol ma mniej łagodnych działań niepożądanych niż (tu wymienia marki innych leków)". Informacja o ryzyku agranulocytozy jest, ale dalej. Tymczasem Perplexity w pierwszym zdaniu ostrzega, że mój lek zawierający metamizol "nie jest uważany za w pełni bezpieczny lek dla każdego ze względu na poważne ryzyka skutków ubocznych, takie jak agranulocytoza czy wstrząs anafilaktyczny".
Gemini uspokaja: "To zrozumiałe, że czujesz niepokój - nagłówki w mediach potrafią przestraszyć" - i podaje: "Głównym powodem kontrowersji wokół metamizolu jest rzadkie, ale poważne działanie niepożądane o nazwie agranulocytoza", przy czym stwierdza, że "ryzyko wystąpienia agranulocytozy jest oceniane jako bardzo rzadkie".
ChatGPT Plus również najpierw wyjaśnia mi skutki uboczne i zalety metamizolu, a potem radzi, jak zażywać lek, którego dotyczyło pytanie. Natomiast Grok niejednoznacznie odpowiada, że mój lek "nie jest lekiem całkowicie bezpiecznym, ale też nie jest tak niebezpieczny, jak mogłoby wynikać z niektórych nagłówków medialnych".
Mam więc wyjaśnienia różnej jakości, niespójne. Tego się jednak spodziewałam, znając wyniki badań o wiarygodności modeli sztucznej inteligencji w przypadku pytań o zdrowie. Otóż chatboty łatwo ulegają medycznej dezinformacji. Wierzą w medyczne fake newsy i podają je dalej. Oczywiście "medycznym językiem".
Dlaczego kłamią? I czy tylko one są winne? Wcale nie.