|

"Przychodzi pacjent do chatbota", a ten kłamie. Co więc robić?

Jeżeli pytasz chatbota o sprawy zdrowia, musisz wiedzieć, jak on działa i dlaczego jego halucynacje mogą ci zaszkodzić
Jeżeli pytasz chatbota o sprawy zdrowia, musisz wiedzieć, jak on działa i dlaczego jego halucynacje mogą ci zaszkodzić
Źródło: khunkornStudio/Shutterstock
Jeszcze niedawno pacjent przychodził na wizytę z wydrukiem z Google, dziś przychodzi z "diagnozą" od chatbota - żartują lekarze. A w tej "diagnozie" zazwyczaj roi się od błędów. Coraz chętniej radzimy się chatbotów w sprawach zdrowia, zapominając, że one przysięgi Hipokratesa nie składały. Nie obiecywały nie szkodzić. Artykuł dostępny w subskrypcji
Kluczowe fakty:
  • Na początku 2026 roku opublikowano wyniki dwóch dużych badań o wiarygodności chatbotów w udzielaniu porad zdrowotnych.
  • Wnioski są alarmujące: chatboty łatwo ulegają medycznej dezinformacji. A mimo to coraz częściej pytamy je w kwestii zdrowia.
  • Dlaczego modele AI łykają fake newsy? Eksperci tłumaczą, co za tym stoi.
  • Częściowo winni są jednak sami pytający. Bo pytać chatbota też trzeba umieć.
  • Co więc zrobić, by uzyskać najbardziej wiarygodną odpowiedź? Podpowiadamy.

Gdy ma się do napisania tekst o tym, czy można ufać chatbotom w kwestii zdrowia, lecz akurat łapie nas choroba - co robić? Można... zapytać o poradę chatbota. Przyznam, poszłam na tę łatwiznę.

Czuję ból głowy, ból mięśni, mam lekko podwyższoną temperaturę i ogólnie słabe samopoczucie, a w domowej apteczce widzę opakowanie znanego leku "o działaniu przeciwbólowym i przeciwgorączkowym" (nie podaję nazwy z uwagi na product placement). Lecz w ulotce leku czytam, że jednym ze składników jest metamizol, o którym to środku był niedawno materiał w "Superwizjerze" TVN24: że niesie ryzyko wywołania agranulocytozy, choroby powodującej gwałtowne obniżenie odporności organizmu. Sprzedaż metamizolu jest zakazana w ponad 30 krajach, lecz w Polsce środki z nim są dostępne bez recepty.

Do czterech chatbotów - Groka, Gemini, Perplexity i ChataGPT (w wersji bezpłatnej i Plus) - wpisuję więc pytanie: "Od kilku dni mam gorączkę. Chciałam wziąć [nazwa leku], ale po ostatnich doniesieniach medialnych dotyczących zawartego w niej szkodliwego metamizolu trochę się boję skutków ubocznych. Czy to bezpieczny lek?"

Odpowiedzi? Różne. ChatGPT podpowiada, że lek "ma zarówno zalety, jak i ryzyka" oraz że jest stosowany "w Polsce w innych krajach EU, gdy standardowe środki nie działają wystarczająco dobrze". Czytam, że "w badaniach porównawczych metamizol ma mniej łagodnych działań niepożądanych niż (tu wymienia marki innych leków)". Informacja o ryzyku agranulocytozy jest, ale dalej. Tymczasem Perplexity w pierwszym zdaniu ostrzega, że mój lek zawierający metamizol "nie jest uważany za w pełni bezpieczny lek dla każdego ze względu na poważne ryzyka skutków ubocznych, takie jak agranulocytoza czy wstrząs anafilaktyczny".

Gemini uspokaja: "To zrozumiałe, że czujesz niepokój - nagłówki w mediach potrafią przestraszyć" - i podaje: "Głównym powodem kontrowersji wokół metamizolu jest rzadkie, ale poważne działanie niepożądane o nazwie agranulocytoza", przy czym stwierdza, że "ryzyko wystąpienia agranulocytozy jest oceniane jako bardzo rzadkie".

ChatGPT Plus również najpierw wyjaśnia mi skutki uboczne i zalety metamizolu, a potem radzi, jak zażywać lek, którego dotyczyło pytanie. Natomiast Grok niejednoznacznie odpowiada, że mój lek "nie jest lekiem całkowicie bezpiecznym, ale też nie jest tak niebezpieczny, jak mogłoby wynikać z niektórych nagłówków medialnych".

Mam więc wyjaśnienia różnej jakości, niespójne. Tego się jednak spodziewałam, znając wyniki badań o wiarygodności modeli sztucznej inteligencji w przypadku pytań o zdrowie. Otóż chatboty łatwo ulegają medycznej dezinformacji. Wierzą w medyczne fake newsy i podają je dalej. Oczywiście "medycznym językiem".

Dlaczego kłamią? I czy tylko one są winne? Wcale nie.

Czytaj także: