AI w roli lekarza? "Nie wiemy, czy poda pacjentowi dobre informacje"

lekarz ai grafika shutterstock_2638203503
AI coraz bardziej obecna w medycynie. "Eliminujemy to ogniwo, które czasem nie jest najmocniejsze, czyli nas"
Źródło: Marek Nowicki/Fakty TVN
Narzędzie oparte na sztucznej inteligencji nie może zastąpić diagnozy postawionej przez lekarza - przypominają eksperci. - Algorytmy, które nie są certyfikowanymi wyrobami medycznymi, mogą wprowadzać pacjentów w błąd - podkreśla Ligia Kornowska, liderka koalicji "AI w Zdrowiu". Tymczasem OpenAI ogłosiło niedawno moduł swojego modelu językowego, który ma analizować dokumentację medyczną i proponować zalecenia zdrowotne.
Kluczowe fakty:
  • OpenAI zapowiada ChatGPT Health - moduł do analizy badań i sugestii zdrowotnych. Będzie dostępny w menu bocznym aplikacji.
  • Eksperci ostrzegają, że narzędzie nie może zastąpić diagnozy lekarskiej - jego odpowiedzi mają charakter wyłącznie edukacyjny.
  • Dane zdrowotne w UE podlegają innym regulacjom niż w USA. Przed implementacją konieczna jest zgodność z europejskim prawem.
  • W 2023 r. rodzice 14‑letniego Adama z Kalifornii pozwali OpenAI, twierdząc, że ChatGPT nakłaniał chłopca do samobójstwa.
  • Profil falszywego "doktora Adriana Halewskiego" zgromadził ponad 100 tys. obserwatorów, promując suplement shilajit jako "cudowny lek". Internauci odkryli, że konto było całkowicie fikcyjne.
  • Więcej artykułów o podobnej tematyce znajdziesz w zakładce "Zdrowie" w serwisie tvn24.pl.

Zaprezentowany w styczniu 2026 roku nowy moduł ChatGPT Health ma być dostępny w menu paska bocznego chatbota i będzie udzielać informacji w oparciu o przesłaną przez użytkownika dokumentację medyczną. Funkcja oferuje m.in. analizy wyników badań krwi i sugestie żywieniowe. - Użytkownicy nie powinni mieć jednak przekonania, że uzyskają diagnozę od ChatGPT - powiedziała Ligia Kornowska, liderka koalicji "AI w Zdrowiu".

Firma OpenAI zaprezentowała również zestaw narzędzi dla organizacji medycznych "OpenAI for Healthcare". Ma on oferować m.in. pomoc w pracy administracyjnej, czyli tworzyć podsumowania wypisów, zaleceń dla pacjentów i listów klinicznych. Z takich narzędzi mają już korzystać amerykańskie instytucje i placówki, jak AdventHealth czy Boston Children’s Hospital.

Kornowska zwróciła jednak uwagę, że sfera ochrony danych osobowych, szczególnie tych wrażliwych, regulowana jest inaczej w Unii Europejskiej, a inaczej w Stanach Zjednoczonych. - Korzystając z narzędzia pochodzącego z USA, trzeba się upewnić, że spełnia ono regulacje unijne, takie jak rozporządzenie ogólne o danych osobowych RODO - zaznaczyła ekspertka.

Algorytm wysokiego ryzyka, który nie zastąpi lekarza

Według Open AI proponowane narzędzie to odpowiedź na społeczne zapotrzebowanie. Ze styczniowego raportu Open AI „AI as a Healthcare Ally” wynika bowiem, że do ChatGPT zwraca się codziennie ponad 40 milionów użytkowników z pytaniami dotyczącymi opieki zdrowotnej, a ponad 5 proc. wszystkich wiadomości z asystentem AI dotyczy tematu opieki zdrowotnej.

Zajmująca się tematem wykorzystania AI w kwestiach zdrowotnych Ligia Kornowska, zwraca uwagę na związane z tym niebezpieczeństwa. - Jeśli algorytm sztucznej inteligencji ma bezpośrednio wpływać na decyzje diagnostyczno-lecznicze u pacjenta, to powinien być zgodny z regulacjami prawnymi dotyczącymi wyrobów medycznych czy tak zwanych algorytmów wysokiego ryzyka - powiedziała ekspertka. I to niezależnie od tego, czy z systemu korzysta pacjent, czy lekarz.

- W sytuacjach, kiedy algorytm nie jest certyfikowanym wyrobem medycznym, tak jak jest to w przypadku ChatGPT Health, tak naprawdę nie wiemy, czy ten algorytm poda pacjentowi dobre informacje, czy wprowadzi go w błąd - zauważyła Kornowska. Według niej taka certyfikacja pozwala dostarczyć informacji na temat tego, na ile algorytm jest skuteczny i czuły, a także z jakim prawdopodobieństwem powie użytkownikom prawdę, a z jakim może wprowadzić ich w błąd.

W opinii Kornowskiej zakres użycia ChatGPT-Zdrowie powinien być więc na razie ograniczony do celów edukacyjnych. Powinien zawierać informację, że każdą wiadomość, którą chat przekazuje, trzeba zweryfikować samodzielnie. Również pacjenci - jak mówiła Kornowska - nie powinni być wprowadzani w przekonanie, że uzyskają diagnozę od tego asystenta AI. - W takim kontekście ChatGPT na pewno nie zastąpi konsultacji lekarskiej - podkreśliła.

Nieścisłości w informacjach AI - przypadek Google

Na problemy związane z korzystaniem z porad medycznych asystentów AI zwrócił również ostatnio uwagę brytyjski dziennik "The Guardian". Styczniowe śledztwo dziennika wykazało, że podsumowania generowane przez AI wyszukiwarki Google podawały nieścisłe informacje zdrowotne. Miały one dotyczyć m.in. kluczowych badań czynności wątroby. Według "Guardiana" na podstawie tych informacji osoby z poważnymi chorobami tego narządu mogłyby błędnie uważać, że są zdrowe.

Rzecznik Google, zapytany przez brytyjski dziennik, odpowiedział, że firma nie komentuje pojedynczych usunięć w wyszukiwarce. - W przypadkach, gdy funkcje AI Overviews nie uwzględniają kontekstu, pracujemy nad wprowadzeniem szeroko zakrojonych ulepszeń i w razie potrzeby podejmujemy działania zgodnie z naszymi zasadami - wyjaśniał.

Kontrowersje wzbudził również wpływ chatbotów na zdrowie psychiczne użytkowników. W sierpniu ubiegłego roku świat obiegła informacja o pozwaniu do sądu firmy OpenAI w związku z samobójczą śmiercią 14-letniego Adama z Kalifornii. Jego rodzice twierdzili, że ChatGPT zachęcał go do odebrania sobie życia.

W listopadzie 2025 roku agencja Associated Press informowała, że do firmy OpenAI trafiło w sumie siedem podobnych pozwów. Twierdzono w nich, że ChatGPT doprowadził do samobójstw i szkodliwych urojeń u osób, które wcześniej nie miały problemów psychicznych.

W odpowiedzi OpenAI zadeklarowało, że zostały wdrożone zabezpieczenia w przypadkach, gdy rozmowy z ChatGPT dotyczyły tematów drażliwych. - Stale udoskonalamy szkolenia ChatGPT, aby rozpoznawać i reagować na oznaki stresu psychicznego lub emocjonalnego, łagodzić napięcia w rozmowach i kierować ludzi do realnego wsparcia - napisała firma.

Fałszywy lekarz z Instagrama - śledztwo internautów

Wykorzystywanie modeli językowych do stawiania sobie diagnoz to jeden problem związany ze sztuczną inteligencją. Inny, bardzo poważny, to wykorzystywanie technologii AI do tworzenia fałszywych profili. W Polsce w ostatnich dniach dużo mówiło się o obecnym w mediach społecznościowych profilu "doktora" Adriana Halewskiego, który w krótkim czasie zyskał ogromną popularność. Konto obserwowało ponad sto tysięcy użytkowników, a publikowane tam materiały - filmy o cudownym suplemencie shilajit, który rzekomo miał pomagać przy różnych dolegliwościach - przyciągały internautów spragnionych zdrowia i nadziei. Problem w tym, że lekarz, któremu tak wielu zaufało, nigdy nie istniał. W Centralnym Rejestrze Lekarzy Naczelnej Izby Lekarskiej nie figuruje osoba o takim nazwisku. Za profesjonalnie wyglądającym kontem stała fikcyjna tożsamość, a eksperci ostrzegają: podobnych przypadków w sieci przybywa.

Fałszywego medyka zdemaskowali sami użytkownicy internetu. Zwracali uwagę na nieścisłości w publikacjach oraz brak jakichkolwiek śladów potwierdzających jego istnienie w oficjalnych bazach. Wkrótce okazało się, że zdjęcia rzekomego "doktora Halewskiego" pochodziły z banków stockowych, a historie pacjentów były całkowicie wymyślone. Specjaliści zajmujący się cyberbezpieczeństwem i dezinformacją podkreślają, że to kolejny alarmujący przykład, jak łatwo stworzyć w sieci pozornie wiarygodny autorytet medyczny - i jak groźne mogą być tego skutki.

Technologia deepfake była też już zresztą wykorzystywana do wkładania przekazów reklamowych dotyczących pseudoterapii w usta uznanych autorytetów medycznych. W połowie ubiegłego roku pisaliśmy w tvn24.pl o tym, że znany kardiochirurg, prof. Andrzej Bochenek po raz kolejny padł ofiarą twórców sfabrykowanych reklam suplementów i leków. Wcześniej przydarzyło się to też jego kolegom po fachu, między innymi profesorowi Michałowi Zembali i profesorowi Adamowi Torbickiemu.

Usunięty już profil "doktora Halewskiego" pokazuje, jak algorytmy mediów społecznościowych i narzędzia oparte na sztucznej inteligencji mogą potęgować dezinformację zdrowotną. Angażujące, emocjonalne treści otrzymywały coraz większe zasięgi, co tylko wzmacniało efekt wiarygodności. W komentarzach pod filmami pojawiały się pytania o konkretne terapie, a część internautów traktowała publikowane materiały jak prawdziwe konsultacje lekarskie. W podobny sposób wielu pacjentów reagowało na sfabrykowane przekazy z udziałem wizerunku prawdziwych lekarzy.

Czytaj także: