Pewne nienaturalne sformułowania używane przez ChatGPT znalazły się w recenzowanych publikacjach naukowych - wskazano w analizie profesora Artura Strzeleckiego z Uniwersytetu Ekonomicznego w Krakowie. Według badacza może to negatywnie wpłynąć na zaufanie do treści naukowych.
Dr hab. Artur Strzelecki, prof. Uniwersytetu Ekonomicznego w Katowicach postanowił sprawdzić, czy "nienaturalne" sformułowania tego typu zaczęły się częściej pojawiać w anglojęzycznych publikacjach naukowych.
Chodzi o to, czy autorzy publikacji bezmyślnie przekopiowali do swojego artykułu naukowego fragment wypowiedzi ChatuGPT, a w dodatku czy nie zostało to zauważone przez współautorów, recenzentów ani redaktorów czasopisma.
ChatGPT i jego typowe sformułowania
Naukowiec z UEK przeanalizował tylko te artykuły, w których nie wspominano o programie ChatGPT i nie deklarowano korzystania z tego narzędzia w pisaniu pracy.
Autor wybrał kilkanaście typowych dla ChatuGPT zwrotów i wyszukiwał je w bazie publikacji naukowych Google Scholar. O ile przed pojawieniem się ChatuGPT niektóre zwroty występowały sporadycznie i najczęściej jako fragment dialogu w badaniach jakościowych, o tyle w kolejnych latach ich popularność poszybowała.
W odpowiedziach tworzonych przez ChatGPT pojawiają się pewne charakterystyczne, nieużywane raczej przez ludzi struktury. Wśród fraz, które w publikacjach zaczęły się pojawiać takie zwroty jak:
- "Według mojej wiedzy na dzień ostatniej aktualizacji" ("as of my last knowledge update"); - "Jako model językowy AI" ("as an AI language model"); - "Nie mam dostępu do aktualnych" ("I don’t have access to real-time…"); - "Mam nadzieję, że to pomoże!"; - "Oczywiście! Tutaj jest/są"; - "Cieszę się, że mogę pomóc!"; - "Mam nadzieję, że to wyjaśnia Twoje pytanie. Jeśli potrzebujesz więcej informacji, daj znać!".
ChatGPT w publikacjach naukowców
Okazuje się też, że ponad sto razy w publikacjach naukowych skopiowano treść stworzoną przez AI.
Pod każdą odpowiedzią ChatuGPT był dawniej przycisk "regenerate response", czyli polecenie, by chat ponownie opracował swoją odpowiedź. Całkiem wielu nieuważnych naukowców skopiowało odpowiedź wraz z jej "stopką" i nie przeczytało do końca tekstu wysyłanego do wydawnictwa.
Przeczytaj również: "Teraz te ramy zostały zniesione" >>>
Kiedy brano pod uwagę tylko część bardziej prestiżowych recenzowanych czasopism naukowych z bazy Scopus, to frazy ChatuGPT nie były tam może nagminne, ale prof. Strzelecki odnalazł je w 89 artykułach.
To oznacza, że i w lepszych wydawnictwach takie nowego typu "uchybienia językowe" mogą przemknąć niezauważone.
"Nawet tam pojawiają się niedbale przygotowane treści"
- ChatGPT jest tylko narzędziem. To autor bierze całą odpowiedzialność za to, co zawrze w swoim artykule naukowym - skomentował prof. Strzelecki.
Zdaniem naukowca fakt bezmyślnego wykorzystywania ChatuGPT w nauce podkopuje jej autorytet.
- Jak można ufać niektórym czasopismom naukowym, skoro nawet tam pojawiają się niedbale przygotowane treści - podkreślił.
Dodał, że zadaniem każdego użytkownika korzystającego z AI jest krytyczne przeanalizowanie całej wypowiedzi modelu. Dopiero wtedy można zastanowić się nad dalszym jej wykorzystaniem.
Według prof. Strzeleckiego ChatGPT to pomocne narzędzie, z którego warto korzystać np. w ramach korekty językowej czy przy tłumaczeniu tekstu na obcy język, ale nie należy brać za dobrą monetę wszystkiego, co wytworzy AI.
- Nie wszystko, co brzmi profesjonalnie, jest prawdziwe. Skoro już korzystamy z ChatuGPT w swojej pracy, to róbmy to odpowiedzialnie - podsumował.
ChatGPT i inne narzędzia sztucznej inteligencji
Pod koniec zeszłego roku dyrektor generalny OpenAI Sam Altman poinformował, że z ChataGPT korzysta ponad 300 mln ludzi tygodniowo, a każdego dnia do systemu wysyłanych jest ponad miliard wiadomości.
Jeśli chodzi o chatboty oparte na sztucznej inteligencji, to konkurentami ChatGPT są np. Gemini firmy Google, Meta AI, Copilot, Perplexity czy Grok platformy X.
Źródło: PAP
Źródło zdjęcia głównego: Natee Meepian/Shutterstock