Ludzie mają tendencję do przejmowania wzorców pisania, metod rozumowania, a nawet opinii od używanych przez siebie chatbotów - wynika z najnowszego badania przeprowadzonego przez naukowców z University of Southern California. Jego wyniki opublikowano 11 marca w czasopiśmie naukowym "Trends in Cognitive Sciences". Zdaniem autorów badania, różnorodność poznawcza w grupach i społeczeństwach na świecie zaczyna maleć, ponieważ miliardy ludzi korzystają z tej samej niewielkiej liczby chatbotów do coraz większej liczby zadań. Na przykład, gdy ludzie korzystają z chatbotów, aby dopracować swoje teksty, tracą one swoją stylistyczną indywidualność.
- Ludzie różnią się sposobem pisania, rozumowania i postrzegania świata. Gdy jednak te różnice są niwelowane przez te same duże modele językowe (LLM), odmienny styl językowy, perspektywa i strategie rozumowania ulegają ujednoliceniu, co prowadzi do powstawania znormalizowanych sposobów wyrażania się i myślenia u użytkowników - komentuje badanie Zhivar Sourati, doktor nauk komputerowych z University of Southern California.
Chatboty i Orwell
"To algorytmiczne, napędzane rynkowo usuwanie różnorodności myśli stanowi współczesne zagrożenie porównywalne do kontroli językowej nowomowy w "Roku 1984" Orwella - zauważają autorzy badania. Naukowcy podkreślają, że różnorodność poznawcza w grupach i społeczeństwach wzmacnia kreatywność oraz zdolność rozwiązywania problemów. - Obawa nie dotyczy tylko tego, że LLM-y wpływają na to, jak ludzie piszą czy mówią, ale także tego, że subtelnie redefiniują to, co uznaje się za wiarygodną wypowiedź, właściwą perspektywę, a nawet poprawne rozumowanie - ostrzega specjalista.
Naukowcy dodają, że skutki ponoszą wszyscy, nie tylko użytkownicy wspomnianych systemów. - Jeśli wiele osób wokół mnie myśli i mówi w określony sposób, a ja robię to inaczej, będę odczuwać presję, by się do nich dostosować, ponieważ będzie to wyglądało na bardziej wiarygodny lub społecznie akceptowany sposób wyrażania moich idei - argumentują.
Według naukowców twórcy systemów wspieranych przez sztuczną inteligencję powinni świadomie wprowadzać do swoich modeli różnorodność języka, perspektyw i sposobów rozumowania. Zaznaczają przy tym, że powinna ona opierać się na rzeczywistej różnorodności istniejącej wśród ludzi na całym świecie, a nie na losowo wprowadzanych wariacjach.
- Gdyby duże modele językowe miały bardziej zróżnicowane podejście do idei i problemów, lepiej wspierałyby zbiorową inteligencję oraz zdolności naszych społeczeństw do rozwiązywania problemów - twierdzi Sourati.
Opracowała Ewa Żebrowska / am
Źródło: PAP, Nature
Źródło zdjęcia głównego: shutterstock