Amerykanie wykorzystują ChatGPT do pracy. Wbrew zaleceniom przełożonych

chatgtp si ai sztuczna inteligencja - Tada Images shutterstock_2239373423_1
GPT-4 bez problemu pisze kody źródłowe innych programów. Na przykład gry Arkanoid
Źródło: GPT // tvn24.pl
Prawie jedna trzecia Amerykanów wykorzystuje w swojej pracy ChatGPT do pomocy przy podstawowych zadaniach. Tak wynika z ankiety przeprowadzonej na zlecenie agencji Reuters przez Ipsos. Część robi tak, pomimo wyraźnego zakazu korzystania z tej aplikacji ze strony pracodawców.

Firmy na całym świecie zastanawiają się, jak najlepiej wykorzystać ChatGPT, chatbota stworzonego przez OpenAI, który wykorzystuje generatywną sztuczną inteligencję do prowadzenia rozmów z użytkownikami i odpowiadania na wszelkie pytania. Jednocześnie wiele firm wyraziło obawy związane z bezpieczeństwem i czy korzystanie z tego rozwiązania nie przyczyny się do wycieku danych, własności intelektualnej i ich strategii.

Sztuczna inteligencja w codziennej pracy

Amerykanie wykorzystują ChatGPT w codziennej pracy do pisania maili, spisywania rozmów, streszczania dokumentów, czy przeprowadzania wstępnego rozeznania na dany temat.

Około 28 proc. respondentów ankiety internetowej na temat sztucznej inteligencji (AI) przeprowadzonej w dniach 11-17 lipca stwierdziło, że regularnie korzysta z ChatGPT w pracy. Jednocześnie tylko 22 proc. stwierdziło, że ich pracodawcy wyraźnie zezwolili na wykorzystanie tego zewnętrznego narzędzia.

Około 10 proc. ankietowanych stwierdziło, że ich szefowie wyraźnie zakazali zewnętrznych narzędzi sztucznej inteligencji, a około 25 proc. nie wiedziało, czy ich firma zezwala na korzystanie z tej technologii.

ChatGPT był do niedawna najszybciej rosnącą aplikacją na świecie, a miano to odebrało mu dopiero w zeszłym miesiącu wprowadzenie Threads przez Meta (właściciela Facebooka). Wywołał zarówno podekscytowanie, jak i niepokój, doprowadzając jego twórcę OpenAI do konfliktu z organami regulacyjnymi, szczególnie w Europie, gdzie masowe gromadzenie danych przez firmę spotkało się z krytyką ze strony organów nadzorujących prywatność.

Recenzenci z innych firm mogą czytać dowolne z wygenerowanych czatów, a badacze odkryli, że podobna sztuczna inteligencja AI może odtwarzać dane pochłonięte podczas szkolenia, stwarzając potencjalne ryzyko dla zastrzeżonych informacji.

- Ludzie nie rozumieją, w jaki sposób wykorzystywane są dane, gdy korzystają z generatywnych usług sztucznej inteligencji — powiedział agencji Reuters Ben King, wiceprezes ds. zaufania klientów w firmie Okta zajmującej się bezpieczeństwem korporacyjnym.

Konsekwencje używania AI

OpenAI odmówiło komentarza, gdy zapytano go o konsekwencje używania ChatGPT przez poszczególnych pracowników, ale zwróciło uwagę na niedawny firmowy wpis na blogu, w którym zapewnia partnerów korporacyjnych, że ich dane nie będą wykorzystywane do dalszego szkolenia chatbota, chyba że udzielą wyraźnej zgody.

Reuters zauważa, że konkurent dla ChatGPT - Google Bard, zbiera dane, takie jak tekst, lokalizacja i inne informacje o użytkowaniu. Jednocześnie firma pozwala użytkownikom usuwać historię swoich działań ze swoich kont i żądać usunięcia treści wprowadzonych do sztucznej inteligencji.

ChatGPT wykorzystywany przez pracowników Tindera

Jeden z ankietowanych jest pracownikiem Tindera i powiedział Reutersowi, że pracownicy aplikacji randkowej używali ChatGPT do "nieszkodliwych zadań", takich jak pisanie e-maili, mimo że firma oficjalnie na to nie zezwala.

- To zwykłe e-maile. Bardzo nieistotne, na przykład tworzenie zabawnych zaproszeń do kalendarza na imprezy zespołowe, e-maile pożegnalne, gdy ktoś odchodzi… Używamy ich również do ogólnych badań – powiedział pracownik, który odmówił ujawnienia nazwiska, ponieważ nie był upoważniony do rozmów z dziennikarzami. Mężczyzna powiedział, że firma ma zasadę "żadnego ChatGPT", ale mimo to pracownicy wciąż korzystają z chatbota "w ogólny sposób, który nie ujawnia niczego o firmie".

Reuters nie był w stanie niezależnie potwierdzić, w jaki sposób pracownicy Tindera korzystali z ChatGPT. Tinder przekazał, że zapewnia regularne szkolenia dla pracowników w "zakresie bezpieczeństwa".

Samsung go zakazał po wpadce pracownika

W maju firma Samsung Electronics zakazała pracownikom na całym świecie korzystania z ChatGPT i podobnych narzędzi sztucznej inteligencji po odkryciu, że pracownik przesłał na platformę poufny kod.

"Dokonujemy przeglądu środków mających na celu stworzenie bezpiecznego środowiska do generatywnego wykorzystania sztucznej inteligencji, które zwiększa produktywność i wydajność pracowników", przekazał Samsung w oświadczeniu z 3 sierpnia. "Jednak dopóki te środki nie będą gotowe, tymczasowo ograniczamy korzystanie z generatywnej sztucznej inteligencji za pośrednictwem urządzeń firmowych" - stwierdzono.

Ankieta na zlecenie Reutersa przez agencję Ipsos przeprowadzona została wśród 2625 dorosłych w Stanach Zjednoczonych.

TVN24 HD
Dowiedz się więcej:

TVN24 HD

Zobacz także: