Korzystanie z czatbotów wiąże się z ryzykiem wycieku wrażliwych danych - ostrzega Mateusz Chrobok, ekspert do spraw cyberbezpieczeństwa. - Badania pokazują, że modele przechowują tego typu informacje i jeżeli będą na nich trenowane, nie da się ich łatwo wymazać - podkreśla.
Firmy technologiczne rozwijające czatboty sztucznej inteligencji często pozyskują dane o użytkownikach z internetu, w tym z mediów społecznościowych oraz na podstawie informacji, które wpisują oni do czatbotów - zwrócił uwagę Mateusz Chrobok, ekspert cyberbezpieczeństwa i AI.
- Na tej podstawie jesteśmy przez daną firmę zazwyczaj profilowani, aby odpowiedzi czatbota były bardziej do nas dopasowane - wyjaśnił.
"Zdarza się, że jesteśmy kuszeni oddaniem swoich danych"
Ekspert wskazał, że z promptów, czyli zapytań, które dany użytkownik wpisuje do czatbota, firmy mogą wyczytać informacje o języku, jakim się on posługuje, wyglądzie - w przypadku dołączanych zdjęć, o poglądach, sytuacji rodzinnej, problemach itp. Niektóre firmy dodatkowo proszą o dostęp do informacji z urządzenia użytkownika, np. kontaktów, lokalizacji.
- Chiński DeepSeek zbierał też sposób pisania na klawiaturze, z którego można wyciągnąć sporo danych, np. wiek, bądź to czy jesteśmy danego dnia zmęczeni lub niewyspani - zauważył Chrobok.
- Zdarza się, że jesteśmy kuszeni oddaniem swoich danych w zamian za darmowy dostęp do czatbota, lepszy model itp. Czyli tak naprawdę oddajemy naszą prywatność za pewne korzyści - zaznaczył.
Wskazał, że korzystanie z czatbotów wiąże się z ryzykiem wycieku wrażliwych danych. Chrobok przypomniał sytuację sprzed dwóch lat, kiedy to firma OpenAI pomyliła indeksy użytkowników ChatGPT. Skutkowało to sytuacją, w której po zalogowaniu się na swoje konto, dana osoba miała dostęp do historii rozmów innej osoby. - Problem dotknął 1,2 proc. użytkowników, ale w praktyce to miliony osób - podkreślił.
Możliwe przejęcie konta
Innym zagrożeniem bezpieczeństwa związanym z czatbotami jest atak ATO, czyli Account Takeover (przejęcie konta – red.) - wskazał ekspert. Po przejęciu konta cyberprzestępca może zyskać dostęp do danych z historii konwersacji użytkownika, np. imienia, nazwiska, numeru telefonu, numeru karty kredytowej, jeśli przez przypadek ją wpisał lub udostępnił w jakimś dokumencie - ostrzegł Chrobok.
- Badania pokazują, że modele przechowują tego typu informacje i jeżeli będą na nich trenowane, nie da się ich łatwo wymazać. Są też sposoby, jak te dane wyciągnąć z czatbota - zaznaczył ekspert.
Dodał, że część firm umożliwia użytkownikom wyłączenie opcji zapisywania historii czy szkolenia modelu na ich danych. - Dla bardzo wrażliwych informacji najbezpieczniej jest zainstalować na swoim urządzeniu lub serwerze lokalny model. Wtedy jest największa szansa, że nasze dane nie wyciekną - podkreślił.
Kraj pochodzenia czatbota ma znaczenie
Według eksperta na poziom ochrony danych użytkowników może wpływać kraj pochodzenia czatbota. - DeepSeek czyli chińska firma, tworzy świetne modele takie jak r1, ale jest on blokowany w wielu miejscach, ponieważ zgodnie z chińskim prawem, jego twórcy muszą przekazywać dane o użytkownikach władzom, a te np. mogą oddać je służbom - wskazał.
Podał przykład hipotetycznej sytuacji, w której amerykański urzędnik pisze z chińskim czatbotem i opowiada mu o swoich problemach z rodziną, czy biznesem. - Zebrane informacje mogłyby posłużyć Chinom do zwerbowania tej osoby na szpiega bądź do innego wywarcia wpływu. Myślę, że ujawniając nasze słabości, jesteśmy w takiej sytuacji bardziej podatni na manipulację - podkreślił.
Chrobok zaznaczył, że badania pokazują, że modele odzwierciedlają poglądy ich twórców. - Przykładowo chiński DeepSeek ma negatywny sentyment (ton generowanej treści - red.) przy wypowiedziach o amerykańskich żołnierzach, a modele OpenAI zupełnie odwrotnie - wskazał i dodał, że "każdy model to pewna bańka informacyjna". - One nie są neutralne, nawet, jeśli niektórzy twórcy starają się, aby takie były. Warto o tym pamiętać - podkreślił.
- Można to znacznie poprawić technicznymi metodami jak Deep Research (zaawansowana metoda analizy informacji - red.), ale nie każdy wie, jak z nich korzystać. Dlatego też zachęcam do sceptycyzmu wobec treści, które generują czatboty - podkreślił ekspert.
Czatboty w miejscu pracy. "Tego boi się wiele firm"
Chrobot pytany o zagrożenia związane z czatbotami w miejscu pracy, podał przykład z 2023 r., kiedy to pracownik firmy Samsung wrzucił w ChatGPT prezentację z tajnymi danymi, które w konsekwencji wyciekły i mogła je zdobyć konkurencja. - Tego boi się wiele firm, managerów i zdarza się, że całkowicie zakazują pracownikom korzystania ze sztucznej inteligencji. Moim zdaniem to nie jest dobra droga - ocenił edukator. Według niego, bez tej technologii firmy będą mniej konkurencyjne. - Po prostu trzeba wiedzieć, jak bezpiecznie z niej korzystać - zaznaczył.
Według Chroboka proces bezpiecznego wdrażania AI w firmach należy zacząć od wypracowania "higieny AI", czyli edukacji samych przełożonych, a później pracowników. - Po drugie, ważne są środki techniczne - wskazał i wyjaśnił, że istnieje cała dziedzina rozwiązań o nazwie Data Leak Prevention (ochrona przed wyciekiem danych - red.), w którą mogą zainwestować pracodawcy. Należą do niej np. modele, które oceniają, jakie dane mogą opuścić firmę, a jakie nie.
Ekspert wskazał, że w każdej organizacji powinny również istnieć zasady korzystania z AI, w których określa się np. jakie dane można wrzucić do czatbota, które z nich są wrażliwe, a które powinny być oznaczone jako wygenerowane przy pomocy sztucznej inteligencji, bo np. tego wymaga prawo.
Ekspert pytany, czy - według niego - mimo ryzyk sztuczna inteligencja powinna być implementowana w każdej firmie, stwierdził, że zmuszanie wszystkich przedsiębiorców do AI byłoby "nieludzkie". - Ale lepiej znać tę technologię, bo może pomóc odnaleźć się na rynku pracy, czy usprawnić samą pracę, tak by było jej mniej i by była bardziej efektywna - ocenił.
Ewolucja czy rewolucja?
- Jesteśmy w momencie, który niektórzy określają ewolucją, rewolucją, czy używają innych wielkich słów. To jeszcze nie jest ten moment, gdzie AI nas przerasta, chociaż pod pewnymi względami na pewno tak jest - wskazał. Podkreślił, że ludzka inteligencja jest ograniczona. - Modele AI też mają swoje ograniczenia i zagrożenia, ale są coraz dokładniejsze i w przyszłości staną się lepsze od ludzi. Nasze umiejętności i zdolności będą po prostu słabsze - ocenił.
Zaznaczył, że niepokoi go podejście niektórych firm do pracowników w związku z wyciekiem maila prezesa pewnego przedsiębiorstwa, w którym napisał on, że "zanim zatrudnisz człowieka, przetestuj kilka modeli AI". - Być może taka przyszłość nas czeka, jeżeli po drodze nie pojawią się inne rozwiązania. Mimo wszystko jestem fanem implementowania sztucznej inteligencji, aby polepszyć naszą pracę. Mówienie o 'chwilowej modzie', czy 'hajpie na AI', to moim zdaniem przesypianie ważnego momentu - podkreślił Chrobok.
Źródło: PAP
Źródło zdjęcia głównego: Shutterstock