"Oddajemy naszą prywatność za pewne korzyści". Ekspert ostrzega

smartfon, laptop, telefon, cyberbezpieczeństwo
Eksperci radzą, jak się nie dać okraść przez cyberoszustów
Źródło: TVN24
Korzystanie z czatbotów wiąże się z ryzykiem wycieku wrażliwych danych - ostrzega Mateusz Chrobok, ekspert do spraw cyberbezpieczeństwa. - Badania pokazują, że modele przechowują tego typu informacje i jeżeli będą na nich trenowane, nie da się ich łatwo wymazać - podkreśla.

Firmy technologiczne rozwijające czatboty sztucznej inteligencji często pozyskują dane o użytkownikach z internetu, w tym z mediów społecznościowych oraz na podstawie informacji, które wpisują oni do czatbotów - zwrócił uwagę Mateusz Chrobok, ekspert cyberbezpieczeństwa i AI.

- Na tej podstawie jesteśmy przez daną firmę zazwyczaj profilowani, aby odpowiedzi czatbota były bardziej do nas dopasowane - wyjaśnił.

"Zdarza się, że jesteśmy kuszeni oddaniem swoich danych"

Ekspert wskazał, że z promptów, czyli zapytań, które dany użytkownik wpisuje do czatbota, firmy mogą wyczytać informacje o języku, jakim się on posługuje, wyglądzie - w przypadku dołączanych zdjęć, o poglądach, sytuacji rodzinnej, problemach itp. Niektóre firmy dodatkowo proszą o dostęp do informacji z urządzenia użytkownika, np. kontaktów, lokalizacji.

- Chiński DeepSeek zbierał też sposób pisania na klawiaturze, z którego można wyciągnąć sporo danych, np. wiek, bądź to czy jesteśmy danego dnia zmęczeni lub niewyspani - zauważył Chrobok.

- Zdarza się, że jesteśmy kuszeni oddaniem swoich danych w zamian za darmowy dostęp do czatbota, lepszy model itp. Czyli tak naprawdę oddajemy naszą prywatność za pewne korzyści - zaznaczył.

Wskazał, że korzystanie z czatbotów wiąże się z ryzykiem wycieku wrażliwych danych. Chrobok przypomniał sytuację sprzed dwóch lat, kiedy to firma OpenAI pomyliła indeksy użytkowników ChatGPT. Skutkowało to sytuacją, w której po zalogowaniu się na swoje konto, dana osoba miała dostęp do historii rozmów innej osoby. - Problem dotknął 1,2 proc. użytkowników, ale w praktyce to miliony osób - podkreślił.

Możliwe przejęcie konta

Innym zagrożeniem bezpieczeństwa związanym z czatbotami jest atak ATO, czyli Account Takeover (przejęcie konta – red.) - wskazał ekspert. Po przejęciu konta cyberprzestępca może zyskać dostęp do danych z historii konwersacji użytkownika, np. imienia, nazwiska, numeru telefonu, numeru karty kredytowej, jeśli przez przypadek ją wpisał lub udostępnił w jakimś dokumencie - ostrzegł Chrobok.

- Badania pokazują, że modele przechowują tego typu informacje i jeżeli będą na nich trenowane, nie da się ich łatwo wymazać. Są też sposoby, jak te dane wyciągnąć z czatbota - zaznaczył ekspert.

Dodał, że część firm umożliwia użytkownikom wyłączenie opcji zapisywania historii czy szkolenia modelu na ich danych. - Dla bardzo wrażliwych informacji najbezpieczniej jest zainstalować na swoim urządzeniu lub serwerze lokalny model. Wtedy jest największa szansa, że nasze dane nie wyciekną - podkreślił.

Kraj pochodzenia czatbota ma znaczenie

Według eksperta na poziom ochrony danych użytkowników może wpływać kraj pochodzenia czatbota. - DeepSeek czyli chińska firma, tworzy świetne modele takie jak r1, ale jest on blokowany w wielu miejscach, ponieważ zgodnie z chińskim prawem, jego twórcy muszą przekazywać dane o użytkownikach władzom, a te np. mogą oddać je służbom - wskazał.

Podał przykład hipotetycznej sytuacji, w której amerykański urzędnik pisze z chińskim czatbotem i opowiada mu o swoich problemach z rodziną, czy biznesem. - Zebrane informacje mogłyby posłużyć Chinom do zwerbowania tej osoby na szpiega bądź do innego wywarcia wpływu. Myślę, że ujawniając nasze słabości, jesteśmy w takiej sytuacji bardziej podatni na manipulację - podkreślił.

Chrobok zaznaczył, że badania pokazują, że modele odzwierciedlają poglądy ich twórców. - Przykładowo chiński DeepSeek ma negatywny sentyment (ton generowanej treści - red.) przy wypowiedziach o amerykańskich żołnierzach, a modele OpenAI zupełnie odwrotnie - wskazał i dodał, że "każdy model to pewna bańka informacyjna". - One nie są neutralne, nawet, jeśli niektórzy twórcy starają się, aby takie były. Warto o tym pamiętać - podkreślił.

- Można to znacznie poprawić technicznymi metodami jak Deep Research (zaawansowana metoda analizy informacji - red.), ale nie każdy wie, jak z nich korzystać. Dlatego też zachęcam do sceptycyzmu wobec treści, które generują czatboty - podkreślił ekspert.

Czatboty w miejscu pracy. "Tego boi się wiele firm"

Chrobot pytany o zagrożenia związane z czatbotami w miejscu pracy, podał przykład z 2023 r., kiedy to pracownik firmy Samsung wrzucił w ChatGPT prezentację z tajnymi danymi, które w konsekwencji wyciekły i mogła je zdobyć konkurencja. - Tego boi się wiele firm, managerów i zdarza się, że całkowicie zakazują pracownikom korzystania ze sztucznej inteligencji. Moim zdaniem to nie jest dobra droga - ocenił edukator. Według niego, bez tej technologii firmy będą mniej konkurencyjne. - Po prostu trzeba wiedzieć, jak bezpiecznie z niej korzystać - zaznaczył.

Według Chroboka proces bezpiecznego wdrażania AI w firmach należy zacząć od wypracowania "higieny AI", czyli edukacji samych przełożonych, a później pracowników. - Po drugie, ważne są środki techniczne - wskazał i wyjaśnił, że istnieje cała dziedzina rozwiązań o nazwie Data Leak Prevention (ochrona przed wyciekiem danych - red.), w którą mogą zainwestować pracodawcy. Należą do niej np. modele, które oceniają, jakie dane mogą opuścić firmę, a jakie nie.

Ekspert wskazał, że w każdej organizacji powinny również istnieć zasady korzystania z AI, w których określa się np. jakie dane można wrzucić do czatbota, które z nich są wrażliwe, a które powinny być oznaczone jako wygenerowane przy pomocy sztucznej inteligencji, bo np. tego wymaga prawo.

Ekspert pytany, czy - według niego - mimo ryzyk sztuczna inteligencja powinna być implementowana w każdej firmie, stwierdził, że zmuszanie wszystkich przedsiębiorców do AI byłoby "nieludzkie". - Ale lepiej znać tę technologię, bo może pomóc odnaleźć się na rynku pracy, czy usprawnić samą pracę, tak by było jej mniej i by była bardziej efektywna - ocenił.

Ewolucja czy rewolucja?

- Jesteśmy w momencie, który niektórzy określają ewolucją, rewolucją, czy używają innych wielkich słów. To jeszcze nie jest ten moment, gdzie AI nas przerasta, chociaż pod pewnymi względami na pewno tak jest - wskazał. Podkreślił, że ludzka inteligencja jest ograniczona. - Modele AI też mają swoje ograniczenia i zagrożenia, ale są coraz dokładniejsze i w przyszłości staną się lepsze od ludzi. Nasze umiejętności i zdolności będą po prostu słabsze - ocenił.

Zaznaczył, że niepokoi go podejście niektórych firm do pracowników w związku z wyciekiem maila prezesa pewnego przedsiębiorstwa, w którym napisał on, że "zanim zatrudnisz człowieka, przetestuj kilka modeli AI". - Być może taka przyszłość nas czeka, jeżeli po drodze nie pojawią się inne rozwiązania. Mimo wszystko jestem fanem implementowania sztucznej inteligencji, aby polepszyć naszą pracę. Mówienie o 'chwilowej modzie', czy 'hajpie na AI', to moim zdaniem przesypianie ważnego momentu - podkreślił Chrobok.

TVN24 HD
Dowiedz się więcej:

TVN24 HD

Zobacz także: