Sztuczna inteligencja (AI) może prowadzić do zaniku cennych umiejętności pracowników - ocenił doktor Piotr Gaczek z Uniwersytetu Ekonomicznego w Poznaniu. Jak wyjaśnił, regularne delegowanie zadań na maszyny sprawia, że człowiek traci wprawę lub zapomina, jak je wykonywać.
Dr Gaczek bada wpływ AI na procesy decyzyjne. Jego zdaniem, choć coraz więcej osób korzysta w pracy z AI, wciąż nie jest jasne, jak wpłynie to na ich długofalowe kompetencje.
"Ludzie stają się nieco bardziej bierni"
Pojawiają się już badania sugerujące, że regularne korzystanie z narzędzi AI może osłabiać zaangażowanie poznawcze i zmniejszać aktywność sieci neuronowych. Może też dochodzić do pogorszenia wyników, gdy pracownik przyzwyczajony do wsparcia AI nagle traci do niego dostęp.
- Widzimy, że korzystanie z tego typu narzędzi powoduje, że ludzie stają się nieco bardziej bierni. Jest to prawdopodobnie związane z tym, że mniej skrupulatnie przetwarzamy informacje i jesteśmy mniej zaangażowani, ponieważ delegujemy zadania i część odpowiedzialności na sztuczną inteligencję - wyjaśnił dr Gaczek.
AI popełnia błędy
Według niego obecnie dominującym modelem współpracy z AI jest wspomaganie pracy człowieka, a nie jej całkowite zastępowanie. Technologia przejmuje głównie zadania rutynowe, dzięki czemu specjaliści zyskują czas, by skupić się na bardziej złożonych problemach.
Taki model, określany jako "inteligencja hybrydowa", polega na wymianie wiedzy między człowiekiem a maszyną. Użytkownik nadzoruje jej pracę i zleca wykonanie konkretnych zadań, zachowując pełną odpowiedzialność za ostateczny wynik.
Współpraca z AI niesie jednak liczne pułapki. Dr Gaczek ostrzegł, że modele językowe popełniają błędy. Mogą tworzyć tzw. halucynacje (precyzyjnie brzmiące, lecz fałszywe informacje), a zapytane wielokrotnie o to samo, w kilku procentach przypadków podają błędny wynik.
Równie dużym ryzykiem są błędy poznawcze po stronie człowieka. Jednym z nich jest tzw. automation bias, czyli nadmierna wiara w rozwiązania podsuwane przez inteligentny system.
- Większość użytkowników chce szybko i płynnie mieć rozwiązanie problemu i ta grupa osób będzie najbardziej narażona na uproszczenia i powielanie błędów sztucznej inteligencji - zauważył badacz.
Dodatkowym zagrożeniem jest fakt, że systemy AI należą do wielkich korporacji, które mogą mieć interes w manipulowaniu decyzjami użytkowników.
Sztuczna inteligencja a zanikanie umiejętności
Jednak zdaniem ekonomisty najpoważniejszym zagrożeniem, jakie niesie upowszechnienie AI, jest zanikanie cennych kompetencji pracowników i wiedzy przekazywanej kolejnym pracownikom. Jeśli dana czynność jest przez długi czas delegowana na maszynę, człowiek traci wprawę lub po prostu zapomina, jak ją wykonać.
- To jest sedno problemu. Kompetencje mogą zanikać i nie będą przekazywane dalej. To, że ja, pomagając sobie AI, zapomnę, jak pisze się artykuł naukowy, to pół biedy. Gorsze jest to, że nie będę umiał nauczyć mojego doktoranta, jak pisać - zaalarmował dr Gaczek.
"To alarmujący przykład"
Jako przykład podał niemiecką firmę, która rozpoczyna projekt badawczy nad AI mapującym wiedzę swoich menedżerów. Celem jest "ściągnięcie" know-how z pracowników, aby ich wiedza pozostała w firmie nawet po ich ewentualnym zwolnieniu lub odejściu.
- To alarmujący przykład pokazujący, jak szybko człowiek może stać się zbędny po tym, jak maszyna nauczy się od niego wszystkiego - dodał ekonomista.
Problem z AI. Trzy rozwiązania
Firmom, które chcą przeciwdziałać zanikowi umiejętności wśród pracowników korzystających z AI i które chcą odpowiedzialnie wprowadzać rozwiązania AI, badacz polecił trzy rozwiązania.
Po pierwsze to wytłumaczalna AI (Explainable AI). Systemy AI powinny być w stanie wyjaśnić, dlaczego proponują dane rozwiązanie i jakie kroki do niego doprowadziły. Daje to pracownikowi możliwość weryfikacji i kontroli.
Po drugie - mechanizmy kontroli uwagi. Narzędzia AI stosowane w pracy mogą więc co jakiś czas zadawać użytkownikom pytania sprawdzające ich uwagę lub zmęczenie lub wyświetlać komunikaty przypominające o konieczności nadzoru, a nie bezgranicznego zaufania.
Trzecim rozwiązaniem jest zaś superwizor ds. AI. Warto więc, aby w firmie była osoba, której zadaniem jest dbanie o to, by pracownicy korzystali z AI w sposób odpowiedzialny, etyczny, zgodny z polityką firmy.
Dr Gaczek podkreślił, że kluczem do bezpiecznego wdrożenia AI jest zachowanie równowagi między entuzjazmem a ostrożnością.
- Z jednej strony nie należy bać się technologii, a z drugiej trzeba być świadomym jej ograniczeń - podsumował.
Źródło: PAP
Źródło zdjęcia głównego: Shutterstock