|

2023 rokiem sztucznej inteligencji. I zbiorowej "halucynacji" o niej

shutterstock_2278965815
shutterstock_2278965815
Źródło: Hamara/Shutterstock

ChatGPT od roku programuje, pisze listy motywacyjne, wypracowania i korporacyjne raporty. Stał się kolejnym narzędziem w walce o naszą uwagę. I przeniósł debatę o sztucznej inteligencji do mainstreamu. Z pomocą ekspertów w tvn24.pl spróbowaliśmy odsiać to, co jest w tej dyskusji ważne, od tego, co jest tylko "zbiorową halucynacją".

Artykuł dostępny w subskrypcji

ChatGPT, czyli generująca tekstowe odpowiedzi sztuczna inteligencja (artifficial intelligence, AI) , miał premierę pod koniec 2022 r. i w pierwszym odruchu wydawał się postrachem białych kołnierzyków, który niedługo zabierze pracę księgowym, tłumaczom, urzędnikom czy początkującym programistom.

Niedawno minął rok, od kiedy czatbot firmy OpenAI trafił pod strzechy. W pięć dni od premiery (30 listopada 2022 r.) zgromadził milion użytkowników. Netflixowi zajęło to trzy lata. W lutym tego roku miał ich już ponad 100 mln.

Od tego czasu niezmordowanie wypluwa szkolne eseje, korporacyjne raporty, kod programistyczny czy teksty reklamowe. Zmienił zasady gry w Dolinie Krzemowej, gdzie wszystkie wielkie firmy próbują teraz powtórzyć jego sukces i mu dorównać. Doigrał się nawet strajku amerykańskich scenarzystów, którzy bali się, że sztuczna inteligencja obniży ich gaże i będzie podpisywana w napisach końcowych.

Oraz pozwu od wydawcy "New York Timesa", który podnosi, że twórcy czatbota wykorzystują wieloletnią pracę dziennikarzy i redaktorów, mieląc ją w algorytmach - bez wynagrodzenia.

Ale przede wszystkim masowe upowszechnienie czatbota OpenAI przeniosło dyskusję o sztucznej inteligencji - granicach jej rozwoju, etycznych dylematach z nią związanych i jej skutkach ekonomicznych - do mainstreamu i telewizji śniadaniowej. W mijającym roku powstała niezliczona ilość generycznych publikacji i podcastów o tym, jak "fundamentalną" i "rewolucyjną" zmianą będzie sztuczna inteligencja - jak wpłynie na medycynę, edukację, rynek pracy czy politykę. Jak zmieni psychoterapię, sztukę czy pornografię.

W tvn24.pl z pomocą ekspertów postanowiliśmy odsiać kilka ważnych wątków tej debaty od marketingowej piany i mitów, zbiorowych "halucynacji" - jak w branży AI nazywa się sytuacje, w których czatbot "zmyśla" fakty i odpowiada z błędami. Spróbowaliśmy skupić się na wyzwaniach, które przyniesie w najbliższej, przewidywalnej przyszłości.

Przepytaliśmy też sam ChatGPT.

sztuczna
Prof. Dariusz Jemielniak: sztuczna Inteligencja powoduje radykalną redefinicje zawodów, życia, społeczeństwa
Źródło: TVN24

"Sztuczna inteligencja"? Brzmi bardziej sexy niż statystyka

Czołową "halucynacją" o AI w 2023 r., którą straszyły portalowe nagłówki, była dyskusja o tym, czy sztuczna inteligencja może "myśleć" jak człowiek, osiągnąć świadomość i niedługo nas "przerosnąć". Stać się tzw. silną sztuczną inteligencją, posiadającą wszystkie atrybuty ludzkiego umysłu.

- To wciąż pole szerokiej spekulacji - mówi tvn24.pl badaczka AI prof. Aleksandra Przegalińska. Obecne systemy uczenia maszynowego, w tym GPT, operują na zasadzie analizy ogromnych zbiorów danych i znajdowania wzorców, aby przewidywać kolejne słowa czy odpowiedzi. To jednak daleko odbiega od ludzkiej świadomości czy zrozumienia. Są to bardzo zaawansowane i z pewnością spektakularne narzędzia statystyczne, a nie byty świadome. Pomysł, że w "czarnej skrzynce" algorytmów może pojawić się świadomość, jest obecnie bardziej domeną science fiction niż nauki - tłumaczy.

Podobnie odpowiada sam ChatGPT: "Obecnie dostępne systemy AI (...) działają na zasadzie bardzo zaawansowanego przetwarzania danych i algorytmów, a nie są świadomie w sensie, w jaki ludzie rozumieją świadomość (...) są narzędziami do przetwarzania informacji, a nie posiadającymi świadomość bytami".

Z tym, że na razie sztuczna inteligencja jest przede wszystkim statystyką, zgadzają się też matematyczka prof. Hannah Fry i informatyczka dr Kate Devlin w podcaście BBC The Infinite Monkey Cage. Ich zdaniem AI to statystyka napędzana wielką mocą obliczeniową.

Termin "sztuczna inteligencja" po prostu brzmi dużo bardziej sexy.

Dzisiejsze systemy AI różnią się tym od "zwykłych" programów, że mogą same się "uczyć" i poprawiać swoje działanie. Ale dalej pozostają ciągiem cyfr, automatami wytresowanymi miliardem prób i błędów. W przypadku ChatGPT - "zaawansowanym algorytmem wytrenowanym na miliardach słów" z książek, artykułów, stron internetowych i innych danych, które wtłoczyli mu inżynierowie OpenAI. Ta sztuczna inteligencja "uczy się", dostając ciągle informację zwrotną: "dobrze" lub "źle".

Prof. Aleksandra Przegalińska w "Faktach po Faktach"
Źródło: TVN24

Potrafi np. identyfikować obiekty, rozpoznawać na zdjęciach rower, ale nie wie, czym rower jest. Nie rozumie, do czego służy, i nie posiada z nim żadnego osobistego doświadczenia. Z tego typu AI korzystamy masowo już od jakiegoś czasu. Jest ona zaszyta w aplikacjach, np. w nawigacji, która oblicza w czasie rzeczywistym - na podstawie danych o aktualnym natężeniu ruchu - najszybszą trasę z punktu A do B.

- Dyskusja o potencjalnej świadomości AI trochę przesłania nam debatę o bardziej realnych, szkodliwych konsekwencjach sztucznej inteligencji. Zabiera miejsce na rozmowę np. o jej ekologicznych skutkach, bo AI jest bardzo energochłonna. Te eseje i wiersze generowane przez AI nie są bezkosztowe. ChatGPT potrzebuje ogromnych mocy obliczeniowych i hangarów serwerów, które w tym przypadku zapewnia mu Microsoft. Dziennie energia potrzebna na jego funkcjonowanie kosztuje 100 tysięcy dolarów - mówi tvn24.pl David Sypniewski, kierownik otwartej pracowni sztucznej inteligencji na Uniwersytecie SWPS.

I dodaje: - Ta dyskusja zakrywa również kontekst pracy polegającej na zbieraniu i selekcjonowaniu danych dla systemów AI, która często jest outsourcingowana do krajów globalnego Południa i nisko wynagradzana.

Problemy te porusza też badaczka Kate Crawford w książce "Atlas of AI", w której argumentuje, że sztuczna inteligencja nie jest wcale "sztuczna", wyłącznie techniczna i abstrakcyjna, ale powstaje dzięki eksploatacji ogromnych ilości energii - w większości pochodzących z konwencjonalnych źródeł, z rzadkich minerałów potrzebnych do budowy układów scalonych oraz taniej siły roboczej generującej dane. Przykładem tego ostatniego jest wykorzystanie przez OpenAI pracy Kenijczyków, którzy za niecałe 2 dolary na godzinę doskonalili ChatGPT.

Szymański o sztucznej inteligencji (AI)
Szymański: sztuczna inteligencja (AI) staje się coraz mniej widoczna dla użytkowników
Źródło: TVN24

Czy AI zabierze nam pracę?

"Gdzie widzisz siebie za dwa lata?" - pytamy ChatGPT. "I komu odbierzesz pracę?".

Okrągły kursor czatbota chwilę miga, jakby się zastanawiał, i po chwili odpowiada: "Można oczekiwać, że sztuczna inteligencja w ciągu 2 lat będzie jeszcze bardziej zaawansowana w rozumieniu i przetwarzaniu języka ludzkiego. Będzie lepiej interpretować złożone pytania, rozumieć subtelności i konteksty".

I dodaje, że prace, które w pierwszej kolejności są narażone na automatyzację, to m.in. proste zadania biurowe, obsługa klienta, telemarketing i transport.

Zdaniem Michała Jaskólskiego, współtwórcy morizon.pl i projektu Czat.ai, który ma na celu "demokratyzację dostępu do AI", wielkie modele językowe takie, jak OpenAI GPT-4 czy konkurencyjny Google Gemini, w najbliższych 2-3 latach będą bardziej asystentami, narzędziami wspomagającymi codzienną pracę specjalistów.

Będą na razie bardziej "wózkiem widłowym" dla pracy intelektualnej i kreatywnej niż maszynami, które zastąpią ludzi na korporacyjnych open space'ach.

- Ale w miarę wzrostu ich możliwości mogą dość szybko kwestionować ten stan rzeczy i automatyzować kolejne zawody. To może wydarzyć się już za 4-5 lat. Wówczas przetrwają te profesje, które opierają się na interakcjach międzyludzkich, jak np. fryzjer, terapeuta czy [hurra! - red.] dziennikarz śledczy. A jeśli czyjaś praca polega na operowaniu w środowisku cyfrowym i może być wykonywana w pełni zdalnie, będzie zagrożona - uważa Jaskólski.

- To narzędzie, które ma potencjał do gruntownego przemeblowania całego rynku pracy - mówi prof. Przegalińska. - W świecie korporacji i usług, gdzie większość pracy to pisanie maili, tworzenie raportów i analizowanie danych, ChatGPT może być rewolucją. Bo robi te wszystkie czynności szybciej, taniej i czasem lepiej niż ludzie, przy czym należy tu zastrzec, że w badaniach, które prowadzimy aktualnie na Harvardzie, najwyższy wzrost jakości pracy widzimy wtedy, kiedy ludzie pracują z ChatGPT, a nie kiedy on wykonuje zadania za nich - dodaje.

Według badaczki pewna jest zmiana natury naszej pracy oraz współpracy. - ChatGPT i podobne technologie mogą nawet stworzyć nowe rodzaje pracy, o których jeszcze dzisiaj nie myślimy. Tak jak kiedyś pojawienie się komputera osobistego otworzyło drzwi do całkiem nowych zawodów, tak samo może być z AI - komentuje prof. Przegalińska.

- To nie jest do końca dyskusja o sztucznej inteligencji, ale o kapitalizmie. Amerykański pisarz science fiction Ted Chiang trafnie powiedział, że nasze obawy wobec nowych technologii tak naprawdę są obawami wobec kapitalizmu. Istotne jest, co ten szef czy menedżer korporacji za pomocą tych narzędzi zrobi. AI zawsze będzie zależeć od systemu polityczno-ekonomicznego, w którym powstaje. W jednym może stać się bezdusznym nadzorcą pracowników, inwigilującym ich każdy ruch, w innym - doprowadzić do skrócenia czasu pracy, np. do czterech dni w tygodniu - mówi z kolei David Sypniewski z SWPS.

Po czym dodaje: - Ale to można też odwrócić. AI może być też narzędziem, które będzie służyć związkom zawodowym czy organizacjom pozarządowym. Na przykład Greenpeace stworzył takie narzędzie, które pozwala rozpoznawać starodrzewa w lasach, mapować je i dzięki temu dysponować lepszymi argumentami w rozmowach z rządami na temat ochrony lasów.

"Do 2050 roku nawet połowa miejsc pracy zostanie zastąpiona sztuczną inteligencją"
"Do 2050 roku nawet połowa miejsc pracy zostanie zastąpiona sztuczną inteligencją"
Źródło: TVN24

Więcej językowych śmieci, clickbaitów i fałszywek

ChatGPT zmieni też pracę kreatywną polegającą na pisaniu, np. pracę copywriterów w reklamie czy dziennikarzy. Może się ona stać bardziej "redaktorska", a więc wymagająca trochę innego zestawu umiejętności. Coraz więcej tekstów PR-owych, instrukcji, poradników czy komunikatów, które będziemy czytać - będą miksem pracy człowieka i AI.

Bo ChatGPT już, pod względem poprawności, gramatyki czy stylu, pisze lepiej niż wielu ludzi (na pewno w języku angielskim). I teraz generowanie treści, które walczą o naszą uwagę, będzie jeszcze tańsze i szybsze.

A infosfera już jest dla nas przytłaczająca. Coraz częściej musimy robić "cyfrowe detoksy" i ograniczać konsumpcję newsów i mediów społecznościowych dla naszego zdrowia psychicznego. Dzięki AI będziemy mieli jeszcze więcej clickbaitów i dezinformacji, za którą już nie nadążamy.

To z kolei może jeszcze bardziej pogłębić polaryzację, bo łatwiej i szybciej będzie można "uszyć" komunikaty pod konkretne bańki w mediach społecznościowych. Kierować treści dopasowane do określonej grupy wiekowej czy lokalnego kontekstu. W sieci już można znaleźć poradniki o tym, jak zaprzęgnąć ChatGPT do tworzenia fałszywych kont i botów, żeby dla zwykłych użytkowników wyglądały autentycznie.

Sztuczna inteligencja służy do tworzenia deepfejków, ale może też je rozpoznawać. "Musimy bardzo uważać"
Źródło: Jacek Tacik/Fakty TVN

AI "dostępna dla wszystkich" czy zmonopolizowana?

W dyskusji o AI istotna jest też kwestia jej dostępności i postępującej komercjalizacji tej technologii. Wielkie firmy, takie jak OpenAI, próbują przekonywać, że sztuczna inteligencja będzie kiedyś "dostępna dla wszystkich", a z jej dobrodziejstw skorzystają najbiedniejsi. Odpowiadała temu pierwotna formuła organizacji non profit, ale z czasem OpenAI stało się organizacją komercyjną. Do tego branża AI mocno się konsoliduje, a na najlepszych specjalistów stać przede wszystkim duże korporacje.

- Bez ogródek: komercjalizacja AI w najbliższych latach będzie postępować w szybkim tempie - mówi prof. Przegalińska. - Coraz więcej firm z różnych sektorów będzie wdrażać te rozwiązania, żeby zwiększyć efektywność, zautomatyzować procesy, tworzyć nowe produkty lub usługi. Ale to, czy AI będzie "technologią dostępną dla wszystkich", to bardziej skomplikowana kwestia. Z jednej strony zwiększająca się dostępność i spadające koszty technologii mogą sprawić, że stanie się bardziej powszechna. Ale istnieje też ryzyko, że duże korporacje, które dysponują znacznymi zasobami finansowymi i danymi, będą dominować w tej przestrzeni. A to może prowadzić do nierówności w dostępie i kontroli nad tą technologią - dodaje.

To zagrożenie dostrzega też David Sypniewski..

- Krajobraz na rynku AI może za jakiś czas wyglądać jak dzisiejszy internet, podzielony na duże korporacyjne silosy, które mają najwięcej użytkowników oraz nieliczne demokratyczne wysepki dla outsiderów. Niebezpieczeństwo monopolizacji tej sfery jest bardzo realne - mówi.

Hamulcowi kontra akceleracjoniści

Od tego, jak rozwijana będzie sztuczna inteligencja, dużo zależy od samej społeczności twórców AI - przede wszystkim pracowników korporacji takich jak OpenAI. Ich siłę pokazała np. tegoroczna próba odwołania prezesa firmy Sama Altmana, po której gremialnie zaprotestowali i po kilku dniach przywrócili szefa na stanowisko.

Społeczność AI dzieli się zasadniczo na dwa obozy: po jednej stronie są tzw. doomerzy, którzy widzą w sztucznej inteligencji głównie zagrożenia, a najbardziej skrajni - ryzyko zagłady ludzkości. To hamulcowi, którzy przekonują, żeby sztuczną inteligencję rozwijać ostrożnie - może poczekać na regulację, a w niektórych najbardziej wrażliwych obszarach wprowadzić moratorium na badania, np. broni autonomicznej?

Po drugiej stronie są tzw. akceleracjoniści, którzy mówią: "Przyspieszamy! Najważniejszy jest jak najszybszy rozwój sztucznej inteligencji". W grupie tej dominuje przekonanie, że dzięki AI będziemy mogli rozwiązać kluczowe problemy ludzkości, np. dokonać przełomu w medycynie czy ograniczyć biedę. Ważne, żeby jak najszybciej do tego etapu dotrzeć, a jeśli po drodze sztuczna inteligencja popełni trochę błędów, to w ostatecznym rozrachunku będzie warto.

Od układu sił pomiędzy tymi obozami zależy przyszłość AI. Który z nich jest silniejszy?

- Fundusze i inwestorzy są oczywiście po stronie jak najszybszego rozwoju, chcąc skorzystać jak najmocniej na rozwoju całego ekosystemu. Temat bezpieczeństwa jest istotny dla nich głównie dlatego, żeby rozwój nie został przystopowany przez regulacje - mówi Michał Jaskólski.

Zdaniem twórcy Czat.ai, tezy tzw. doomerów, niezależnie od tego, jak oceniać ich racjonalność, mają jedną zasadniczą cechę: są bardzo atrakcyjne medialnie. - Jeden naukowiec może dyskutować jak równorzędny partner z całą korporacją o rozmiarach Google. To zapewnia pewnego rodzaju równowagę w dyskusji mimo tego, że kapitalistyczne siły są po stronie akceleracjonistów. I dobrze, bo taki dyskurs jest potrzebny i nie może być uciszany - dodaje.

- Akceleracjoniści powstali trochę jako grupa sprzeciwu wobec apokaliptycznych wizji rozwoju AI, które w ostatnim roku mnożyły się w przestrzeni medialnej - mówi prof. Przegalińska. - Jako reakcja na sianie strachu wobec AI ten pogląd jest dla mnie zrozumiały, ale nie mam przekonania, że należy za wszelką cenę przyspieszać rozwój tej technologii. Jednak podzielam opór niektórych akceleracjonistów wobec bardzo jednoznacznie negatywnych, wręcz nihilistycznych wizji rozwoju AI, która miałaby być zagrożeniem dla ludzi. Mam wrażenie, że część doomerów upaja się wręcz tym strachem, który sieją.

Czytaj także: