Rządy i organizacje pracują nad regulowaniem technologii i narzędzi AI. O szansach i zagrożeniach wynikających ze stosowania sztucznej inteligencji w "Faktach po Faktach" w TVN24 rozmawiali badaczka sztucznej inteligencji profesor Aleksandra Przegalińska z Akademii Leona Koźmińskiego, ekspert do spraw sztucznej inteligencji Lech C. Król i reporter TVN24 zajmujący się tematami związanymi ze sztuczną inteligencją Piotr Szostak.
Szybki rozwój sztucznej inteligencji (AI) powoduje, że rządy i organizacje międzynarodowe ścigają się w regulowaniu jej narzędzi i tworzą pierwsze prawne regulacje dotyczące tej technologii. Twórcy AI podczas pierwszego poświęconego jej globalnego szczytu bezpieczeństwa w Wielkiej Brytanii, który odbył się 2 listopada, zgodzili się współpracować z rządami w celu przetestowania nowych narzędzi przed ich szerszym udostępnieniem, aby pomóc w zarządzaniu ryzykiem związanym z rozwijającą się technologią.
- To jest technologia, która ma prawie dziewięć dekad, więc trochę historii wzlotów i upadków ma. Rzeczywiście w ostatnim czasie zdarza się jej wykonywać różne zadania tak samo dobrze jak człowiek lub lepiej - powiedziała w "Faktach po Faktach" w TVN24 prof. Aleksandra Przegalińska z Akademii Leona Koźmińskiego.
Badaczka sztucznej inteligencji wskazała, że nowe algorytmy, które w ostatnich latach stworzono, spowodowały, że "w dużej ilości zadań opartych na wiedzy, które do tej pory przypisywaliśmy ludziom, analizy różnych tabelek w Excelu, ale też pisanie poezji albo tworzenie raportów biznesowych, ona może się popisać".
- W tym sensie stanowi rywala dla człowieka. Obecnie rozumuje, ale myśleniem byśmy tego nie nazwali. Dużo się od nas nauczyła. Daliśmy jej do dyspozycji całą naszą skatalogowaną wiedzę, więc ona na tym bazuje i może nas też wspierać - dodała.
"Jeden z konceptów zakłada, że właśnie tworzymy boga"
Ekspert ds. sztucznej inteligencji Lech C. Król podkreślił, że komputery nauczyły się rozumieć świat. - Do tej pory był człowiek, który musiał im wytłumaczyć świat, wpisywał rozkład jazdy pociągów i one za pomocą algorytmu stworzonego przez człowieka tworzyły wynik. Dzisiaj one są multimodalne, czyli rozumieją, co się narysuje, rozumieją, co się napisze i rozumieją, co się powie - stwierdził.
Lech C. Król przyznał, że zdania na temat tego, czy sztuczna inteligencja sama "kombinuje", czy też odtwarza "na zasadzie znalezienia czegoś, co było podobne", są podzielone.
- Jeden z konceptów sztucznej inteligencji zakłada, że właśnie tworzymy boga - zwrócił uwagę. - To może wydarzyć się bardzo szybko, nawet jutro. Jest taki koncept, który się nazywa "FOOM", który polega na tym, że jakaś sztuczna inteligencja osiągnie pewien poziom zbliżonej inteligencji do człowieka i będzie mogła się trochę usprawnić - powiedział.
- Usprawni się i stwierdzi, że chce się usprawnić jeszcze bardziej. W związku z tym usprawni się kolejny raz, a ponieważ będzie mądrzejsza niż poprzednio, to usprawni się szybciej i lepiej, i za każdym kolejnym cyklem w błyskawicznym tempie osiągnie poziom, który przekroczy ludzką inteligencję - dodał.
Dopytywany, czy taki rozwój sztucznej inteligencji związany byłby z tym, że ktoś podłączy jej jeszcze większe zasoby pamięci na serwerach, na podstawie których będzie dochodziła do jakichś wniosków i konkluzji, odpowiedział: - bogactwo wiedzy czy zrozumienia w sieciach neuronowych sprawi, że ona będzie potężniejsza. - W pewnym momencie, jeśli ona się tak sama zacznie uczyć, to sobie sama podłączy te serwery - dodał.
"Jest to coś, w co ludzie wierzą, ale ona nie wierzy"
Prof. Aleksandra Przegalińska zapytana, na jakiej podstawie sztuczna inteligencja jest w stanie stwierdzić, że na przykład nie ma świętego Mikołaja, odpowiedziała: - rzeczywiście może być tak w przypadku dowolnego modelu językowego, że to jest kopia jakiejś wypowiedzi, która znajduje się w silniku wiedzy sztucznej inteligencji. Może to być też skomasowana wiedza wielu ludzi, którzy na jakichś forach się wypowiadali.
- Sztuczna inteligencja na podstawie wielu wypowiedzi mogła dojść do tego, że można stworzyć syntetyczną całość, gdzie to jest zaprezentowane w uprzejmy sposób, że jest to coś, w co ludzie wierzą, ale ona nie wierzy - stwierdziła i wyjaśniła, że może to wynikać z tego, że w jej obszernej bazie nie ma dużej reprezentacji, w której byłaby mowa, że on (święty Mikołaj) jest absolutnie prawdziwy.
Badaczka zwróciła uwagę, że "możliwe jest stworzenie modelu językowego karmionego informacjami o istnieniu elfów, krasnoludków i świętego Mikołaja". - Wówczas taka sztuczna inteligencja odpowiada na to pytanie zupełnie inaczej - dodała.
Zagrożenia wynikające ze stosowania sztucznej inteligencji
Lech C. Król zwrócił uwagę, że zarówno szef Tesli, SpaceX i platformy X Elon Musk, a także Sam Altman, który do 2023 roku pełnił funkcję dyrektora generalnego OpenAI, wierzą, że sztuczna inteligencja może być groźna.
- Teraz jak się popatrzy na pewne podobieństwa zdarzeń, to w bardzo podobny sposób grupy naukowców mówią o sztucznej inteligencji, jak mówiono kilkadziesiąt lat temu o energii jądrowej - stwierdził. - Jedyną różnicą jest to, że tam mocarstwa walczyły o prymat, a teraz walczą między sobą korporacje - dodał.
Zdaniem Lecha C. Króla "igramy z ogniem, bo tworzymy narzędzie, które już w tej chwili jest w wielu rzeczach lepsze od nas". - Sztuczna inteligencja stworzyła algorytmy do mnożenia macierzy. Przez 50 lat naukowcy próbowali znaleźć lepszy sposób, a sztuczna inteligencja znalazła - wskazał.
- Zdolność intelektualna AI jest wyższa od naszej, bo nam się przez kilkadziesiąt lat pracy nie udało stworzyć takiego rozwiązania, a ona policzyła przez kilka minut i już - powiedział. Lech C. Król wspomniał również o przykładzie AlphaGo Zero - modelu, który uczył się sam na sobie gry w popularną starochińską grę planszową. - Ono nie tylko jest lepsze od najlepszego gracza w go, ale jest niewyobrażalnie lepsze - dodał.
Szostak: AI może napędzić dezinformacje
Z kolei Piotr Szostak, reporter TVN24 zajmujący się tematami związanymi ze sztuczną inteligencją, stwierdził, że obecna sztuczna inteligencja, oparta na uczeniu maszynowym "to jest przede wszystkim osiągnięcie na polu statystyki". - Zmianą jest ogromna moc obliczeniowa i lepsze algorytmy do analizy danych, ale dalej jest to statystyka - wskazał.
- Nie podzielam lęków, że sztuczna inteligencja może być egzystencjalnym zagrożeniem dla gatunku ludzkiego. Wydaje mi się, że są to lęki z obszaru science fiction. Ważniejsze jest tu i teraz albo za parę lat i to, jakim zagrożeniem może być sztuczna inteligencja - powiedział reporter TVN24.
- Na przykład dezinformacja i fake newsy to jest obszar, w którym sztuczna inteligencja sprawi, że będzie dużo łatwiej tworzyć tego typu treści. Już teraz ChatGPT w języku angielskim pisze lepiej pod względem stylu, gramatyki niż wielu ludzi. To przekłada się na to, że spadają koszty tworzenia tego typu treści - dodał. To wszystko, jak wyjaśnił, może prowadzić do napędzania się dezinformacji.
Źródło: TVN24
Źródło zdjęcia głównego: Adobe Stock