Nowa wersja GPT-4 to najbardziej zaawansowany jak dotąd model sztucznej inteligencji, który został szeroko udostępniony do testów. Redakcja tvn24.pl jako jedna z pierwszych w Polsce miała do niego dostęp i sprawdziła, co rzeczywiście potrafi to narzędzie. Wyniki okazały się zaskakujące.
14 marca firma OpenAI udostępniła nową wersję sztucznej inteligencji generującej tekstowe odpowiedzi, czyli dostępny w formie chata GPT-4. Narzędzia tego typu, zwłaszcza ogólnodostępna wersja GPT-3,5, wywołała światowe poruszenie, a według ekspertów sztuczna inteligencja może wkrótce wywołać prawdziwą technologiczną rewolucję.
Wydana teraz nowa wersja jest jeszcze bardziej kreatywna, lepiej współpracuje z użytkownikiem, a udzielane przez nią odpowiedzi są o kilkadziesiąt procent bardziej rzeczowe. To ogólne hasła, ale jak wiele w rzeczywistości potrafi GPT-4 i jak ta sztuczna inteligencja działa w praktyce? Tuż po premierze nowego narzędzia redakcja tvn24.pl przetestowała to jako jedna z pierwszych w Polsce.
Nowe zdolności GPT-4
Sednem małej rewolucji, którą wprowadza nowa wersja GPT-4, jest jest zdolność do analizowania różnorodnych treści. - Główną nowością, którą wprowadza, jest tak zwana multimodalność, wielozmysłowość. Dzięki temu może on pracować nie tylko na tekście, ale też na obrazach, a następnie wykorzystywać analizowane treści, podobnie, jak robią to ludzie - mówi Michał Jaroń, senior data scientist w grupie TVN. Co to oznacza w praktyce? - Nowa wersja GPT-4 potrafi rozpoznać i opisać rzeczy na zdjęciach, przeprowadzić analizę podatkową na podstawie wskazanych przepisów, czy zaproponować przepis na obiad gdy dowie się, co mamy w lodówce - wyjaśnia.
Sprawdziliśmy te nowe umiejętności GPT-4 w praktyce. Jedną z najważniejszych nowości jest jego zdolność do analizowania dużych baz danych i długich tekstów. Narzędzie potrafi teraz zapoznać się na przykład z kilkudziesięcioma stronami przepisów prawnych i w kilku zdaniach opisać, co z nich wynika. W ten sposób można go poprosić o streszczenie czy wyjaśnienie zapisów danej ustawy. GPT-4 nie miał żadnych problemów z np. streszczeniem zapisów ustawy wiatrakowej i wypunktowaniem najważniejszych jej zapisów.
Jednocześnie GPT-4 potrafi odpowiadać na pytania zgodnie z rolą, jaką przydzielił mu człowiek. Może więc wypowiadać się specjalistycznym językiem fizyka kwantowego, albo naśladować styl mówienia znanego polityka, np. Donalda Trumpa czy Lecha Wałęsy. Narzędzie może działać też w drugą stronę i samemu dostosować się do oczekiwanego odbiorcy. Na przykład wyjaśnić zapisy ustawy wiatrakowej językiem zrozumiałym dla 5-latka.
Umiejętność tę można wykorzystać na bardzo wiele sposobów. Nie tylko do wyjaśniania długich i skomplikowanych dokumentów prawnych, ale też np. w leczeniu. Jak sprawdzili dziennikarze "New York Times", nowe narzędzie potrafi sformułować racjonalny sposób leczenia pacjenta na konkretną chorobę. Opisali oni przypadek, jak jeden z amerykańskich kardiologów przedstawił sztucznej inteligencji historię medyczną mężczyzny, którego dzień wcześniej przyjęto do szpitala i - używając skomplikowanych terminów medycznych - zapytał o możliwe sposoby leczenia. GPT-4 udzielił odpowiedzi, która była w pełni zgodna z tym, jakie kroki w rzeczywistości podjęli lekarze.
GPT-4 liczy i doradza
Nowa wersja sztucznej inteligencji potrafi także bardzo dobrze liczyć - postęp na tym polu w porównaniu do wcześniejszej wersji GPT jest wręcz olbrzymi. Poprosiliśmy go najpierw, aby wyjaśnił nam na podstawie przepisów jak działa w Polsce wspólne rozliczanie podatku PIT przez małżonków - tak prosto, jak to tylko możliwe, najlepiej na poziomie 5-latka.
Następnie poprosiliśmy, aby zrobił użytek z tej wiedzy i doradził nam, co bardziej opłaca się w konkretnych przypadkach. Na przykład sytuacji, w której żona zarobiła w ciągu roku 133 tys. zł brutto, a mąż 90 tys. zł brutto. GPT-4 nie tylko bezbłędnie wykonał obliczenia, ale też właściwie zastosował wszystkie przepisy podatkowe. Nie pomylił się nawet w szczegółach, pamiętając m.in. o konieczności oddzielnego zastosowania kwoty wolnej od podatku dla każdego z małżonków.
Takich testów liczenia i analizowania przepisów podatkowych wykonaliśmy więcej i ku naszemu zaskoczeniu - we wszystkich GPT-4 okazał się bezbłędny. Jedyne błędy, jakie popełnił, wynikały z błędów lub niejasności w zadawanych przez nas pytaniach. To olbrzymi postęp względem jego poprzedniej wersji GPT-3,5, która, choć się starała, potrafiła popełniać wręcz banalne błędy.
ZOBACZ TEŻ: Media: sztuczna inteligencja porównuje dziennikarza do Hitlera, pisze też, że ma brzydkie zęby
GPT-4 i analiza obrazów
Inną z całkiem nowych funkcjonalności GPT-4 jest zdolność do "oglądania" i analizowania obrazów. Wysyłając do niego wybrane zdjęcie można poprosić nie tylko, by opisał, co na nim się znajduje, ale także by je zanalizował. Mało tego - GPT-4 może też wiedzę z analizowanego zdjęcia samodzielnie wykorzystać.
Samodzielne sprawdzenie tego okazało się jednak jeszcze niemożliwe. Wstępna, "alpha" wersja GPT-4, do której dostęp umożliwiono dziennikarzom, nie zawiera jeszcze tej funkcji. Przykłady jej działania prezentowali jedynie sami twórcy oprogramowania. Na przykład taki, jak po wysłaniu zdjęcia produktów znajdujących się w naszej lodówce, GPT-4 potrafi na ich podstawie zaproponować przepisy na obiad możliwe do przyrządzenia z nich.
Co ciekawe, w wielu przypadkach ogólnodostępna wersja GPT-3,5 całkiem nieźle potrafi obecnie imitować tę funkcję. Wysyłając jej adres dostępnego w Internecie zdjęcia produktów wewnątrz lodówki chat zaoferował całkiem sensowny i nie najgorzej wyjaśniony przepis. Niestety, w rzeczywistości narzędzie to nie potrafiło "obejrzeć" wysłanego zdjęcia, a przepis wygenerowało jedynie na podstawie metadanych, którymi fotografia była opisana. Innymi słowy, starsza wersja GPT zmyśliła swoją odpowiedź i nie odnosiła się ona bezpośrednio do produktów widocznych na zdjęciu.
Udostępnienie szerzej zdolności analizowania obrazów przez GPT-4 będzie jednak olbrzymią zmianą, która przyniesie niezliczone nowe możliwości wykorzystania. Pomoże na przykład zidentyfikować dziwny, metalowy element, który znaleźliśmy u siebie na strychu, znaleźć czy policzyć obiekty na zdjęciu, a nawet wytłumaczyć sens internetowych memów. Nowa wersja potrafi bowiem nie tylko stworzyć żart na zadany przez człowieka temat, ale też rozumieć już istniejące żarty.
Można go będzie dzięki temu wykorzystać na przykład do wytłumaczenia, o co chodzi w danym memie i na czym polega jego zabawność. Pierwsze przykłady takiego zastosowania znaleźć można już w sieci. Na przykład taki, jak GPT-4 wyjaśnia, z czego wynika zabawność mema pokazującego mapę świata ułożoną z kawałków kurczaka i podpisanego jako "Ziemia widziana z kosmosu". "Tekst budzi oczekiwanie majestatycznego obrazu Ziemi, tymczasem obraz okazuje się przyziemny i niemądry", wyjaśniła sztuczna inteligencja.
ZOBACZ TEŻ: Kto napisał tekst: człowiek czy Chat GPT? Nowe narzędzie ma to sprawdzać, ale często się myli
Egzaminy, testy, gry i zabawy
GPT-4 bardzo dobrze radzi sobie także z rozwiązywaniem zagadek i pisaniem testów, również bardzo specjalistycznych. Amerykańskie egzaminy adwokackie wypełnia - według jego twórców - z wynikiem na poziomie 10 proc. najlepszych prawników. Potrafi też pokonać 90 proc. osób biorących udział w testach stosowanych do przyjęć na uniwersytety w USA - Scholastic Assessment Test i Graduate Record Examination.
Narzędzie potrafi jednak nie tylko rozwiązywać gotowe zadania i testy, ale też samemu je tworzyć. GPT-4 bez problemu stworzy własny test z określonego tematu, a nawet quiz. Redakcja tvn24.pl poprosiła go na przykład o ułożenie prostego quizu o zwierzętach. Ten okazał się bezbłędny. Sztuczna inteligencja nie tylko ułożyła ciekawe, różnorodne pytania i wybrała poprawne odpowiedzi, ale też wszystko opatrzyła ładnymi obrazkami zwierząt. Oczywiście, również wygenerowanymi przez algorytm.
GPT-4 może też pisać kody źródłowe tworząc całe programy czy gry komputerowe. W naszych testach nie miał większych problemów z błyskawicznym napisaniem kodu prostej, ale w pełni działającej gry Arkanoid.
Problemem okazało się w tym przypadku jedynie istniejące wciąż w narzędziu ograniczenie dotyczące skali zadania, które jest od niego wymagane. Na proste pytania typu "stwórz quiz" albo "stwórz grę" GPT-4 często odpowiada, że to zbyt skomplikowane zadanie. Jeżeli jednak podzieli się mu to zadanie na mniejsze, logiczne części, i później połączy w całość, uda się uzyskać oczekiwany rezultat. GPT-4 potrafił z resztą samemu sobie odpowiednio podzielić zbyt duże zadanie, a części pisanego później przez niego kodu oprogramowania pasowały do siebie perfekcyjnie. Ograniczenie to niewątpliwie wpływa jednak na wygodę korzystania z GPT-4.
GPT-4 - słabości
GPT-4 okazał się dużym skokiem jakościowym i narzędziem, które potencjalnie stało się bardzo bliskie praktycznego wykorzystania na bardzo wiele sposobów. Nadal nie pozostaje ono jednak pozbawionym wad. Nie byliśmy w stanie sprawdzić, jak skutecznie pracuje przy analizie obrazów, nadal nie posiada on również możliwości analizowania dźwięku. Wciąż średnio dobrze sprawdza się w zadaniach typowo kreatywnych, w których dostęp do faktów i olbrzymich baz danych nie wystarcza do wykonania zadania. Nie sformułuje więc autorskich hipotez dotyczących przyszłości świata, ale całkiem nieźle wykorzysta te już stworzone. Nadal GPT-4 zdarza przy tym zmyślać odpowiedzi, gdy nie zna prawidłowej, i na przykład podawać fałszywe adresy stron internetowych. Przy korzystaniu z pewnością nie można mu więc w pełni zaufać.
Dużym utrudnieniem jest również sposób, w jaki można obecnie skorzystać z GPT-4. Po pierwsze, nie jest on jeszcze ogólnodostępny za pośrednictwem strony internetowej tak, jak udostępniono poprzednią wersję GPT-3,5. Dostępny jest jedynie dla klientów usług premium firmy OpenAI, a czas korzystania z niego jest limitowany. Po drugie, korzystanie z GPT-4 nie jest bezpłatne, tak jak korzystanie z GPT-3,5. Opłaty należą się za każde słowo - napisane do niego, jak i przez niego.
Po trzecie wreszcie, problemem pozostaje sposób komunikacji z samym narzędziem, które nie jest tak intuicyjne, jak moglibyśmy oczekiwać. Przy bardziej złożonych zadaniach sposób wyjaśniania mu swoich poleceń jest kluczowy i zwyczajnie trudny. Na przykład prosząc, by zapoznał się z treścią konkretnej ustawy, nie wystarczy przesłać mu linka do jej internetowej wersji. GPT, oprócz treści dokumentu, "zaciągnie" wówczas także wiele zbędnych danych dotyczących samej strony internetowej i może zacząć się gubić. Konieczne jest więc przygotowanie dla niego czystego tekstu.
W niektórych przypadkach konieczne jest także dzielenie mu zadań, na przykład prosząc o analizę bardzo długich treści, albo pisanie złożonych kodów oprogramowania. GPT-4 nie tylko więc uczy się sam, ale wymaga również, aby użytkownicy nauczyli się jak z niego korzystać. - Człowiek musi się nauczyć odpowiednio formułować zadania dla sztucznej inteligencji, aby uzyskiwać oczekiwane rezultaty. To może być jeden z najbardziej pożądanych zawodów przyszłości - zauważa Michał Jaroń. Choć brzmi to jak fantastyka, właśnie nadszedł czas, by ludzie i maszyny nauczyli się współpracować.
Źródło: tvn24.pl, OpenAI, New York Times
Źródło zdjęcia głównego: Shutterstock