Jeśli nie będziemy mieli kontroli nad źródłami wiedzy, które wybieramy, to ktoś inny będzie programował nasze młode pokolenie - mówi w nowym odcinku podcastu "Techpospolita" w TVN24+ dr inż. Jan Kocoń, współtwórca pierwszego polskiego modelu językowego PLLuM. Od niedawna mogą z niego korzystać wszyscy Polacy, a znaczenie powstania tego modelu jest ogromne.
- PLLuM to pierwszy polski model językowy w AI, odpowiednik Chat GPT.
- Współtwórca PLLuM-a dr inż. Jan Kocoń w nowym odcinku podcastu "Techpospolita" w TVN24+ wyjaśnia, dlaczego powstanie polskiej sztucznej inteligencji było tak ważne.
- Całość materiału i inne odcinki podcastu "Techpospolita" można oglądać w TVN24+.
Od lutego działa pierwszy polski model językowy PLLuM. Jest oparty na autorskich, polskich danych, zbudowany na jednym z największych korpusów tekstowych w kraju oraz dostosowany do specyfiki języka polskiego oraz terminologii administracji publicznej. Dlaczego posiadanie takiej technologii w Polsce jest ważne? Współtwórca PLLuM dr inż. Jan Kocoń wyjaśnia to w podcaście "Techpospolita" w TVN24+: każde państwo świata będzie miało u siebie sztuczną inteligencję - własną albo obcą.
Dlaczego polska sztuczna inteligencja jest tak ważna?
W rozmowie z Tomaszem Kanikiem z TVN24 dr Kocoń, adiunkt w Katedrze Sztucznej Inteligencji Politechniki Wrocławskiej, zwrócił uwagę na znaczenie języka dla działania wielkich modeli językowych takich jak PLLuM. - Zaobserwowaliśmy w naszych badaniach, że możemy istotnie poprawić jakość modelu względem konkretnego języka, jeżeli dostarczymy mu odpowiednio dużo danych w tym konkretnym języku na koniec treningu. To była idea stojąca za PLLuM-em - zauważył.
To z kolei ma duże znaczenie dla decydowania o wynikach, które dany model AI będzie nam pokazywać. Twórcy modeli językowych są bowiem w stanie dostroić je tak, by pokazać im, co powinny mówić, a czego nie powinny. Nikt raczej nie chce, by AI podawał przepisy na produkcję narkotyków czy budowę bomby. Ale to, co ma odpowiadać dany model językowy, ustala jego twórca. W ten sposób na przykład model chiński DeepSeek nie odpowiada też na pytania o masakrę na placu Tiananmen w Pekinie.
Dlatego twórcy polskiego modelu językowego dużo uwagi poświęcili właśnie szkoleniu go pod kątem bezpieczeństwa. - (Wyszkolony) model zaczyna coraz lepiej rozumieć (...) w jaki sposób powinien tych odpowiedzi udzielać, żeby zapewnić naszą politykę bezpieczeństwa, a z drugiej strony mieć pewien swój styl, który my narzucamy ze względu na swoje preferencje - wyjaśnił.
Kluczowe w tym kontekście ma nauczenie AI, z jakich źródeł informacji powinien korzystać. Doktor Jan Kocoń podkreśla, jak jest to istotne. - Skoro przyswajamy wiedzę z różnych źródeł, a nie będziemy mieli kontroli nad źródłami, które będziemy wybierać, to ktoś inny będzie "programował" nasze młode pokolenie - mówi wprost. Niezależnie, czy to "programowanie młodych" będzie odbywać się przypadkowo, czy w sposób celowy. - (Dlatego) Dobrze mieć tę technologię u siebie, mieć nad nią pełną kontrolę - zaznacza.
DOWIEDZ SIĘ WIĘCEJ:
Czy PLLuM ma poglądy?
Pytany o to, czy PLLuM będzie miał jakieś poglądy albo czy będzie religijny, jego współtwórca podkreśla jednak, że nie. - Myśmy w ogóle się tym tematem nie zajmowali (...). Zostawiliśmy go nie tyle apolitycznym, co w ogóle nie ingerowaliśmy w ten proces związany z preferencjami. Oznacza to, że w zależności od tego, jak go zapytamy, to taką informację możemy z niego wyciągnąć - przyznaje w rozmowie z TVN24+. - Mówię oczywiście o kwestiach światopoglądowych, gdzie trudno jest o źródło prawdy, bo to kwestia wiary, poglądów - dodaje.
Całą rozmowę - odcinek podcastu "Techpospolita" pt. "Sztuczna inteligencja w barwach narodowych" - można obejrzeć w TVN24+.
Autorka/Autor: pb//mm
Źródło: tvn24.pl
Źródło zdjęcia głównego: Adobe Stock