Sztuczna inteligencja zmienia edukację, a dzieci powinny jak najwcześniej rozumieć, jak działają narzędzia, z których będą korzystać na co dzień – przekonuje Ronit Levavi Morad, dyrektor ds. badań i szefowa sztabu w Google Research. Jak wyjaśnia, uczniowie dorastają w świecie, w którym rozwiązania oparte na AI stają się "integralną częścią codziennego życia"
– Ponieważ przyszłość będzie napędzana przez AI – chcemy mieć pewność, że każde dziecko z tego pokolenia będzie miało szansę w pełni wykorzystać ten potencjał – mówi.
Dodaje, że kluczowe jest budowanie kompetencji, które pomogą młodym ludziom korzystać z narzędzi w sposób etyczny i świadomy.
AI jako partner, ale nie autorytet
Morad podkreśla, że dorośli również muszą zrozumieć podstawowe zasady działania sztucznej inteligencji. – AI jest partnerem i współtwórcą. To narzędzie, które ma wzmacniać naszą pomysłowość, ciekawość i wiedzę – mówi.
Jednocześnie ostrzega przed bezrefleksyjnym zaufaniem do tego typu systemów.
– AI nie jest narzędziem idealnym ani bezbłędnym – zaznacza. Użytkownicy powinni "działać jak fact-checkerzy, weryfikując odpowiedzi i zastanawiając się, czy są one zgodne z prawdą".
"Technologia nie jest doskonała i bezbłędna"
W jej ocenie jednym z kluczowych zagrożeń są odpowiedzi wynikające ze źle dobranych danych treningowych. – Uprzedzenia (biases) w modelach, które zostały przeniesione z niewystarczająco zróżnicowanych danych źródłowych, to problem, którego nie można ignorować – mówi.
Morad przekonuje, że Google pracuje nad redukowaniem tych zniekształceń, ale – jak podkreśla – nie da się wyeliminować ich całkowicie. – Technologia nie jest w 100 proc. doskonała i bezbłędna. Mogą zdarzyć się pomyłki – tłumaczy. Dlatego firma równolegle uczy młodych, jak zadawać pytania w stylu: "Czy ta odpowiedź ma sens?" i "Czy ta odpowiedź jest zgodna z prawdą?".
– Ostatecznie to użytkownik jest pierwszą osobą odpowiedzialną za to, co otrzymuje od AI, i co z tym zrobi – dodaje.
Autorka/Autor: jjs/dap
Źródło: PAP
Źródło zdjęcia głównego: TVN24