Sztuczna inteligencja (AI) staje się coraz mniej widoczna dla użytkowników. To źle, bo nie zdajemy sobie sprawy z tego, że mamy do czynienia z czymś, co potencjalnie może stanowić zagrożenie - stwierdził w TVN24 filozof i ekspert z zakresu etyki nowych technologii doktor Sebastian Szymański z Centrum Badania Ryzyka Systemowego UW.
Według Szymańskiego "nie należy się bać tej technologii". Odniósł się też do wypowiedzi Elona Muska, który według niego "słynie z tego, że straszy tym, że sztuczna inteligencja wyrwie się spod kontroli" i "będziemy mieli tutaj do czynienia z jakimś poważnym egzystencjalnym zagrożeniem, być może dla całej ludzkości".
Sztuczna inteligencja - potencjalne zagrożenia
Ekspert dodał, że głównym problemem jest to, "że ci wielcy producenci, takie globalne multikorporacje, które rozwijają w tej chwili tę technologię, są bardzo słabo kontrolowane, czy to na poziomie krajów, czy to nawet, a zwłaszcza na poziomie globalnym".
- Tymczasem najczęściej są to tak naprawdę monopoliści w różnych zastosowaniach tej technologii i na nich powinniśmy przede wszystkim w tej chwili patrzeć - podkreślił.
Według Szymańskiego "ta technologia staje się coraz mniej widoczna dla użytkowników". - To źle, dlatego że my nie zdajemy sobie sprawy z tego, że mamy do czynienia z czymś, co potencjalnie może stanowić zagrożenie - zaznaczył.
- Na pewno kwestia edukacji jest bardzo ważna i to edukacja adresowana do wszystkich grup wiekowych. Oczywiście największym problemem są tutaj te grupy, które są szczególnie podatne na manipulacje z różnych powodów. Bo na przykład sądzą, że mają do czynienia z człowiekiem, a nie z technologią. Więc dzieci z jednej strony tak, z drugiej strony na pewno osoby w wieku starszym, na pewno osoby, które mają pewnego rodzaju niedostatki poznawcze czy coś takiego - mówił.
Dodał też: - Więc jeżeli chodzi o dzieci, to tutaj jest bardzo wiele zagadnień, które wymagają jak najszybszej interwencji ze strony regulatorów. Chodzi tutaj o potencjał manipulowania, chodzi tutaj właśnie o często niemożność rozpoznania, czy ma się do czynienia z człowiekiem, czy nie. O kwestie związane z edukacją. To jest technologia, która ma potencjalnie ogromny wpływ i na rynek pracy, i na sektor edukacji, i na sektor nauki, więc te pokolenia, które zaczynają w tej chwili powoli wchodzić w dorosłość, będą się stykały z zupełnie innymi wyzwaniami niż my.
Szczyt dotyczący sztucznej inteligencji (AI)
W dwudniowym globalnym szczycie poświęconemu bezpieczeństwu sztucznej inteligencji (AI), który odbył się w Bletchley Park, gdzie w czasie II wojny światowej mieściła się siedziba brytyjskiego wywiadu elektronicznego, wzięło udział około 100 osób - polityków, szefów firm technologicznych, naukowców i ekspertów oraz przedstawicieli społeczeństwa obywatelskiego.
W środę delegaci z 28 krajów oraz Unii Europejskiej uzgodnili wspólne oświadczenie, które nazwano deklaracją z Bletchley, wzywające do globalnej współpracy w celu zwalczania zagrożeń, związanych ze sztuczną inteligencją. W porozumieniu uznano, że sztuczna inteligencja "stwarza ogromne globalne możliwości", ale należy ją rozwijać w sposób "skoncentrowany na człowieku, godny zaufania i odpowiedzialny".
To pierwsze na świecie międzynarodowe oświadczenie w sprawie tak zwanej granicznej sztucznej inteligencji - rządowego terminu określającego sztuczną inteligencję, która może przekroczyć możliwości dzisiejszych najbardziej zaawansowanych systemów.
Źródło: TVN24 Biznes, PAP
Źródło zdjęcia głównego: Shutterstock