Parlament Europejski zdecydował w sprawie Aktu o Sztucznej Inteligencji

Źródło:
PAP
"Do 2050 roku nawet połowa miejsc pracy zostanie zastąpiona sztuczną inteligencją"
"Do 2050 roku nawet połowa miejsc pracy zostanie zastąpiona sztuczną inteligencją"TVN24
wideo 2/5
"Do 2050 roku nawet połowa miejsc pracy zostanie zastąpiona sztuczną inteligencją"TVN24

Parlament Europejski przyjął stanowisko negocjacyjne w sprawie Aktu o Sztucznej Inteligencji, który wprowadza różne poziomy ryzyka dla tej technologii. Nowe regulacje zakładają, że ma ona być ukierunkowana na człowieka i godna zaufania oraz zapewniać ochronę zdrowia, bezpieczeństwa, praw podstawowych i demokracji przed szkodliwymi skutkami technologii.

Europosłowie przyjęli stanowisko negocjacyjne w sprawie Aktu o Sztucznej Inteligencji 499 głosami za, przy 28 przeciw i 93 wstrzymujących się. Teraz Parlament Europejski będzie prowadzić z państwami członkowskimi Unii negocjacje w sprawie ostatecznego jego kształtu. Przepisy miałyby zagwarantować, że sztuczna inteligencja (SI, powszechnie stosowany jest też angielski skrót AI) opracowywana i wykorzystywana w Europie będzie w pełni zgodna z prawami i wartościami Unii.

Nowe przepisy ustanawiają obowiązki dla dostawców i tych, którzy wdrażają systemy SI, w zależności od poziomu ryzyka, jakie może generować sztuczna inteligencja. Zabronione byłyby zatem systemy SI o niedopuszczalnym poziomie ryzyka dla bezpieczeństwa ludzi, takie jak te wykorzystywane do oceny społecznej (klasyfikowanie ludzi na podstawie ich zachowań społecznych lub cech osobistych).

Wykaz zakazanych praktyk

Europosłowie rozszerzyli wykaz zakazanych praktyk o inwazyjne i dyskryminujące zastosowania sztucznej inteligencji, takie jak: wykorzystywanie w przestrzeni publicznej systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym i post factum, systemy kategoryzacji biometrycznej wykorzystujące cechy wrażliwe (np. płeć, rasa, pochodzenie etniczne, status obywatelski, religia, orientacja polityczna), systemy rozpoznawania emocji wykorzystywane w egzekwowaniu prawa, zarządzaniu granicami, miejscu pracy i instytucjach edukacyjnych.

>> Papież "się serio tak odstrzelił"? Nie, to "dezinformacja sztucznej inteligencji"

Deputowani chcą, by klasyfikacja zastosowań wysokiego ryzyka obejmowała takie systemy sztucznej inteligencji, które przynoszą znaczne szkody dla zdrowia, bezpieczeństwa, praw podstawowych lub środowiska. Do wykazu systemów wysokiego ryzyka dodali systemy sztucznej inteligencji wykorzystywane do wpływania na wyborców i wyniki wyborów oraz systemy rekomendacji wykorzystywane przez platformy mediów społecznościowych (z ponad 45 milionami użytkowników).

Dostawcy musieliby oceniać i ograniczać ryzyko

Dostawcy modeli generatywnych – nowego i szybko rozwijającego się rozwiązania w dziedzinie sztucznej inteligencji – musieliby oceniać i ograniczać potencjalne ryzyko (dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji i praworządności). Mieliby także rejestrować swoje modele w unijnej bazie danych przed ich wprowadzeniem na rynek Unii.

Sztuczna inteligencja służy do tworzenia deepfejków, ale może też je rozpoznawać. "Musimy bardzo uważać"
Sztuczna inteligencja służy do tworzenia deepfejków, ale może też je rozpoznawać. "Musimy bardzo uważać"Jacek Tacik/Fakty TVN

Generatywne systemy sztucznej inteligencji oparte na takich modelach jak ChatGPT musiałyby spełniać wymogi przejrzystości. Konieczne będzie ujawnianie, że treści wygenerowała sztuczna inteligencja (włącznie z pomocą w odróżnianiu tak zwanych głębokich fałszywych obrazów "deep fake" od prawdziwych) oraz wprowadzanie zabezpieczeń przed generowaniem nielegalnych treści.

Trzeba będzie też publikować szczegółowe podsumowania danych chronionych prawem autorskim, które wykorzystano do przygotowania tych systemów.

>> "Potrzebujemy wszystkich rąk na pokładzie, by móc kontrolować tę technologię"

GPT-4 bez problemu pisze kody źródłowe innych programów. Na przykład gry Arkanoid
GPT-4 bez problemu pisze kody źródłowe innych programów. Na przykład gry ArkanoidGPT // tvn24.pl

Wyjątki - co obejmują

Europarlamentarzyści dodali wyjątki obejmujące badania naukowe i komponenty sztucznej inteligencji dostarczane na licencjach typu open source. Nowe prawo promuje tzw. piaskownice regulacyjne, czyli rzeczywiste środowiska ustanowione przez władze publiczne, w których testuje się sztuczną inteligencję przed wdrożeniem.

Ponadto posłowie chcą, by obywatelom było łatwiej składać skargi dotyczące systemów SI. Powinni mieć też łatwiejszy dostęp do wyjaśnień dotyczących decyzji opartych na systemach SI wysokiego ryzyka, które mają znaczący wpływ na ich prawa podstawowe. Posłowie zreformowali również zakres zadań Rady ds. Sztucznej Inteligencji. Miałaby ona monitorować sposób wdrażania przepisów dotyczących sztucznej inteligencji.

Sztuczna inteligencja stała się teraźniejszością
Sztuczna inteligencja stała się teraźniejszościąTVN24

Negocjacje z Radą w sprawie ostatecznego kształtu przepisów rozpoczną się jeszcze w środę.

CZYTAJ TAKŻE: Sztuczna inteligencja pod lupą amerykańskiego Kongresu. Na stole dwa projekty ustaw

Autorka/Autor:akw//rzw

Źródło: PAP