Ochrona obywatela, która jest jednym z celów aktu o AI, legła w gruzach po decyzji Komisji Europejskiej - ocenił dr Michał Nowakowski, komentując decyzję Komisji Europejskiej. Wskazał przy tym, że wiele rozwiązań, które mają bezpośredni wpływ na obywateli, nie będzie objętych prawem.
Od 2 lutego w Unii Europejskiej obowiązują przepisy dotyczące katalogu praktyk zakazanych Akt o sztucznej inteligencji (AI Act, rozporządzenie), czyli systemów sztucznej inteligencji, które generują tak duże ryzyko dla człowieka i dla praw podstawowych, że są w Unii Europejskiej nieakceptowalne - wskazał dr Michał Nowakowski, partner w kancelarii ZP Zackiewicz & Partners.
- Żeby dobrze zinterpretować, czy mamy do czynienia z praktyką zakazaną, musimy wiedzieć po pierwsze, czy mamy do czynienia z systemem sztucznej inteligencji, a po drugie, czy on wpada w tę kategorię - wyjaśnił.
Jak podkreślił, dla biznesu jest to bardzo ważne, ponieważ od 2 sierpnia tego roku będą obowiązywały "dość dotkliwe" kary za naruszenie katalogu, które mogą wynieść nawet do 35 milionów euro albo 7 procent globalnego obrotu firmy.
CZYTAJ TAKŻE: Wykorzystali sztuczną inteligencję, by wygrać na loterii
Akt "nie do końca przemyślany"
Aby zaradzić wątpliwościom, Komisja Europejska opublikowała na początku lutego wytyczne dotyczące praktyk zakazanych, które liczą 140 stron oraz wyjaśnienia dotyczące definicji systemów sztucznej inteligencji, które liczą kilkanaście stron - wskazał ekspert. Jak dodał, było to konieczne, ponieważ w samym akcie jest wiele pojęć niedookreślonych, niejasnych, które budzą wątpliwości ze strony biznesu oraz prawników.
Wynika to z faktu, że akt z założenia jest neutralny technologicznie, czyli nie narzuca kwestii technicznych, nie definiuje ich oraz ma być future proof, czyli aktualny nawet jeśli technologie w przyszłości znacznie się zmienią - zauważył dr Nowakowski.
- Oczywiście nie sposób nie zauważyć też, że w niektórych miejscach akt nie był też po prostu do końca przemyślany, co spowodowało, że dzisiaj przed biznesem stoi prawdziwe wyzwanie - dodał.
Wytyczne, które "zasiewają wątpliwości"
Zdaniem dr. Nowakowskiego dokumenty Komisji Europejskiej zasiewają jednak jeszcze więcej wątpliwości niż sam akt. Według rozporządzenia, aby uznać dane rozwiązanie za system AI, musi być spełnione 7 przesłanek, m.in. autonomiczności, czyli pewnego stopnia niezależności od człowieka, a także adaptacyjności, która została wyjaśniona w akcie jako zdolność do samotrenowania.
- Nie było jednak jasne, czy przesłanka ta jest obligatoryjna, czy jednak fakultatywna - podkreślił. Nowakowski wskazał, że wątpliwości dotyczyły też przesłanki stosowania metod statystycznych, takie jak regresja liniowa lub logistyczna. - W uproszczeniu są to sposoby wyciągania wniosków z danych - wyjaśnił ekspert.
Komisja Europejska zadecydowała, że nawet jeśli w danym rozwiązaniu wykorzystane są autonomiczność lub regresja, rozwiązanie nie musi być uznane za system AI. Jak podkreślił ekspert, decyzja Komisja ma o tyle znaczenie, że według szacunków, około 80 procent rozwiązań AI stosuje te metody, ale nie będzie podlegać dodatkowym obostrzeniom wynikającym z aktu.
- Z punktu widzenia biznesu jest to bardzo dobra informacja, przedsiębiorcy się cieszą. Jednak moim zdaniem jeden z celów aktu o sztucznej inteligencji, czyli ochrona obywatela, legł w gruzach, ponieważ wiele rozwiązań, które mają na nas bezpośredni wpływ, będzie pozostawała poza aktem, np. systemy do oceny zdolności kredytowej - ocenił ekspert.
"Diabeł tkwi w szczegółach"
Zgodnie z aktem o sztucznej inteligencji zakazane są m.in. systemy AI wykorzystywane do tego, żeby zmanipulować kogoś do podjęcia niekorzystnej dla niego decyzji.
- W tym przypadku pojawiło się wiele uzasadnionych wątpliwości, np. czy systemy rekomendujące określone produkty na platformach e-commerce podlegają zakazowi - wskazał dr Nowakowski.
Jak dodaje ekspert "teoretycznie" mogłoby tak być: część z nich wykorzystuje nasze słabości i "manipuluje" nami tak, żebyśmy np. kupili dany produkt, mimo że jest nam niepotrzebny. Jeśli weźmiemy na niego kredyt, który później będziemy mieli problem spłacić, może to być działanie na naszą szkodę.
Według Nowakowskiego wyjaśnienia Komisji Europejskiej nie rozwiały tych wątpliwości.
- Dużo w takich przypadkach zależy od prawnika, który będzie interpretował przepisy oraz od organów, takich jak polska Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, które będą odpowiedzialne za egzekwowanie regulacji. Diabeł tkwi w szczegółach i po spełnieniu pewnych warunków systemy rekomendacyjne mogą zostać uznane za zakazane, np. jeśli manipulacja była celowa, a zniekształcenie poznawcze i szkoda "istotna" - powiedział Nowakowski.
Sprawy będzie trzeba analizować przypadek po przypadku
AI Act zakazuje też wykorzystywania w centrach handlowych systemów AI, które subtelnie wpływają na decyzje zakupowe klientów przez techniki podprogowe, np. dźwięki i obrazy w reklamach - wskazał. Jak dodał, jeśli takie zabiegi będą stosowane bez użycia systemu AI, np. w postaci ładnych zapachów czy przyjemnej muzyki, jest to dozwolone.
- Tego typu sprawy będzie trzeba analizować "case by case" ("przypadek po przypadku" - przyp. red.), ponieważ nie da się jednoznacznie stwierdzić, że wszystkie praktyki manipulacyjne są zakazane, bądź, że nie są - z punktu widzenia AI Actu - podkreślił.
Wśród systemów zakazanych AI, znalazły się też te, które wykorzystują określone słabości, np. wiek, niepełnosprawność, czego efektem jest podjęcie niekorzystnej decyzji. Do tego także systemy wykorzystywane do rozpoznawania emocji w miejscu pracy i w placówkach edukacyjnych - wskazał ekspert.
- Takie systemy są stosowane np. w chińskich salach wykładowych, gdzie służą do weryfikacji emocji studentów, żeby sprawdzić, czy ktoś ściągał, ale i w Europie w niektórych miejscach pracy - podkreślił Nowakowski.
Wyjaśnił, że zakazane są również systemy, które na przykład weryfikują konsultantów pod kątem ich emocji, tego czy w odpowiedni sposób się zachowują; zakazane są też systemy służące do tak zwanej zdalnej identyfikacji biometrycznej w przestrzeni publicznej, czyli kamery, które rozpoznają konkretne osoby - opisał.
- Są wyjątki od tej zasady, na przykład niektóre kategorie przestępstw, czy poszukiwanie zaginionych dzieci. Żeby użyć takich systemów, trzeba jednak spełnić dodatkowe przesłanki, obowiązuje też kontrola sądowo-administracyjna. Muszą być również spełnione obowiązki w zakresie tak zwanej przejrzystości, czyli informowania o nagrywaniu, co wynika z RODO - wytłumaczył prawnik.
Profilowanie ludzi zakazane nie będzie
Wskazał, że scoring społeczny, czyli dokonywanie oceny i profilowania człowieka pod kątem jego zachowań społecznych, "jako taki" nie będzie zakazany, ale z pewnymi wyjątkami.
- Jeżeli prywatna firma lub państwo zbierze informacje o zachowaniach ludzi uczestniczących w protestach i ma w tym prawnie uzasadniony interes, na przykład w kontekście bezpieczeństwa i wykorzysta je w tym konkretnym celu, będzie to legalne. Natomiast jeśli podmiot na tej podstawie stworzy profile tych osób i zastosuje wobec nich ocenę punktową, której konsekwencją będzie przydzielanie lub odbieranie czegoś w zupełnie innych kontekstach, np. benefitów społecznych - takie działania będą zakazane - podkreślił.
Jak zauważył dr Nowakowski, zakazaną praktyką jest też wyciągnie wniosków z danych biometrycznych, na przykład na temat seksualności, poglądów politycznych czy religijnych, choć znowu - jak powtórzył - "tutaj trzeba dokładnie przeanalizować każdy przypadek".
Podkreślił, że z AI Actu wyłączone są wojskowe zastosowania systemów sztucznej inteligencji oraz - z pewnymi zastrzeżeniami - z zakresu badań i rozwoju.
- Akt jest bardzo ograniczony w swoim zasięgu w kontekście praktyk zakazanych, więc nie będzie istotnie wpływał na przedsiębiorców. Nie jest "kagańcem na biznes" - ocenił.
Dodał, że jeśli firma korzystająca z AI ma wątpliwości, czy wszystko jest zgodnie z prawem, powinna dokonać weryfikacji, czy ma do czynienia z systemem sztucznej inteligencji oraz z praktyką zakazaną. Z kolei tam, gdzie ryzyko jest nieakceptowalne, powinno dojść do "interwencji", na przykład organu nadzoru w formie kar.
Źródło: PAP
Źródło zdjęcia głównego: Grand Warszawski/Shutterstock