Unia Europejska przygotowuje regulację dotyczącą sztucznej inteligencji, która ma zakazać stosowania najbardziej inwazyjnych systemów, np. rozpoznawania w czasie rzeczywistym osób na ulicach, dworcach czy w centrach handlowych. Albo takich, które pozwolą policji na podstawie mikroekspresji twarzy lub emocji wykryć, czy ktoś kłamie lub się stresuje. Pytanie jednak, czy służby, pod pozorem "zagrożenia bezpieczeństwa narodowego", będą mogły to prawo obchodzić?
W czerwcu Parlament Europejski przyjął projekt aktu o sztucznej inteligencji (AI Act). To pierwsze na świecie prawo, które ma wprowadzić ograniczenia i zakazy w stosowaniu systemów AI (Artificial Intelligence). Parlamentarzyści chcą, aby zabronione w UE były policyjne systemy odczytujące emocje - gniew, smutek, przyjemność czy znudzenie. Zakazane ma być też stosowanie oprogramowania do tzw. predykcji kryminalnej, które prokuratura i policja - jak w filmie science fiction "Raport mniejszości" - mogłyby wykorzystywać do szacowania ryzyka popełnienia przez nas przestępstwa w przyszłości.
Teraz AI Act jest uzgadniany w tzw. trilogu, w którym Komisja Europejska, Parlament i Rada UE przyjmą ostateczne brzmienie regulacji, która ma wejść w życie dwa lata po jej przyjęciu. O rozporządzeniu, jego wpływie na nasze prawa i wolności oraz jego geopolitycznym kontekście, rozmawiamy z Filipem Konopczyńskim, analitykiem rynku AI i ekspertem Fundacji Panoptykon.
Piotr Szostak: Parlament Europejski przyjął treść regulacji sztucznej inteligencji. Ale czy ABW i CBA, powołując się na "bezpieczeństwo narodowe", nie będą mogły jej obchodzić? I na przykład wobec uchodźców przekraczających granicę z Białorusią używać technologii rodem z Chin? Albo kupić - jak wcześniej izraelskiego Pegasusa - jakiś system rozpoznający emocje, wytrenowany na nagraniach z monitoringu ulicznego?
Filip Konopczyński: W wersji Aktu, którą jesienią zeszłego roku przyjęła Rada UE - czyli rządy, w tym polski - znajduje się przepis, który pozwalałby rządom nie stosować rozporządzenia w obszarze "bezpieczeństwa narodowego". Czyli używać, także wobec własnych obywateli, każdej dostępnej technologii AI bez ograniczeń, które znajdują się w Akcie. Jako że w prawie europejskim nie ma jednoznacznej definicji bezpieczeństwa narodowego, w praktyce władza mogłaby korzystać z takich narzędzi zawsze, gdy będzie miała na to ochotę - niezależnie od tego, czy takie zagrożenie jest prawdziwe, czy nie. W Polsce społeczna kontrola nad służbami specjalnymi w zasadzie nie istnieje, więc wolelibyśmy, aby AI Act w precyzyjny sposób określał warunki korzystania z tak niebezpiecznych narzędzi. Sprawa jest złożona, bo działalność służb to obszar, który w unijnych traktatach jest określony jako wyłączna kompetencja państw członkowskich. To nie oznacza, że nie ma żadnych reguł - jako Polki i Polacy mamy prawa wynikające między innymi z konstytucji, Karty Praw Podstawowych, Powszechnej Deklaracji Praw Człowieka czy Europejskiej Konwencji Praw Człowieka. Jednak w praktyce wyjęcie obszaru bezpieczeństwa narodowego z zakresu Aktu utrudniłoby kontrolę technologii AI stosowanych przez służby wobec obywateli.
W Polsce za "groźne dla narodu" politycy i pracujące dla nich służby mogą uznać bardzo wiele.
Nie tylko działalność obcego wywiadu czy organizacji terrorystycznych. Można sobie wyobrazić, że jakiś rząd w Europie za takie uzna zachowania obywateli korzystających z wolności słowa, prawa do protestu czy samoorganizacji. W skrajnym przypadku władza mogłaby sama dać sobie prawo do tego, aby stosować inwazyjne i łamiące prawa systemy AI na przykład do walki z protestującymi, opozycją, mediami, ruchami społecznymi czy organizacjami pozarządowymi. I nawet jeśli prawa osób byłyby naruszone, to bardzo trudno byłoby to udowodnić. Dlatego będziemy naciskać na rządy państw UE, aby wyjątek dla "bezpieczeństwa narodowego" nie znalazł się w ostatecznej treści Aktu.
Europarlament, między innymi dzięki waszemu lobbingowi, odrzucił poprawki dotyczące inwigilacji biometrycznej. Chodzi na przykład o rozpoznawanie osób po wyglądzie, tonie głosu, ruchach mięśni twarzy.
Możliwości jest mnóstwo, szczególnie że rozwój AI jest bardzo szybki, a algorytmy potrafią ujawnić o nas więcej, niż zdajemy sobie sprawę. To niebezpieczna technologia, która żeby działać dobrze, potrzebuje ogromnych zbiorów danych - nie tylko o przestępcach, ale także o przypadkowych, zwykłych obywatelach. Znamy sytuacje, gdy w wyniku pomyłki systemu zatrzymywano czy oskarżano zupełnie niewinne osoby. Tak było między innymi w przypadku Roberta Williamsa, obywatela USA z Michigan, którego na podstawie błędu w systemie rozpoznawania twarzy aresztowano. Stosowaniem takich narzędzi zainteresowana jest między innymi Francja, która w marcu przyjęła prawo pozwalające na stosowanie biometrycznej inwigilacji podczas tegorocznej olimpiady. Nie chcemy, aby takie metody stosowano także u nas czy w innych krajach UE.
W Polsce mamy wyjątkowo złe doświadczenia z tym, jak specjalistyczne oprogramowanie do działań operacyjnych - takie, jak słynny Pegasus - bywa używane do zupełnie innych celów. Pełen zakaz jest tak ważny, bo nawet jeden wyjątek otwiera możliwość rozwijania czy kupowania takich rozwiązań przez służby czy policję "na wszelki wypadek". Cieszymy się, że udało się to zablokować w głosowaniu, ale trzeba pamiętać, że temat jeszcze powróci na etapie ustalania ostatecznej wersji nowego prawa przez Komisję, Parlament Europejski i rządy. Musimy ciągle pilnować tej sprawy.
Przy czym chodzi o zakaz inwigilacji biometrycznej "w czasie rzeczywistym".
To oparte na AI systemy rozpoznawania osób, których można używać w miejscach takich, jak ulice, centra handlowe czy dworce. W Panoptykonie chcieliśmy, żeby zakaz w Akcie był jeszcze szerszy i objął również identyfikację post factum (czyli na podstawie nagrań). Niestety nie udało się przekonać do tego europosłów i europosłanek. Ostatecznie w uchwalonej przez Parlament wersji Aktu taka forma użycia biometrycznej AI będzie możliwa pod nadzorem sądu. Nie tylko w przypadku najpoważniejszych przestępstw, takich jak akty terroryzmu czy handel ludźmi, ale także między innymi korupcji czy przestępczości komputerowej. To pojemna kategoria i niestety, ostatecznie, to od rozwagi policji i innych służb oraz sądów zależeć będzie, czy takie rozwiązania będą stosowane tylko wtedy, kiedy jest to naprawdę konieczne.
Jakie jeszcze systemy będą zakazane?
Rozporządzenie przyjmuje logikę opartą na analizie ryzyka. Niektóre systemy są tak groźne, że mają być całkowicie zabronione. Dla Europejczyków byłoby najlepiej, gdyby lista zabronionych systemów była jak najszersza, czyli zgodna z tym, co uchwalił Parlament. W tej wersji Aktu, zakazów jest kilkanaście i dotyczą szczególnie groźnych systemów AI, między innymi takich, przy użyciu których firmy i instytucje mogą manipulować naszym zachowaniem bądź dyskryminują osoby lub całe grupy. Mamy nadzieję, że nie doczekamy się też w Europie "Raportu mniejszości", bo zabronione będzie szacowanie ryzyka popełnienia przez nas przestępstwa w przyszłości, czyli tak zwana "predykcja kryminalna". Zakazany będzie także znany z niektórych regionów Chin system oceny obywateli. Chodzi o "scoring" naszego zachowania, który pozwala na przykład na uzależnienie dostępu do świadczeń czy usług publicznych od tego, czy prowadzimy zdrowy tryb życia albo czy mamy "niewłaściwe" z punktu widzenia władzy znajomości.
A systemy "wysokiego ryzyka"? Czym one są?
Chodzi o systemy, które mogą być bezpieczne, tylko jeśli będą poddane specjalnym wymogom prawnym i technicznym. Aby móc sprzedać lub wprowadzić do użytku taki system, trzeba będzie spełnić konkretne, techniczne i prawne wymagania dotyczące między innymi ludzkiego nadzoru, jakości baz danych czy analizy ryzyka. Parlament Europejski przyjął, że o tym, że dany system będzie uznany za ryzykowny, zdecyduje obszar jego użycia oraz to, czy może on spowodować znaczące szkody. Według Panoptykonu i innych organizacji zajmujących się prawami człowieka w świecie cyfrowym, to zbyt wąskie kryterium, bo otwiera furtkę do argumentowania, że szkoda, którą może wyrządzić system AI używany na przykład do oceny zdolności kredytowej czy rekrutacji do pracy, nie jest "znacząca". To nie byłoby dobre dla ludzi, ale wygodne szczególnie dla prywatnych firm, tworzących i stosujących takie programy. Ostatecznie, w wersji parlamentu, na liście systemów wysokiego ryzyka znalazły się między innymi programy AI stosowane w administracji publicznej i sądownictwie, wyborach, w pracy, edukacji, migracji, ochronie zdrowia czy energetyce. W tych przypadkach mamy być informowani o użyciu wobec nas AI. Będziemy mogli też żądać wyjaśnienie decyzji, która wpływa na nasze prawa, zdrowie czy sytuację ekonomiczną.
Na przykład?
Załóżmy, że firma, w której pracujemy, używa takiej "ryzykownej" sztucznej inteligencji, oceniającej naszą pracę. Jeśli w wyniku analizy naszej aktywności szef podejmie decyzję o zwolnieniu, to będziemy mogli zażądać dokładnego uzasadnienia tej decyzji. Inny przykład to decyzja urzędu o tym, czy przysługuje nam prawo na przykład do zasiłku, lokalu mieszkalnego czy zwolnienia podatkowego. A także, mniej oczywiste, ale równie istotne są tak zwane algorytmy rekomendujące nam treści na dużych platformach, z którymi stykamy się zawsze, gdy korzystamy na przykład z Facebooka, Instagrama czy TikToka. Między innymi takie przepisy znalazły się w wersji Parlamentu. Bez ich przyjęcia nie będziemy mogli dowiedzieć się, że decyzja została podjęta w sposób nieprawidłowy (na przykład na błędnych danych) i złożyć na nią skargę - wpierw do organu, który nadzoruje obszar AI, a potem do sądu. Chcieliśmy, żeby to uprawnienie było szersze i dotyczyło każdej ważnej decyzji z udziałem AI, ale niestety, poprawka, którą popieraliśmy, nie została przyjęta w głosowaniu.
W medialnym obiegu nadal pojawiają się pytania, po co nam w ogóle regulacja sztucznej inteligencji. Niektórzy eksperci argumentują, że politycy nie mają o niej pojęcia, że to zbyt skomplikowana technologia, żeby dało się ją ująć w sztywne ramy prawne, że każda regulacja za chwilę, wobec dynamicznie zmieniającej się AI, stanie się nieaktualna.
Skoro politykom udało się regulować energię atomową, medycynę, motoryzację czy biotechnologię, to uda się i sztuczną inteligencję. Cel jest przecież taki sam: chcemy korzystać z innowacji w sposób bezpieczny, czerpać z nich korzyści, a jednocześnie zapobiegać ludzkiej i społecznej krzywdzie. Model, w którym nie ma przepisów dedykowanych AI, jest dobry przede wszystkim dla rządów takich państw jak Chiny, które mają wolną rękę w nadzorowaniu społeczeństwa. I dla wielkich firm, które bez ograniczeń mogą dążyć do maksymalizacji zysków często kosztem naszego zdrowia, prywatności czy bezpieczeństwa.
A argument, że zbyt restrykcyjne regulacje zduszą innowacyjność?
Nie zgadzam się z nim. Wprowadzenie limitu prędkości nie zabiło motoryzacji, a konieczność prowadzenia badań klinicznych nie zniszczyła medycyny. Duża część Aktu jest zresztą poświęcona udogodnieniom dla innowacyjnych biznesów, które będą mogły skorzystać z tak zwanych "piaskownic regulacyjnych"(sandbox) i dzięki temu eksperymentować i rozwijać swoje potencjalnie ryzykowne modele i systemy AI w kontrolowanych warunkach. Co więcej, unijny projekt Aktu o sztucznej inteligencji w ogóle nie dotyczy ważnych dla postępu technologicznego obszarów: badań i nauki oraz wojskowości. Akt kieruje się prostą zasadą: jeśli firmy i instytucje chcą wprowadzać na rynek, a często po prostu zarabiać na nowych produktach i usługach, to muszą robić to w sposób bezpieczny. Taki, który nie szkodzi naszym prawom, zdrowiu, finansom czy środowisku.
Dolina Krzemowa przez lata powtarzała: "Chiny będą mogły rozwijać sztuczną inteligencję bez żadnych ograniczeń. I nas przegonią".
I to się zmieniło. Kluczowe dla zmiany podejścia do regulacji AI było udostępnienie przez OpenAI Chata GPT, który stał się najszybciej pobieraną aplikacją w historii internetu. Setki milionów ludzi na własne oczy zobaczyło nie tylko, jak ogromny jest potencjał tej technologii, ale też jak poważne szkody może wyrządzić. Chodzi zarówno o podejrzane z punktu widzenia prawa wykorzystanie naszych danych osobowych, możliwość masowego tworzenia fałszywych treści i dezinformacji, dyskryminacji, naruszenia praw autorskich czy coraz częstsze próby wykorzystania takich programów do oszustw i fałszerstw. Nawet w świecie firm AI coraz rzadsze są głosy o tym, że nie należy "wtrącać się" w to, co robi sektor sztucznej inteligencji. Dziś nawet biznes i badacze - na przykład w listach organizacji takich jak Future of Life Institute czy Center for AI Safety - sami nawołują do wprowadzenia nowych, państwowych i międzynarodowych przepisów zabraniających niektórych zastosowań AI.
A wykorzystanie sztucznej inteligencji przez mniej lub bardziej autorytarne rządy?
Zastosowanie przez nie tych modeli i systemów AI może być jeszcze groźniejsze. Dzięki takiej technologii władza może nie tylko prowadzić masową inwigilację, ale także w szybki i tani sposób łączyć ze sobą informacje o obywatelach z bardzo różnych źródeł, co wcześniej było bardzo czasochłonne albo technicznie niemożliwe. To daje rządzącym dostęp do narzędzi pozwalających na nadzór, propagandę czy prześladowania w nieznanej dotąd skali..
Chińskie władze pewnie będą tu wiodły prym.
Chiny także wprowadzają regulacje nowych technologii, często bardzo restrykcyjne. Oczywiście nie skupiają się one na wolności czy prawach obywateli, ale na tym, żeby technologie działały z korzyścią dla władzy i utrzymania politycznego status quo. Na szczęście Unia Europejska wybiera inny kierunek rozwoju AI i nie chce ścigać się z Komunistyczną Partią Chin w budowaniu "inteligentnych" narzędzi masowej inwigilacji i represji obywateli.
Właśnie dlatego potrzebujemy mądrych regulacji, które w jasny sposób uporządkują ten obszar i określą, jak firmy czy państwa mogą korzystać z AI bez naruszania naszej wolności, zdrowia, prywatności czy bezpieczeństwa. Takie ramy nie tylko nie ograniczają innowacyjności, ale wręcz ją wspierają.
Jak?
Budując zaufanie. Dzięki tym zasadom innowatorzy będą mieli obowiązek projektować systemy AI, które są zgodne z prawem, bardziej dokładne i bezpieczne dla ludzi. To będzie korzystne zarówno dla naszych praw oraz demokracji, jak i rynku. Przecież chętniej skorzystamy z usług cyfrowej administracji czy kupimy "inteligentny" produkt, jeśli będziemy mieli pewność, że nie będzie się to wiązało z inwigilacją czy zagrożeniem dla praw, zdrowia czy portfeli nas i naszych bliskich.
Dlaczego szef OpenAI Sam Altman pielgrzymował niedawno do krajów UE, w tym Polski?
To PR i element lobbingu. Największe firmy sektora AI zarówno w USA, jak i Europie wydają duże pieniądze na to, aby tworzone prawo było korzystne dla ich firm. Wydaje się, że te zabiegi okazały się skuteczne - reguły dla modeli takich jak GPT w przyjętej przez Parlament Europejski wersji Aktu są mniej restrykcyjne niż w poprzednich wersjach projektu, kiedy to tak zwana AI ogólnego przeznaczenia miała być traktowana analogicznie jak systemy wysokiego ryzyka. Ten lobbing zresztą wciąż trwa, taki był przecież cel wizyty Altmana w Warszawie i spotkania z premierem Mateuszem Morawieckim.
Unia to ogromny, atrakcyjny rynek i trudno dziwić się, że osoby takie jak Altman zabiegają o przychylność urzędników i polityków. To nie powinien być jednak decydujący argument, bo dużo ważniejsza jest ochrona naszych praw.
Jak AI Act dotknie popularne czatboty, takie jak Chat GPT?
Wszystkie dotychczasowe wersje Aktu wprowadzają obowiązek informowania ludzi o tym, że mają do czynienia z "produktem" napędzanym czy wygenerowanym przez AI. Parlament przyjął także rozwiązanie, w którym modele ("fundacyjne"), na podstawie których działają, będą musiały spełniać wiele kryteriów. Między innymi związanych z tym, czy dane, na których są "trenowane", nie naruszają naszej prywatności oraz praw autorskich, są zabezpieczone i czy są reprezentatywne, czyli nie prowadzą do dyskryminacji. Jeśli w przyszłości czatboty będą używane w obszarach wysokiego ryzyka - na przykład w urzędach czy sądach - obowiązków dla twórców i firm i instytucji, które z nich korzystają, będzie oczywiście więcej. Liczymy też, że w finalnej wersji Aktu znajdą się przyjęte przez Parlament przepisy, które dają nam prawo do zaskarżenia decyzji podjętych przy użyciu takich systemów.
Sam Altman zaapelował o wspólną regulację AI przez "USA, Chiny, Rosję i Unię Europejską".
W przeciwieństwie do klasycznych traktatów międzynarodowych prawo unijne pozwala na jego bezpośrednie stosowanie. Nakłada na firmy obowiązki, a nam daje konkretne, możliwe do wyegzekwowania uprawnienia. Dlatego teraz powinniśmy skupić się na europejskim Akcie o AI. Jego przyjęcie może stać się także światowym standardem. Jak wiemy od czasów RODO, dzięki tak zwanemu "efektowi Brukseli" reguły, które obowiązują na unijnym rynku, są często wprowadzane przez międzynarodowe firmy także w innych krajach. To się opłaca, bo firmy mogą mieć jeden system ochrony swoich klientów czy użytkowników. Z kolei konsumenci zyskują, bo mogą korzystać z wyższych standardów, nawet jeśli nie mieszkają w Europie. Tak może być również w przypadku AI Act.
Autorka/Autor: Piotr Szostak
Źródło: tvn24.pl
Źródło zdjęcia głównego: Phonlamai Photo/Shutterstock