Unia Europejska przygotowuje regulację dotyczącą sztucznej inteligencji, która ma zakazać stosowania najbardziej inwazyjnych systemów, np. rozpoznawania w czasie rzeczywistym osób na ulicach, dworcach czy w centrach handlowych. Albo takich, które pozwolą policji na podstawie mikroekspresji twarzy lub emocji wykryć, czy ktoś kłamie lub się stresuje. Pytanie jednak, czy służby, pod pozorem "zagrożenia bezpieczeństwa narodowego", będą mogły to prawo obchodzić?
W czerwcu Parlament Europejski przyjął projekt aktu o sztucznej inteligencji (AI Act). To pierwsze na świecie prawo, które ma wprowadzić ograniczenia i zakazy w stosowaniu systemów AI (Artificial Intelligence). Parlamentarzyści chcą, aby zabronione w UE były policyjne systemy odczytujące emocje - gniew, smutek, przyjemność czy znudzenie. Zakazane ma być też stosowanie oprogramowania do tzw. predykcji kryminalnej, które prokuratura i policja - jak w filmie science fiction "Raport mniejszości" - mogłyby wykorzystywać do szacowania ryzyka popełnienia przez nas przestępstwa w przyszłości.
Teraz AI Act jest uzgadniany w tzw. trilogu, w którym Komisja Europejska, Parlament i Rada UE przyjmą ostateczne brzmienie regulacji, która ma wejść w życie dwa lata po jej przyjęciu. O rozporządzeniu, jego wpływie na nasze prawa i wolności oraz jego geopolitycznym kontekście, rozmawiamy z Filipem Konopczyńskim, analitykiem rynku AI i ekspertem Fundacji Panoptykon.
Piotr Szostak: Parlament Europejski przyjął treść regulacji sztucznej inteligencji. Ale czy ABW i CBA, powołując się na "bezpieczeństwo narodowe", nie będą mogły jej obchodzić? I na przykład wobec uchodźców przekraczających granicę z Białorusią używać technologii rodem z Chin? Albo kupić - jak wcześniej izraelskiego Pegasusa - jakiś system rozpoznający emocje, wytrenowany na nagraniach z monitoringu ulicznego?
Filip Konopczyński: W wersji Aktu, którą jesienią zeszłego roku przyjęła Rada UE - czyli rządy, w tym polski - znajduje się przepis, który pozwalałby rządom nie stosować rozporządzenia w obszarze "bezpieczeństwa narodowego". Czyli używać, także wobec własnych obywateli, każdej dostępnej technologii AI bez ograniczeń, które znajdują się w Akcie. Jako że w prawie europejskim nie ma jednoznacznej definicji bezpieczeństwa narodowego, w praktyce władza mogłaby korzystać z takich narzędzi zawsze, gdy będzie miała na to ochotę - niezależnie od tego, czy takie zagrożenie jest prawdziwe, czy nie. W Polsce społeczna kontrola nad służbami specjalnymi w zasadzie nie istnieje, więc wolelibyśmy, aby AI Act w precyzyjny sposób określał warunki korzystania z tak niebezpiecznych narzędzi. Sprawa jest złożona, bo działalność służb to obszar, który w unijnych traktatach jest określony jako wyłączna kompetencja państw członkowskich. To nie oznacza, że nie ma żadnych reguł - jako Polki i Polacy mamy prawa wynikające między innymi z konstytucji, Karty Praw Podstawowych, Powszechnej Deklaracji Praw Człowieka czy Europejskiej Konwencji Praw Człowieka. Jednak w praktyce wyjęcie obszaru bezpieczeństwa narodowego z zakresu Aktu utrudniłoby kontrolę technologii AI stosowanych przez służby wobec obywateli.
Czytaj dalej po zalogowaniu
Uzyskaj dostęp do treści premium za darmo i bez reklam