Przewidywanie przestępczości. Oto technologia, która być może prześciga już "Raport mniejszości"
Wskaże miejsce kolejnego morderstwa, przewidzi napad, na podstawie pozornie bezwartościowych danych wykryje fabrykę narkotyków. Będzie o krok przed przestępcą. To realizująca się właśnie wizja wykorzystania sztucznej inteligencji w kryminalistyce. Może zrewolucjonizować pracę organów ścigania. Ale potęga tego narzędzia jest jednocześnie jego klątwą. Jeśli zostanie źle wykorzystana, może stać się systemem masowego krzywdzenia.
- Stać, policja! Jest pan aresztowany!
- Ale jak to? Niczego złego nie zrobiłem!
- Wiemy. Ale zrobiłby pan jutro po południu.
Taki dialog kojarzy się ze słynnym opowiadaniem Philipa K. Dicka "Raport mniejszości" (na jego podstawie powstał później głośny film z Tomem Cruisem w roli głównej), w którym władze potrafią przewidywać przyszłość i zatrzymywać osoby, zanim te popełnią przestępstwo. Ale całkiem możliwe, że do takiego dialogu już doszło w prawdziwym świecie. I to nie raz, bez konieczności korzystania ze zjawisk paranormalnych. Kryminalistyka stoi w obliczu być może jednej z największych rewolucji w swojej historii - rewolucji sztucznej inteligencji.
Niepozorna rewolucja
Nie chodzi o przypominające ludzi roboty, które stają się inteligentniejsze od ludzi i przejmują władzę nad planetą. Prawdziwa sztuczna inteligencja to technologia bardzo niepozorna, która już od kilku lat niemal niezauważenie wkrada się do systemów informatycznych, ale nie wszędzie może dokonać takiego przełomu jak w kryminalistyce. Sercem kryminalistyki od zawsze bowiem była zdolność do przetwarzania ogromnych ilości danych i wykrywania pomiędzy nimi czasem bardzo ulotnych powiązań. A to pole, na którym sztuczna inteligencja nie ma sobie równych.
Mówiąc o sztucznej inteligencji, w praktyce chodzi o jej dwie najważniejsze dziś technologie: sieci neuronowe oraz uczenie maszynowe. Sieci neuronowe to algorytmy zdolne do wykraczającego poza ludzkie możliwości kojarzenia i analizowania rozproszonych faktów. To dzięki tej technologii komputer był w stanie pokonać człowieka najpierw w grze w szachy, a następnie w znacznie bardziej skomplikowaną grę - starożytną chińską go (weiqi). Uczenie maszynowe to natomiast zdolność algorytmu do analizowania własnych błędów i udoskonalania się.
Obie te technologie są bardzo dalekie od samodzielności i zdolne jedynie do wykonywania precyzyjnie określonych zadań, do których zostały stworzone. Ale to wystarczy, by zmienić kryminalistykę, jaką dziś znamy.
Algorytmy zdolne do wszystkiego
Pierwszą odsłoną tej zmiany będzie olbrzymie zwiększenie skuteczności dotychczasowych technik kryminalistycznych, na przykład z zakresu analizy śladów. - Algorytmy zdolne do poprawiania się poprzez doświadczenie, zwane uczeniem maszynowym, są w stanie znacznie lepiej niż inne metody określać prawdopodobieństwo zgodności śladów pozostawionych na miejscu zdarzenia, na przykład śladów buta z butem podejrzanego. Zwłaszcza gdy znalezione ślady są niepełne, zatarte lub w inny sposób nieczytelne - wyjaśnia dr hab. Wojciech Filipkowski z Katedry Prawa Karnego i Kryminologii Uniwersytetu w Białymstoku.
To samo dotyczy analizy wszelkich innych śladów w kryminalistyce: odcisków palców, pocisków z broni palnej, obrażeń na ciałach ofiar czy wyodrębniania materiału genetycznego. - Ta technologia może umożliwiać nawet, by z próbki DNA zawierającej materiał genetyczny kilku osób odseparować poszczególne kody genetyczne i w przybliżonym stopniu odtworzyć każdy z nich - mówi dr hab. Filipkowski.
Sztuczna inteligencja odpowiada także za powszechnie znane już technologie rozpoznawania obiektów: twarzy, tablic rejestracyjnych, niebezpiecznych przedmiotów, a nawet ludzkich zachowań. - Dzięki temu nowe algorytmy potrafią rozpoznawać na nagraniach bójki, napady, wypadki czy strzelaniny, a na ich podstawie wykrywać kieszonkowców, pedofilów czy niebezpieczne zjawiska, jak na przykład porzucenie bagażu - mówi dr hab. Filipkowski.
To nie wszystko. - Te same algorytmy już dzisiaj potrafią rozpoznawać także ludzkie emocje na podstawie mowy ciała, słów, tembru głosu. To kolejny atut uczenia maszynowego, które jako jedyne potrafi jednocześnie analizować wiele zmiennych - podkreśla ekspert. - Rozpoznając emocje, takie jak strach, stres, gniew czy smutek, i określając procentowy udział każdej z nich, algorytm jest zdolny ocenić na przykład wiarygodność otrzymanego telefonicznie zgłoszenia o podłożeniu bomby - zaznacza ekspert.
Przewidywanie przestępczości
Jednak tym, co najbardziej rozpala wyobraźnię, jest stwarzana przez sztuczną inteligencję całkiem nowa gałąź kryminalistyki - przewidywanie przestępczości (predictive policing, pre-crime). Czyli wykrywanie przestępstw, przestępców oraz ich ofiar, zanim do przestępstwa dojdzie. I to tutaj rzeczywistość być może prześciga właśnie "Raport mniejszości".
Zasada działania przewidywania przestępczości opiera się na analizach olbrzymich baz danych o przestępstwach z przeszłości. Im więcej danych, tym lepiej - analizowane mogą więc być nie tylko informacje o miejscu, czasie i rodzaju przestępstw, ale też wszelkie inne dostępne dane, na przykład prognozy pogody. Następnie algorytmy wyciągają z danych określone wnioski, na przykład na podstawie mapy rozbojów dokonanych w ostatnim miesiącu wskazują najbardziej prawdopodobne miejsca kolejnych rozbojów.
- Obecnie wykorzystanie sztucznej inteligencji skupia się na przewidywaniu raczej samych przestępstw aniżeli tego, kto konkretnie się ich dopuszcza - mówi dr hab. Filipkowski. - Takie przewidywanie przestępczości to na przykład hotspot policing, czyli ustalanie miejsc i sytuacji, w których system ocenia, że wystąpi zwiększone prawdopodobieństwo popełnienia przestępstwa. Chodzi o wykrywanie nieuchwytnych dla człowieka mechanizmów, wzorów zachowań przestępczych, na przykład, że w weekendy na określonych stacjach komunikacji pojawia się najwięcej kieszonkowców, a we wtorki i czwartki dilerzy narkotyków odwiedzają ten sam budynek - tłumaczy.
Sztuczna inteligencja może tutaj zarówno wspomagać śledczych twardymi danymi, redukując konieczność opierania się na ludzkiej intuicji czy doświadczeniu, jak też dostarczać całkiem nowych wniosków i spostrzeżeń. - Sztuczna inteligencja mogłaby na przykład wspomóc wykrywanie szlaków przemytniczych w oparciu o bardzo rozproszone dane, których człowiek mógłby nie umieć nawet ze sobą powiązać - wyjaśnia dr hab. Filipkowski.
Fikcja staje się rzeczywistością
Jak wygląda wykorzystanie tych technologii w praktyce? Największe doświadczenie wśród państw Zachodu mają na tym polu Stany Zjednoczone, w których pomimo protestów uruchamiane są kolejne pilotażowe programy przewidywania przestępczości. Przykładowo w Nowym Jorku system Patternizer (nazywany też Patternizr) pomaga policjantom w wykrywaniu podobieństw pomiędzy popełnianymi przestępstwami, ustalając prawdopodobne sposoby działania przestępców oraz ich kolejne cele. Policjanci dzięki niemu oszczędzają czas, ponieważ zamiast samemu analizować niezliczone dane ich zadaniem staje się bardziej analiza dostarczonych przez system wyników.
A Patternizer to tylko jeden z wielu takich amerykańskich programów: PredPol pomagał we wskazywaniu prawdopodobnych miejsc przyszłych przestępstw w miastach Kalifornii, LASER skupia się na ograniczaniu przestępczości z użyciem broni palnej w Los Angeles, produkty firmy Palantir specjalizują się w monitorowaniu komunikacji elektronicznej i wykrywaniu m.in. zagrożeń terrorystycznych.
Czy to przynosi efekty? W wielu przypadkach wydaje się, że tak. W kalifornijskim mieście Santa Cruz PredPol w ciągu zaledwie pierwszych sześciu miesięcy 2020 roku przyczynił się do zmniejszenia liczby włamań o niemal 20 procent. Z kolei w brytyjskim hrabstwie Kent to samo oprogramowanie potrafiło lepiej niż najlepsi analitycy wskazywać miejsca, w których dojdzie do przestępstw ulicznych.
A to dopiero początek rozwoju tej technologii. W czerwcu 2022 roku opublikowano oceny skuteczności algorytmu stworzonego przez grupę badaczy z Uniwersytetu w Chicago w przewidywaniu brutalnych przestępstw. Algorytm ten bazował jedynie na publicznie dostępnych danych, ale uwzględniał wewnętrzną dynamikę miasta, a także bieżącą aktywność organów ścigania. Wyniki okazały się zdumiewające - algorytm w 90 procentach trafnie przewidywał przestępstwa na tydzień przed tym, jak były popełniane. Co ciekawe, w fikcyjnym "Raporcie mniejszości" wyprzedzenie zwykle było liczone jedynie w godzinach lub wręcz w minutach.
Strach przed buntem maszyn
Takie dane obrazują, jak potężnym narzędziem w kryminalistyce może stać się wspomagane sztuczną inteligencją przewidywanie przestępczości. Ale potęga narzędzia budzi też potężną krytykę i obawy. Nie bez powodu - algorytmy te są dopiero rozwijane, a mogą być tylko tak dobre, jak dobrze się je stworzy.
Po pierwsze, algorytmy do działania potrzebują baz danych o popełnionych już przestępstwach. Bazy te są jednak pełne ludzkich błędów i uprzedzeń: ze względu na płeć, kolor skóry, miejsce zamieszkania czy ideologię. W wiodących w dziedzinie przewidywania przestępczości Stanach Zjednoczonych szybko okazało się, że sztuczna inteligencja automatycznie powiela tego typu uprzedzenia. - Ten problem pojawił na przykład w systemie podpowiadającym sędziom, komu dać, a komu nie dać warunkowego zwolnienia z odbywania kary - wskazuje dr hab. Filipkowski. - Okazywało się, że większe szanse na to dostaje osoba biała niż czarnoskóra, bo w danych historycznych amerykański system sprawiedliwości wydawał surowsze wyroki wobec Afroamerykanów i Latynosów niż wobec osób o jaśniejszej skórze - tłumaczy.
Z wykorzystaniem sztucznej inteligencji w kryminalistyce wiąże się także obawa przed wizją komputerów skazujących niewinne osoby na podstawie błędów w oprogramowaniu. Bo algorytmy z jednej strony bardziej niż ludzie bazują na faktach i danych, ale z drugiej - nie potrafią logicznie myśleć, by eliminować w ten sposób czasem oczywiste błędy. Jak ostrzegał jeden z najlepszych na świecie instytutów badawczych, RAND Corporation, "przewidywanie przestępczości nie jest szklaną kulą: nie przewiduje przyszłości. Może jedynie identyfikować miejsca i osoby ze zwiększonym ryzykiem wystąpienia przestępstwa".
O tym, jak silne są obawy przed możliwymi nadużyciami przy przewidywaniu przestępczości, przekonały się m.in. władze kalifornijskiego Santa Cruz. Po masowych protestach przeciwko brutalności policji, które wybuchły w USA w maju 2020 roku, wstrzymały one korzystanie z systemu PredPol, mimo że proces przynosił obiecujące wyniki.
Do listy obaw dochodzi jeszcze jedna, równie poważna, obawa przed naruszaniem prywatności i danych osobowych. Wykorzystanie przez algorytmy przewidywania przestępczości danych biometrycznych i akt personalnych obywateli może być krokiem, który wyniesie tę technologię na zupełnie nowy poziom. Taki algorytm mógłby przewidywać, że jeśli osoba skazywana już za rabunki jedzie wypożyczonym dostawczakiem w długi weekend do bogatej dzielnicy, to może planować kolejny rabunek. Albo na podstawie zarejestrowanego przez kamery wyrazu twarzy, towarzystwa i miejsca przebywania domniemywać, co dana osoba robi. Albo powiązać treść rozmowy telefonicznej sprzed miesiąca z historią zakupów online, by przewidzieć plan czyjegoś morderstwa. Ogrom możliwości tego narzędzia jest wręcz trudny do wyobrażenia.
Technologia w służbie dyktatury
Jednocześnie równie ogromnym wyzwaniem byłoby zalegalizowanie użycia takiego narzędzia w kraju demokratycznym. Dlatego przewidywanie przestępczości ma aktualnie największe możliwości nie w Stanach Zjednoczonych, ale w państwach autorytarnych, które dużo mniej przejmują się ochroną praw swoich obywateli. Na przykład w Chinach, które są drugim obok USA światowym liderem w rozwijaniu sztucznej inteligencji.
Jest bardzo prawdopodobne, że to w Chinach eksperymenty z przewidywaniem przestępczości przez sztuczną inteligencję są dziś najbardziej zaawansowane, choć w zdecydowanej większości nieujawniane opinii publicznej. Wiadomo jednak, że programy takie uruchamiane są w największych chińskich miastach od co najmniej 2015 roku. W dwóch prowincjach: Zhejiang i Guangdong, miały one na przykład ograniczyć liczbę przestępstw dokonywanych zdalnie: telefonicznie lub internetowo, na przykład wyłudzeń pieniędzy. Dzięki algorytmom wykrywającym w czasie rzeczywistym tego typu przestępstwa system był od razu w stanie wskazać kolejne prawdopodobne ich ofiary. W efekcie do niedoszłych wciąż ofiar dzwoniono lub wysyłano patrol i ostrzegano je o zbliżającej się próbie wyłudzenia od nich pieniędzy.
Innym głośnym w Chinach przypadkiem było wykorzystanie sztucznej inteligencji do rozbudowanej analizy składu wody ściekowej, a następnie powiązania jej z danymi o zużyciu wody i prądu w mieście Zhongshan w prowincji Guangdong. W ten sposób zdołano wykryć miejsca produkcji narkotyków w mieście i wszcząć w latach 2017-2019 45 spraw karnych, w których zatrzymano w sumie 341 osób.
Cyfrowy totalitaryzm
Chiny są jednocześnie pierwszym znanym miejscem, w którym algorytmy sztucznej inteligencji najprawdopodobniej zostały otwarcie wykorzystane przeciwko ludziom. Chodzi o prowincję Sinciang (Xinjiang), w której miliony przedstawicieli ludności ujgurskiej zamykane są w obozach pracy za swoje pochodzenie etniczne. Sztuczna inteligencja może być nieocenionym narzędziem w kontroli nieposłusznego społeczeństwa i wyłapywaniu ludzi według dowolnego klucza.
A to nie wszystko. Wręcz trudno sobie wyobrazić, jak potężnym narzędziem mogłoby stać się w przyszłości połączenie algorytmów przewidywania przestępczości z innym rozwijanym przez Chiny systemem rodem z powieści science fiction: Systemem Wiarygodności Społecznej (SCS). Gromadzi on wszelkie możliwe dane o każdym obywatelu i na tej podstawie przydziela mu indywidualną "ocenę wiarygodności" - ocenę, jak "dobry" jest w oczach władzy dany obywatel.
Wykorzystanie tak monstrualnej bazy danych, jaką staje się System Wiarygodności Społecznej, przez zasilane sztuczną inteligencją systemy aparatu bezpieczeństwa byłoby dopełnieniem tworzonego w Chinach cyfrowego totalitaryzmu. Państwa, w którym państwowy system komputerowy wie o obywatelach wszystko.
Ta wizja dotyczy Chin, ale w rzeczywistości największe obawy, że wszechobecne nasycenie technologiami informatycznymi doprowadzi do "algorytmokracji", czyli do rządów sprawowanych komputerowymi algorytmami, występują na Zachodzie, również w Polsce. Czy to oznacza, że należy się obawiać wykorzystania sztucznej inteligencji w kryminalistyce? Zdania się na algorytmy przy decydowaniu o ludzkim życiu, wolności, statusie winnego za najgorsze znane zbrodnie?
"Człowiek musi pozostać w centrum"
Zdaniem dr hab. Wojciecha Filipkowskiego obawy te są naturalne i uzasadnione, ale prowadzić powinny nie do odejścia od wykorzystania sztucznej inteligencji, ale do odpowiedzialnego wprowadzania jej do kolejnych obszarów ludzkiego życia. - To zdolne do samodoskonalenia, superwydajne narzędzie, które może zrewolucjonizować kryminalistykę, a także trapiące ją dotąd słabości, takie jak istnienie obszarów nieefektywności czy kierowanie się uprzedzeniami - mówi ekspert. Bo dobrze napisany algorytm może nie powielać ludzkich uprzedzeń na przykład na tle rasowym, ale właśnie skutecznie je wykrywać i eliminować. Sam komputer nie ma w końcu własnych poglądów.
- Dlatego nie należy się bać sztucznej inteligencji, ale ludzi, którzy będą bezkrytycznie stosować tę technologię. Nie można liczyć, że sama nowa technologia nas zbawi. Należy korzystać ze sztucznej inteligencji jako narzędzia, ale to od człowieka powinno nadal zależeć, czy ostatecznie będziemy wierzyć jej ocenom i predykcjom - przekonuje dr hab. Filipkowski. Chodzi o pilnowanie, aby nowe możliwości dawane przez te algorytmy prowadziły nas w pożądanym kierunku, a nie potęgowały istniejące lub stwarzały nowe problemy. - Podejście, gdzie człowiek jest w centrum, musi pozostać - podkreśla badacz.
Okiełznanie możliwości nowej technologii oznacza więc także konieczność przygotowania i nauczenia człowieka świadomego i efektywnego współpracowania z nią. - To będą jeszcze lata trudnych eksperymentów, co jest nieuniknione. Od ich wyniku będzie jednak zależeć los milionów ludzi, każdego z nas - przewiduje dr hab. Filipkowski.
Wykorzystania sztucznej inteligencji w kryminalistyce prawdopodobnie nie da się powstrzymać. Od ludzi będzie jednak zależeć, czy stanie się to rewolucją w zapewnianiu bezpieczeństwa, czy koszmarem, w którym algorytm może karać za niewinność, a władza zyskuje potężne narzędzie do niewolenia ludności.
Artykuł po raz pierwszy ukazał się w "Magazynie o śladach", opublikowanym 7 września 2022 r.
Źródło: Magazyn TVN24
Czytaj dalej po zalogowaniu

Uzyskaj dostęp do treści premium za darmo i bez reklam
Informujemy, że z bezpłatnego dostępu do treści Premium możesz korzystać tylko do 23.04.2025 r. Po tej dacie artykuły zostaną przeniesione do oferty subskrypcyjnej.