wykorzystywana przez policje

AI będzie wykorzystywana przez policje

AI będzie wykorzystywana przez policje, aby móc przeciwdziałać przestępczości na dużą skalę dzięki predykcji niebezpiecznych sytuacji.

Jeszcze nie tak dawno filmy science-fiction, takie jak Raport mniejszości Stevena Spielberga, przedstawiały futurystyczne wizje świata, w którym przestępstwa są przewidywane, zanim do nich dojdzie. Ludzie byli zatrzymywani nie za to, co zrobili, lecz za to, co mogli zrobić. Dziś rzeczywistość, choć bez jasnowidzów, zbliżyła się do tej wizji szybciej, niż mogliśmy przypuszczać, dzięki sztucznej inteligencji.

Predykcyjne metody w policji, znane jako predictive policing, to nic innego jak próba przewidywania, gdzie i kiedy może dojść do przestępstwa oraz kto może być zaangażowany. Algorytmy analizują ogromne zbiory danych: raporty policyjne, statystyki przestępczości, dane demograficzne czy nawet informacje geograficzne. Na tej podstawie wskazują „gorące punkty” (hot spots), czyli miejsca o podwyższonym ryzyku albo osoby o zwiększonym prawdopodobieństwie popełnienia przestępstwa.

W teorii brzmi to obiecująco. Policja może szybciej reagować, a zasoby są wykorzystywane efektywniej. Jednak praktyka pokazuje, że technologia niesie ze sobą poważne ryzyka.

Dobrym przykładem jest Pasco County na Florydzie, gdzie lokalna policja stworzyła listę osób „wysokiego ryzyka” i… zaczęła ich regularnie odwiedzać. W praktyce oznaczało to tysiące wizyt policji, także u nieletnich, oraz mandaty za błahe przewinienia, jak brak numeru na skrzynce pocztowej czy zaniedbany ogródek. W 2021 roku mieszkańcy wytoczyli hrabstwu proces, który zakończył się ugodą i przyznaniem się władz do naruszenia praw obywatelskich.

Podobne historie znamy z Chicago i Los Angeles. W Chicago zlikwidowano listę „Strategic Subject List”, a w Los Angeles – system PredPol, który miał przewidywać miejsca przestępstw, ale zamiast tego wzmacniał nierówności rasowe i społeczne. Jak zauważa raport Brookings Institution, głównym problemem technologii jest brak przejrzystości.

Przykład z San Jose w Kalifornii pokazuje, że można inaczej. Miasto wprowadziło zestaw zasad dotyczących używania AI w administracji publicznej. Każdy projekt z wykorzystaniem AI musi być przejrzysty, skuteczny i sprawiedliwy. Co więcej, zanim jakiekolwiek narzędzie zostanie wdrożone, przechodzi ocenę ryzyka. Dzięki temu mieszkańcy mają wgląd w to, jak działa technologia, jakie dane są używane i jakie zabezpieczenia chronią przed dyskryminacją.

Podejście można porównać do trendów obserwowanych także poza Stanami Zjednoczonymi. W Europie Komisja Europejska wprowadza w życie unijne rozporządzenie o sztucznej inteligencji (AI Act), które nakłada obowiązek przejrzystości i bezpieczeństwa dla systemów o wysokim ryzyku, takich jak predictive policing. Rozporządzenie wejdzie w życie w pełnej formie w 2026 roku. Z kolei w Wielkiej Brytanii raport Royal United Services Institute wskazuje, że jedyną drogą do etycznego wykorzystania AI w policji jest stały nadzór społeczny i niezależne audyty algorytmów.

Z badań wynika, że kiedy obywatele mają poczucie, że państwo działa sprawiedliwie i przejrzyście, są bardziej skłonni angażować się w życie społeczne i popierać polityki publiczne. Policja, która traktuje technologię jako narzędzie pomocnicze, a nie wyrocznię, buduje zaufanie zamiast oporu. To szczególnie ważne w czasach, gdy zaufanie do instytucji publicznych spada.

Debata wokół predictive policing dopiero się rozpoczyna. Czy powinniśmy całkowicie porzucić te systemy, czy może zreformować je tak, by były bardziej odpowiedzialne i przejrzyste? Eksperci, jak ci cytowani w „Journal of Law and Technology”, podkreślają, że kluczowe jest zaangażowanie opinii publicznej. Społeczeństwo musi mieć realny wpływ na to, jak działa policja, szczególnie gdy w grę wchodzą tak wrażliwe technologie.

Predykcyjne systemy w policji to fascynujące narzędzie, które — źle użyte — może wyrządzić więcej szkody niż pożytku. Jednak dzięki transparentności, odpowiedzialności i zaangażowaniu obywateli możemy przekształcić AI w technologię służącą ludziom, a nie tylko statystyce. Bo choć nie żyjemy w świecie „Raportu mniejszości”, przyszłość, w której algorytmy decydują o naszym losie, jest bliżej, niż nam się wydaje — i warto, żebyśmy mieli na nią wpływ.

Szymon Ślubowski

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 30.04.2025.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się