
Eksperymenty z predykcją przestępstw w Wielkiej Brytanii
Ministerstwo Sprawiedliwości Wielkiej Brytanii prowadzi prace nad technologią opartą na sztucznej inteligencji, która ma na celu identyfikowanie potencjalnych sprawców morderstw jeszcze przed popełnieniem przestępstwa. System wykorzystuje dane osobowe pochodzące z policyjnych i sądowych baz danych, co budzi kontrowersje i obawy o naruszenia prywatności.
Zakres gromadzonych informacji
Zgromadzone dane obejmują informacje o stanie zdrowia psychicznego, uzależnieniach, próbach samobójczych, a także statusie niepełnosprawności. Według organizacji Statewatch, dane te są używane do tworzenia profili osób, które mogą być potencjalnie niebezpieczne. Udostępniono ponad 100 tysięcy rekordów z różnych źródeł, co może prowadzić do poważnych nadużyć.
Źródło informacji i działania watchdogów
Informacje o systemie ujawniono dzięki wnioskom o dostęp do informacji publicznej złożonym przez organizację Statewatch, która monitoruje działania władz pod kątem praw obywatelskich. Dokumenty potwierdzają, że system opiera się na algorytmach analizujących dane o osobach związanych z wymiarem sprawiedliwości.
Stanowisko organizacji społecznych
Statewatch zdecydowanie skrytykowała rozwój tego rodzaju narzędzi. Badaczka Sofia Lyall określiła projekt jako „dystopijny” i wezwała do jego natychmiastowego wstrzymania. Organizacja twierdzi, że systemy predykcyjne oparte na AI mogą być nie tylko nieskuteczne, ale również utrwalać istniejące uprzedzenia instytucjonalne.
Krytyka w środowiskach eksperckich
Krytycy ostrzegają, że brak nadzoru nad algorytmami może prowadzić do pogłębienia niesprawiedliwości społecznych. Eksperci podkreślają, że rządy nie powinny czerpać inspiracji z fikcji filmowej, lecz raczej skupić się na realnych rozwiązaniach wspierających system opieki społecznej i edukację.
Wrażliwe dane jako źródło ryzyka
Dokumenty ujawnione przez Statewatch pokazują, że dane dotyczące zdrowia psychicznego uznawane są za wyjątkowo wartościowe dla predykcji zachowań kryminalnych. Budzi to obawy o etykę i możliwość stygmatyzacji osób cierpiących na problemy zdrowotne.
Opinia publiczna i komentarze specjalistów
Wielu komentatorów zwraca uwagę na dylematy etyczne. Część z nich pyta, czy problemem jest fakt, że system może nie działać skutecznie, czy też to, że może działać – ale jego funkcjonowanie byłoby moralnie nieakceptowalne. Wciąż nie wiadomo, czy projekt wszedł już w fazę operacyjną.
Międzynarodowe inspiracje i porównania
Wielka Brytania nie jest odosobniona w wykorzystywaniu AI do predykcji przestępstw. Podobne systemy testowano m.in. w Argentynie, Japonii, Brazylii, Korei Południowej i Stanach Zjednoczonych. Niektóre z nich wykazały skuteczność, inne zostały skrytykowane za brak transparentności i ryzyko nadużyć.
Przykład Brazylii i aplikacji CrimeRadar
W Brazylii aplikacja CrimeRadar, opracowana przez Igarapé Institute, wykazała spadek przestępczości nawet o 40% w testowych dzielnicach Rio de Janeiro. W Japonii aplikacja Crime Nabi spotkała się z pozytywnym odbiorem. Jednak każda z tych inicjatyw wymagała starannego nadzoru i analizy skutków ubocznych.
Wątpliwości dotyczące przejrzystości systemu
Ministerstwo Sprawiedliwości nie odniosło się publicznie do zarzutów związanych z projektem. Nie wiadomo, na jakim etapie znajduje się obecnie rozwój systemu ani czy został już wdrożony w praktyce.