Free songs

Kontrowersyjne AI przewiduje morderstwa w Wielkiej Brytanii

Eksperymenty z predykcją przestępstw w Wielkiej Brytanii

Ministerstwo Sprawiedliwości Wielkiej Brytanii prowadzi prace nad technologią opartą na sztucznej inteligencji, która ma na celu identyfikowanie potencjalnych sprawców morderstw jeszcze przed popełnieniem przestępstwa. System wykorzystuje dane osobowe pochodzące z policyjnych i sądowych baz danych, co budzi kontrowersje i obawy o naruszenia prywatności.


Zakres gromadzonych informacji

Zgromadzone dane obejmują informacje o stanie zdrowia psychicznego, uzależnieniach, próbach samobójczych, a także statusie niepełnosprawności. Według organizacji Statewatch, dane te są używane do tworzenia profili osób, które mogą być potencjalnie niebezpieczne. Udostępniono ponad 100 tysięcy rekordów z różnych źródeł, co może prowadzić do poważnych nadużyć.


Źródło informacji i działania watchdogów

Informacje o systemie ujawniono dzięki wnioskom o dostęp do informacji publicznej złożonym przez organizację Statewatch, która monitoruje działania władz pod kątem praw obywatelskich. Dokumenty potwierdzają, że system opiera się na algorytmach analizujących dane o osobach związanych z wymiarem sprawiedliwości.


Stanowisko organizacji społecznych

Statewatch zdecydowanie skrytykowała rozwój tego rodzaju narzędzi. Badaczka Sofia Lyall określiła projekt jako „dystopijny” i wezwała do jego natychmiastowego wstrzymania. Organizacja twierdzi, że systemy predykcyjne oparte na AI mogą być nie tylko nieskuteczne, ale również utrwalać istniejące uprzedzenia instytucjonalne.


Krytyka w środowiskach eksperckich

Krytycy ostrzegają, że brak nadzoru nad algorytmami może prowadzić do pogłębienia niesprawiedliwości społecznych. Eksperci podkreślają, że rządy nie powinny czerpać inspiracji z fikcji filmowej, lecz raczej skupić się na realnych rozwiązaniach wspierających system opieki społecznej i edukację.


Wrażliwe dane jako źródło ryzyka

Dokumenty ujawnione przez Statewatch pokazują, że dane dotyczące zdrowia psychicznego uznawane są za wyjątkowo wartościowe dla predykcji zachowań kryminalnych. Budzi to obawy o etykę i możliwość stygmatyzacji osób cierpiących na problemy zdrowotne.


Opinia publiczna i komentarze specjalistów

Wielu komentatorów zwraca uwagę na dylematy etyczne. Część z nich pyta, czy problemem jest fakt, że system może nie działać skutecznie, czy też to, że może działać – ale jego funkcjonowanie byłoby moralnie nieakceptowalne. Wciąż nie wiadomo, czy projekt wszedł już w fazę operacyjną.


Międzynarodowe inspiracje i porównania

Wielka Brytania nie jest odosobniona w wykorzystywaniu AI do predykcji przestępstw. Podobne systemy testowano m.in. w Argentynie, Japonii, Brazylii, Korei Południowej i Stanach Zjednoczonych. Niektóre z nich wykazały skuteczność, inne zostały skrytykowane za brak transparentności i ryzyko nadużyć.


Przykład Brazylii i aplikacji CrimeRadar

W Brazylii aplikacja CrimeRadar, opracowana przez Igarapé Institute, wykazała spadek przestępczości nawet o 40% w testowych dzielnicach Rio de Janeiro. W Japonii aplikacja Crime Nabi spotkała się z pozytywnym odbiorem. Jednak każda z tych inicjatyw wymagała starannego nadzoru i analizy skutków ubocznych.


Wątpliwości dotyczące przejrzystości systemu

Ministerstwo Sprawiedliwości nie odniosło się publicznie do zarzutów związanych z projektem. Nie wiadomo, na jakim etapie znajduje się obecnie rozwój systemu ani czy został już wdrożony w praktyce.


Kontrowersje wokół brytyjskiego systemu predykcyjnego pokazują, jak cienka jest granica między bezpieczeństwem publicznym a ochroną praw człowieka. W kontekście globalnego zainteresowania predykcją przestępstw, konieczne staje się wypracowanie ram etycznych i legislacyjnych chroniących obywateli przed nadużyciami nowoczesnych technologii.