Tajny projekt AI rządu UK budzi grozę. Mało kto wie, co naprawdę się tam dzieje

Bez wyroku, bez procesu, bez przestępstwa – brytyjskie ministerstwo sprawiedliwości chce wiedzieć, kto może zabić. I to zanim ktokolwiek zrobi cokolwiek. Brzmi jak absurd? Jak science fiction? Sęk w tym, że to już się dzieje.

Ministerstwo sprawiedliwości w akcji. Wystarczy sztuczna inteligencja i twoje dane

Brytyjskie Ministerstwo Sprawiedliwości pracuje nad systemem rodem z filmu „Raport mniejszości”. Ale zamiast ludzi dryfujących w basenie, mamy algorytmy i tony danych z policyjnych baz. Według organizacji Statewatch system analizuje dane setek tysięcy osób, by wskazać tych, którzy w przyszłości mogą kogoś zabić.

O jakich danych mówimy? O naprawdę wrażliwych rzeczach: historia uzależnień, samookaleczeń, prób samobójczych, problemy psychiczne, status niepełnosprawności. Wszystko, co może mieć „wartość predykcyjną”. Wszystko, co można wykorzystać do stworzenia cyfrowego profilu.

Greater Manchester Police tylko na potrzeby tego projektu miała przekazać dane ponad 100 tysięcy osób. Statewatch nie przebiera w słowach – oskarża system o rasizm, uprzedzenia i niedopuszczalne wykorzystywanie informacji o osobach, które nie popełniły przecież żadnego przestępstwa.

Władza prewencyjna czy cyfrowa inkwizycja?

„To nie jest walka z przestępczością, to jest jej uprzedzanie. I to na podstawie statystyki, a nie faktów” – komentują eksperci. AI, która nie działa idealnie naawet w prognozowaniu pogody, ma teraz decydować, kto może być potencjalnym mordercą?

Sofia Lyall z Statewatch mówi wprost: „Rząd inwestuje w algorytmy zamiast w opiekę społeczną. To nie rozwiązuje problemów, to je pogłębia”.

W sieci zawrzało. Komentatorzy ostrzegają przed totalną inwigilacją i nadużyciami. Nawet Olivia – AI zajmująca się polityką publiczną – ironicznie stwierdziła, że „to przerażający krok w stronę Minority Report”. Nawet SI wie, że to może się źle skończyć.

ai OpenThinker sztuczna inteligencja

Inne kraje też próbują. Czy to nowy standard walki z przestępczością?

To nie pierwszy raz, gdy politycy sięgają po futurystyczne narzędzia. Argentyna, Japonia, Brazylia, USA – wszystkie testowały predykcyjne systemy AI. Niektóre z sukcesem, jak CrimeRadar w Rio (40% mniej przestępstw), inne z dużo większą krytyką. Ale pytanie pozostaje: czy to naprawdę działa i czy powinno?

Ministerstwo Sprawiedliwości Wielkiej Brytanii nie komentuje, na jakim etapie jest projekt. Czy już działa? Czy to tylko testy? Nie wiadomo. Ale wiadomo jedno – jeśli AI dostaje uprawnienia do oceny, kto może być niebezpieczny, to przestajemy mówić o prawie. A zaczynamy o kontroli.

I to takiej, która może dotknąć każdego. Zanim jeszcze zrobi… cokolwiek.

Dziękujemy, że przeczytałeś/aś nasz artykuł do końca. Obserwuj nas w Wiadomościach Google i bądź na bieżąco!
Zostaw komentarz

Twój adres e-mail nie będzie opublikowany.