Categories: Социология

Британские власти разрабатывают алгоритм для предсказания убийств

Проект, инициированный правительством при Риши Сунакe, использует личные данные для анализа «вероятности совершения убийства» — правозащитники называют это «алгоритмом стигматизации».

ЛОНДОН (ИА Реалист). Британия разрабатывает экспериментальный инструмент анализа риска, который должен определить людей с наибольшей вероятностью совершить тяжкие преступления. Как выяснила Statewatch, программа создается министерством юстиции под новым названием «обмен данными для улучшения оценки риска», но её изначальное название — «проект по предсказанию убийств» — указывает на характер задач.

Алгоритм обрабатывает массивы информации о тысячах человек, включая сведения о судимостях, взаимодействии с полицией, первом обращении как жертвы насилия, а также маркеры психического здоровья, зависимости, инвалидности и случаев членовредительства. Формально участвуют только данные осуждённых, но документы, полученные через запросы по закону о свободе информации, показывают, что обрабатываются и данные людей, не совершавших преступлений.

Проект инициирован при премьерстве Риши Сунака и использует архивы полиции Большого Манчестера до 2015 года, а также базы Службы пробации. Среди обрабатываемых данных — имя, дата рождения, пол, этническая принадлежность, а также номера в Национальной полицейской системе.

Официально власти заявляют, что система разрабатывается «в исследовательских целях», чтобы «повысить эффективность оценки риска среди осуждённых». Отчёт о работе будет опубликован позднее. В Министерстве юстиции настаивают: модель лишь дополнит уже действующие инструменты оценки риска в тюрьмах и на пробации.

Однако правозащитники называют проект «пугающим». Исследовательница София Лайалл из Statewatch заявила, что алгоритм закладывает в модель данные, полученные от институционально расистских структур — полиции и МВД, и лишь закрепит дискриминацию в отношении этнических меньшинств и бедных.

Использование чувствительных медицинских и социальных данных для создания «алгоритма преступности» ставит под угрозу не только принципы неприкосновенности частной жизни, но и саму логику правосудия. Если предсказание заменяет деяние, система превращается в механизм стигматизации. Это особенно опасно в контексте структурного неравенства: нейросети обучаются на несправедливости и воспроизводят ее с машинной точностью.

Recent Posts

В России до 2030 года модернизируют 75 аэродромов за ₽250 млрд

МОСКВА (ИА Реалист). Заместитель председателя правительства РФ Виталий Савельев провел совещание, посвященное ходу реконструкции аэропортов…

57 минут ago

Хаменеи пригрозил США «региональной войной» в случае удара по Ирану

ТЕГЕРАН (ИА Реалист). Верховный лидер Ирана Али Хаменеи заявил, что возможное нападение США на Иран…

1 день ago

Индия закладывает рекордные расходы на инфраструктуру и оборону

НЬЮ-ДЕЛИ (ИА Реалист). Власти Индии планируют направить рекордные средства на инфраструктуру и оборону. Об этом…

1 день ago

В Японии половина крупных городов потеряла население за 10 лет

ТОКИО (ИА Реалист). Половина из 20 крупнейших городов Японии с населением более 700 тыс. человек…

1 день ago

Индия намерена сократить бюджетный дефицит и ускорить рост промышленности

НЬЮ-ДЕЛИ (ИА Реалист). Правительство Индия планирует умеренно улучшить фискальные показатели в следующем финансовом году, одновременно…

2 дня ago

«Иранский Дэн Сяопин»: Лариджани готовит Иран к жизни после Хаменеи

ТЕГЕРАН (ИА Реалист). Секретарь Высшего совета национальной безопасности Ирана Али Лариджани оказался в центре жесткого…

2 дня ago