Categories: Социология

Британские власти разрабатывают алгоритм для предсказания убийств

Проект, инициированный правительством при Риши Сунакe, использует личные данные для анализа «вероятности совершения убийства» — правозащитники называют это «алгоритмом стигматизации».

ЛОНДОН (ИА Реалист). Британия разрабатывает экспериментальный инструмент анализа риска, который должен определить людей с наибольшей вероятностью совершить тяжкие преступления. Как выяснила Statewatch, программа создается министерством юстиции под новым названием «обмен данными для улучшения оценки риска», но её изначальное название — «проект по предсказанию убийств» — указывает на характер задач.

Алгоритм обрабатывает массивы информации о тысячах человек, включая сведения о судимостях, взаимодействии с полицией, первом обращении как жертвы насилия, а также маркеры психического здоровья, зависимости, инвалидности и случаев членовредительства. Формально участвуют только данные осуждённых, но документы, полученные через запросы по закону о свободе информации, показывают, что обрабатываются и данные людей, не совершавших преступлений.

Проект инициирован при премьерстве Риши Сунака и использует архивы полиции Большого Манчестера до 2015 года, а также базы Службы пробации. Среди обрабатываемых данных — имя, дата рождения, пол, этническая принадлежность, а также номера в Национальной полицейской системе.

Официально власти заявляют, что система разрабатывается «в исследовательских целях», чтобы «повысить эффективность оценки риска среди осуждённых». Отчёт о работе будет опубликован позднее. В Министерстве юстиции настаивают: модель лишь дополнит уже действующие инструменты оценки риска в тюрьмах и на пробации.

Однако правозащитники называют проект «пугающим». Исследовательница София Лайалл из Statewatch заявила, что алгоритм закладывает в модель данные, полученные от институционально расистских структур — полиции и МВД, и лишь закрепит дискриминацию в отношении этнических меньшинств и бедных.

Использование чувствительных медицинских и социальных данных для создания «алгоритма преступности» ставит под угрозу не только принципы неприкосновенности частной жизни, но и саму логику правосудия. Если предсказание заменяет деяние, система превращается в механизм стигматизации. Это особенно опасно в контексте структурного неравенства: нейросети обучаются на несправедливости и воспроизводят ее с машинной точностью.

Recent Posts

США и Иран продолжают непрямые переговоры через Оман

ВАШИНГТОН (ИА Реалист). Переговорный процесс между США и Ираном за последние сутки оказался в состоянии…

25 минут ago

Окасио-Кортес и Рубио становятся новыми фаворитами американской политики

ВАШИНГТОН (ИА Реалист). Конгрессвумен от Нью-Йорка Александрия Окасио-Кортес впервые вышла на первое место среди потенциальных…

53 минуты ago

Путин: встреча с Зеленским — только для подписания мира

МОСКВА (ИА Реалист). Первая половина мая 2026 года оказалась насыщенной ключевыми заявлениями и действиями президента России…

9 часов ago

Кевин Уорш утверждён главой Федрезерва США

НЬЮ-ЙОРК (ИА Реалист). Кевин Уорш, выдвинутый президентом Дональдом Трампом на пост председателя Федеральной резервной системы, окажется в «невозможной»…

10 часов ago

Митрополит Шио Муджири избран патриархом Грузинской Православной Церкви

ТБИЛИСИ (ИА Реалист). 11 мая в Грузии впервые за полвека сменился предстоятель Православной Церкви.  Священный синод…

12 часов ago

Сможет ли Трамп заключить новую ядерную сделку с Ираном?

ВАШИНГТОН (ИА Реалист). С момента начала войны США и Израиля против Ирана в конце февраля…

13 часов ago