ЛОНДОН (ИА Реалист). Британия разрабатывает экспериментальный инструмент анализа риска, который должен определить людей с наибольшей вероятностью совершить тяжкие преступления. Как выяснила Statewatch, программа создается министерством юстиции под новым названием «обмен данными для улучшения оценки риска», но её изначальное название — «проект по предсказанию убийств» — указывает на характер задач.
Алгоритм обрабатывает массивы информации о тысячах человек, включая сведения о судимостях, взаимодействии с полицией, первом обращении как жертвы насилия, а также маркеры психического здоровья, зависимости, инвалидности и случаев членовредительства. Формально участвуют только данные осуждённых, но документы, полученные через запросы по закону о свободе информации, показывают, что обрабатываются и данные людей, не совершавших преступлений.
Проект инициирован при премьерстве Риши Сунака и использует архивы полиции Большого Манчестера до 2015 года, а также базы Службы пробации. Среди обрабатываемых данных — имя, дата рождения, пол, этническая принадлежность, а также номера в Национальной полицейской системе.
Официально власти заявляют, что система разрабатывается «в исследовательских целях», чтобы «повысить эффективность оценки риска среди осуждённых». Отчёт о работе будет опубликован позднее. В Министерстве юстиции настаивают: модель лишь дополнит уже действующие инструменты оценки риска в тюрьмах и на пробации.
Однако правозащитники называют проект «пугающим». Исследовательница София Лайалл из Statewatch заявила, что алгоритм закладывает в модель данные, полученные от институционально расистских структур — полиции и МВД, и лишь закрепит дискриминацию в отношении этнических меньшинств и бедных.
Использование чувствительных медицинских и социальных данных для создания «алгоритма преступности» ставит под угрозу не только принципы неприкосновенности частной жизни, но и саму логику правосудия. Если предсказание заменяет деяние, система превращается в механизм стигматизации. Это особенно опасно в контексте структурного неравенства: нейросети обучаются на несправедливости и воспроизводят ее с машинной точностью.