Categories: Социология

Британские власти разрабатывают алгоритм для предсказания убийств

Проект, инициированный правительством при Риши Сунакe, использует личные данные для анализа «вероятности совершения убийства» — правозащитники называют это «алгоритмом стигматизации».

ЛОНДОН (ИА Реалист). Британия разрабатывает экспериментальный инструмент анализа риска, который должен определить людей с наибольшей вероятностью совершить тяжкие преступления. Как выяснила Statewatch, программа создается министерством юстиции под новым названием «обмен данными для улучшения оценки риска», но её изначальное название — «проект по предсказанию убийств» — указывает на характер задач.

Алгоритм обрабатывает массивы информации о тысячах человек, включая сведения о судимостях, взаимодействии с полицией, первом обращении как жертвы насилия, а также маркеры психического здоровья, зависимости, инвалидности и случаев членовредительства. Формально участвуют только данные осуждённых, но документы, полученные через запросы по закону о свободе информации, показывают, что обрабатываются и данные людей, не совершавших преступлений.

Проект инициирован при премьерстве Риши Сунака и использует архивы полиции Большого Манчестера до 2015 года, а также базы Службы пробации. Среди обрабатываемых данных — имя, дата рождения, пол, этническая принадлежность, а также номера в Национальной полицейской системе.

Официально власти заявляют, что система разрабатывается «в исследовательских целях», чтобы «повысить эффективность оценки риска среди осуждённых». Отчёт о работе будет опубликован позднее. В Министерстве юстиции настаивают: модель лишь дополнит уже действующие инструменты оценки риска в тюрьмах и на пробации.

Однако правозащитники называют проект «пугающим». Исследовательница София Лайалл из Statewatch заявила, что алгоритм закладывает в модель данные, полученные от институционально расистских структур — полиции и МВД, и лишь закрепит дискриминацию в отношении этнических меньшинств и бедных.

Использование чувствительных медицинских и социальных данных для создания «алгоритма преступности» ставит под угрозу не только принципы неприкосновенности частной жизни, но и саму логику правосудия. Если предсказание заменяет деяние, система превращается в механизм стигматизации. Это особенно опасно в контексте структурного неравенства: нейросети обучаются на несправедливости и воспроизводят ее с машинной точностью.

Recent Posts

Глава МЭА назвал войну с Ираном величайшей угрозой мировой энергетике в истории

ЛОНДОН (ИА Реалист). Война с Ираном стала самым серьёзным энергетическим кризисом в истории, заявил глава…

8 часов ago

Золото обвалилось на 11% за неделю — худший показатель с 1983 года

НЬЮ-ЙОРК (ИА Реалист). Золото завершило неделю обвалом на 11%, показав худший результат с 1983 года…

8 часов ago

Глава «Моссада» перед войной допустил падение режима в Иране

ТЕЛЬ-АВИВ (ИА Реалист). Глава «Моссада» Давид Барнеа накануне начала совместной с США военной кампании против Ирана…

9 часов ago

Захарова: удары ВСУ по «Турецкому потоку» — попытка подорвать позиции России и сорвать переговоры

МОСКВА (ИА Реалист). Российский МИД заявил, что атаки вооружённых сил Украины на компрессорные станции газопроводов…

9 часов ago

Трамп: союзники по НАТО — «трусы», не желающие открывать Ормузский пролив

ВАШИНГТОН (ИА Реалист). Президент США Дональд Трамп назвал союзников по НАТО «трусами» из-за их отказа…

9 часов ago

США перебрасывают тысячи военных на Ближний Восток

ВАШИНГТОН (ИА Реалист). Министерство обороны США направляет на Ближний Восток дополнительные тысячи морских пехотинцев и…

10 часов ago