Categories: Социология

Британские власти разрабатывают алгоритм для предсказания убийств

Проект, инициированный правительством при Риши Сунакe, использует личные данные для анализа «вероятности совершения убийства» — правозащитники называют это «алгоритмом стигматизации».

ЛОНДОН (ИА Реалист). Британия разрабатывает экспериментальный инструмент анализа риска, который должен определить людей с наибольшей вероятностью совершить тяжкие преступления. Как выяснила Statewatch, программа создается министерством юстиции под новым названием «обмен данными для улучшения оценки риска», но её изначальное название — «проект по предсказанию убийств» — указывает на характер задач.

Алгоритм обрабатывает массивы информации о тысячах человек, включая сведения о судимостях, взаимодействии с полицией, первом обращении как жертвы насилия, а также маркеры психического здоровья, зависимости, инвалидности и случаев членовредительства. Формально участвуют только данные осуждённых, но документы, полученные через запросы по закону о свободе информации, показывают, что обрабатываются и данные людей, не совершавших преступлений.

Проект инициирован при премьерстве Риши Сунака и использует архивы полиции Большого Манчестера до 2015 года, а также базы Службы пробации. Среди обрабатываемых данных — имя, дата рождения, пол, этническая принадлежность, а также номера в Национальной полицейской системе.

Официально власти заявляют, что система разрабатывается «в исследовательских целях», чтобы «повысить эффективность оценки риска среди осуждённых». Отчёт о работе будет опубликован позднее. В Министерстве юстиции настаивают: модель лишь дополнит уже действующие инструменты оценки риска в тюрьмах и на пробации.

Однако правозащитники называют проект «пугающим». Исследовательница София Лайалл из Statewatch заявила, что алгоритм закладывает в модель данные, полученные от институционально расистских структур — полиции и МВД, и лишь закрепит дискриминацию в отношении этнических меньшинств и бедных.

Использование чувствительных медицинских и социальных данных для создания «алгоритма преступности» ставит под угрозу не только принципы неприкосновенности частной жизни, но и саму логику правосудия. Если предсказание заменяет деяние, система превращается в механизм стигматизации. Это особенно опасно в контексте структурного неравенства: нейросети обучаются на несправедливости и воспроизводят ее с машинной точностью.

Recent Posts

Правительство направило более ₽60,5 млрд на поддержку льготных кредитов для аграриев

МОСКВА (ИА Реалист). Правительство России дополнительно выделило более ₽60,5 млрд на поддержку программы льготного кредитования…

2 часа ago

Экспорт зеленого чая из Японии достиг максимума за 70 лет

ТОКИО (ИА Реалист). Экспорт зеленого чая из Японии за первые десять месяцев текущего года достиг…

3 часа ago

Глава YouTube признался, что ограничивает своим детям доступ к соцсетям

ВАШИНГТОН (ИА Реалист). Генеральный директор YouTube Нил Мохан сообщил, что ограничивает использование соцсетей и онлайн-платформ…

6 часов ago

Лукашенко помиловал 123 иностранных граждан по договоренностям с Трампом

МИНСК (ИА Реалист). Президент Беларуси Александр Лукашенко в рамках достигнутых договоренностей с президентом США Дональдом…

13 часов ago

Microsoft выходит из тени OpenAI и запускает собственную линию «суперинтеллекта»

ВАШИНГТОН (ИА Реалист). Корпорация Microsoft получила право самостоятельно развивать продвинутые системы искусственного интеллекта после изменения…

23 часа ago

В Пакистане экс-главу разведки приговорили к 14 годам тюрьмы

ИСЛАМАБАД (ИА Реалист). Военный суд Пакистана приговорил бывшего руководителя Межведомственной разведки (ISI) генерал-лейтенанта Фаиза Хамида…

1 день ago