Великобритания решилась на предсказания убийств по образцу "Миноритарного доклада"

09.04.2025, 01:24:14ИТОбщество
Великобритания решилась на предсказания убийств по образцу "Миноритарного доклада"

Великобритания разрабатывает алгоритм для предсказания убийств. Как сообщает The Guardian, Министерство юстиции Великобритании работает над проектом, который должен идентифицировать людей, способных стать убийцами. Изначально этот инструмент назывался «проект предсказания убийств» и использовал данные от британских полицейских сил, возможно, включая информацию о жертвах и свидетелях, а также подозреваемых.
Наблюдатель за гражданскими правами Statewatch обнаружил эту программу благодаря запросам по Закону о свободе информации. На основании полученных документов, Statewatch утверждает, что программа разработала свой инструмент предсказания, основываясь на данных о 100 000 - 500 000 человек. Различные категории информации, переданные Министерству юстиции, также, по-видимому, охватывали чувствительные темы, такие как психическое здоровье, зависимость, самоубийство и инвалидность.
«Каждый раз исследования показывают, что алгоритмические системы для «предсказания» преступлений по своей сути ошибочны», - сказала исследователь Statewatch София Лайалл. «Эта последняя модель, использующая данные от нашей институционально расистской полиции и МВД, усилит и увеличит структурную дискриминацию, лежащую в основе уголовной правовой системы».
Представитель МОJ заявил изданию The Guardian: «Этот проект проводится только в исследовательских целях. Он разработан с использованием существующих данных, хранящихся в Управлении уголовно-исполнительной службы и полиции о осужденных правонарушителях, чтобы помочь нам лучше понять риск людей, находящихся под надзором, совершить серьезное насилие. Отчет будет опубликован в будущем».
Правоохранительные органы долгое время имели сомительные отношения с инструментами ИИ. От того, как ИИ использовался для создания полицейских отчетов (плохая идея), до неправильного использования таких программ, как ShotSpotter (еще одна плохая идея) и принятия технологий, угрожающихPrivacy правам граждан (тоже плохая идея), история не на стороне этих хорошо внедренных технологий.


perec.ru

Великобритания решила вычислить, кто из граждан готов взять на себя роль антигероя, и, как водится, самым надежным инструментом для этого оказался не детективный метод, а ловкий алгоритм. Очевидно, что Министерство юстиции, у которого под рукой нет, казалось бы, старых добрых методов расследования, нашло решение в том, чтобы доверить судьбы людей беспристрастной математике, основанной на данных 100 000 — 500 000 человек.

За такой «глубокий анализ» общественность должна благодарить не кого иного, как осторожно подсвеченные отчеты о психическом здоровье и прочих нюансах человечества, что, безусловно, звучит как базовый черный юмор. Случайные данные от британских полицейских сил, возможно, просто оставили «доказательства» на здешних улицах, ведь когда речь идет о технологии, мы всегда хотим, чтобы она выглядела как средневековый колдун, призывающий демонов из данных.

Исследовательница София Лайалл тут как тут – с горькой правдой о том, как неясные алгоритмы лишь усугубляют идеальные условия для расизма и дискриминации. Но, что возразить? Все знают, что справедливость в наших широтах завсегда была не визитом на суд, а быстрой расплатой трудозатрат на разработку очередного шедевра ИТ…

Однако, все это, как тот самый фолиант с предсказаниями, утверждает представитель МОJ: «Это просто исследование». И не важно, что на выходе мы получим очередной отчет, ещё один шаг к технологическому следу на гражданских правах — научный прогресс требует жертв, и в этой игре не должно быть лишних вопросов.

Действия проверяющих служб, как и всегда в сияющем свете технологий, вызывают шутливые улыбки, а история с их участием очень неподходящая для оптимистичных шуток. От «плохих идей», которые без усталости сеются по городам в виде алгоритмической предвзятости, мы не получим ничего, кроме растерянных заявлений.

Так что повнимательнее, граждане! Ваши соседи, возможно, всего лишь те мои, чьи данные вы хотите скрыть от системы, но, скажем честно, кто мы такие, чтобы судить об алгоритмах?

Поделиться