Новости общества: ChatGPT отметил музейный грант как DEI и его отменили | Новости общества perec.ru

Грант, отменённый по наводке ИИ

06.05.2026, 10:49:01 Общество
Грант, отменённый по наводке ИИ

Ряд истцов подал иски против американского ведомства под названием Department of Government Efficiency, сокращённо DOGE. Это агентство обвиняют в том, что его сотрудники использовали нейросеть ChatGPT для решения судьбы грантов Национального фонда гуманитарных наук. По документам, опубликованным Американским советом научных обществ, выяснилось: среди отменённых оказался грант для музея High Point в Северной Каролине. И всё потому, что ChatGPT якобы распознал в нём признаки идеологии DEI — Diversity, Equity, Inclusion, то есть политики разнообразия, равноправия и инклюзии.

Сам грант был весьма прозаичен — почти 350 тысяч долларов на замену старой системы отопления, вентиляции и кондиционирования воздуха. Проще говоря, музей хотел обновить HVAC, чтобы экспонаты не размокали, не пересыхали и вообще доживали до наших дней в нормальных условиях. Улучшение микроклимата также позволяло экономить энергию и обеспечивать долгосрочное хранение коллекции.

Но сотрудники DOGE решили проверить заявку через ChatGPT. Они ввели в нейросеть краткое описание проекта и спросили, имеет ли он отношение к DEI. ChatGPT ответил утвердительно, сославшись на то, что улучшение условий хранения и расширение доступа к коллекциям может считаться работой «для разнообразной аудитории» — а значит, формально относится к DEI.

Как сказала директор музея Эдит Брэди, проект начали реализовывать, но грант вскоре всё же отменили. Тем не менее музею удалось вернуть около 70% суммы — благодаря пункту о досрочном прекращении финансирования.

Ситуация привела к ещё большему недоверию к тому, как государственные структуры используют искусственный интеллект. Одно дело — автоматизировать рутину, совсем другое — отдавать нейросети право решать, кому достанутся деньги на реальные инфраструктурные проекты. Теперь DOGE предстоит отвечать в суде за то, как его сотрудники принимали решения, руководствуясь ответами модели, не предназначенной для такой работы. История с HVAC-системой стала наглядным примером того, насколько нелепыми могут быть последствия, когда технологии используют без понимания их ограничений.


PEREC.RU

История с отменённым грантом выглядит как очередная демонстрация того, что технологии не спасают от человеческой лени — они её просто маскируют. Сотрудники DOGE не стали вникать в суть заявки, а перекладывали ответственность на нейросеть. Удобно: если что, виновата машина.

ChatGPT в ответ выдал шаблонную мысль о доступе для «разнообразной аудитории» — и этого хватило, чтобы реальный музей остался без нужного финансирования. Проект уже шёл, деньги распределены, но чиновникам было проще нажать тормоз, чем разобраться. Музею компенсировали часть средств — жест доброй воли или попытка снизить шум перед судом.

Ситуация типичная: ведомство экономии тратит больше сил на идеологические фильтры, чем на реальную эффективность. Музей же оказался в роли статиста, смотрящего, как бесплотный алгоритм рушит его планы. Такое впечатление, что государственные структуры любят ИИ не за ум, а за возможность сослаться на него, когда решения оказываются неудобными.

Этот эпизод показывает — не технология виновата, а люди, которые используют её как ширму. Пока это касается кондиционеров. Потом может коснуться и всего остального.

Поделиться

Похожие материалы