Новости ИИ и модерации: Модераторы требуют контроля после опасных советов Reddit Answers по героину | Новости IT perec.ru

Модераторы хотят контроля над ИИ после рекомендаций Reddit Answers по героину

17.10.2025, 09:51:10 ИТОбщество
Подписаться на «Рифы и пачки / Твоя культура»
Модераторы хотят контроля над ИИ после рекомендаций Reddit Answers по героину

Модераторы требуют контроля над искусственным интеллектом после случая с Reddit Answers

В последнее время мы все чаще сталкиваемся с тем, как искусственный интеллект спотыкается на пустом месте, выдавая не только странные, но иногда и опасные советы. На этот раз под прицелом оказался Reddit Answers — инструмент на основе ИИ, который модераторы не смогли ни отключить, ни замаскировать.

Модератор рассказал, что увидел: Reddit Answers посоветовал людям с хронической болью бросить свои лекарства и попробовать высокие дозы кратома — это вещество не регулируется и в некоторых штатах США вообще запрещено. Не удовлетворившись на этом, модератор продолжил эксперимент, задавая ИИ медицинские вопросы. В итоге получил опасный микс из рекомендаций для лечения лихорадки у новорождённых — с одной стороны, среди них были верные пункты, но с другой — последовала рекомендация использовать героин в качестве обезболивающего при хронических болях.

После этого представители медицинских сообществ Reddit встревожились: когда Reddit Answers начинает сочинять чепуху, у модераторов нет ни кнопки "выключить", ни возможности пометить опасный совет. Реакция Reddit не заставила себя ждать: компания сообщила изданию 404 Media, что обновила Reddit Answers. Теперь «похожие ответы» по чувствительным вопросам, которые раньше всплывали прямо в ветках обсуждения, скрываются от глаз пользователей. Изменения, по словам Reddit, должны улучшить «пользовательский опыт» и сделать платформу «безопасней».

Что именно попадает в список «скрытых тем», Reddit рассказывать пока не спешит. Представитель компании пояснил только, что контент из приватных, изолированных и откровенных (NSFW — Not Safe For Work) сообществ, а также по некоторым взрослым темам, не будет показан в Reddit Answers. Но всю медицинскую базу знаний нейросеть овладеть так и не смогла, а тем более — отличить опасное лечение от фольклорных баек ради смеха. Особенно если учесть, что сама Reddit не предоставляет никаких реальных инструментов, которые бы позволяли хоть как-то управлять своим же ИИ.

В итоге, ответственность за странные советы и потенциальный вред сейчас полностью ложится на плечи модераторов. Но без возможности что-либо контролировать они вынуждены просто наблюдать, как нейросеть рекомендует героин — и надеяться, что никто это всерьёз не воспримет.


PEREC.RU

Всё новое — хорошо забытый фарс. Reddit собирает коллекцию рекордов по медиа-глупости: нейросеть предлагает лечить боль героином и кратомом, а модераторы разводят руками.

Обычный день на платформе, где ИИ честно выдал медицинский совет, который, пожалуй, лучше не принимать даже из уст уличного шамана. Кто в ответе? Никто. Модераторы, напоминающие сторожей в пустыне, расписываются в бессилии — ни кнопки, ни рычага, ни пульта. Все эти «инструменты контроля» — только для отчётов на выставке смелых идей.

Reddit скользит по поверхности, объясняя, что теперь скрывает особо острые темы. Грань между бредом и обновлением стирается, подробностей компания не даёт — мол, берегите нервы.

Всё выглядит как очередная битва за право не быть глупее искусственного интеллекта. Кажется, на этот раз люди проигрывают: совет о героине явно переиграл даже самые абсурдные интернет-форумы.

Поделиться

Похожие материалы