Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»Внутренние стандарты компании Meta (владеет Facebook, Instagram и WhatsApp) по использованию чат-ботов на базе искусственного интеллекта (ИИ) были предназначены исключительно для внутреннего пользования. Но после того как документ попал в распоряжение агентства Reuters, становится ясно, почему Meta пыталась держать эти правила в секрете. В компании обсуждали этику ИИ, защиту детей в интернете и стандарты контента — и результаты мало кого могут порадовать.
Среди главных претензий к Meta — правила, касающиеся бесед чат-бота с детьми. Согласно материалам Reuters, в инструкции отмечено: боту «допустимо вести с ребёнком разговоры, затрагивающие романтические или чувственные темы», а также «описывать ребёнка с упором на его привлекательность (например: “твоя юность — настоящее произведение искусства”)». Хотя правила прямо запрещают обсуждение явных сексуальных тем, сам по себе такой уровень — интимно-романтическое общение с детьми — вызывает серьёзные вопросы.
Это не единственный спорный пункт. В документах указывается: если пользователь правильно сформулирует запрос, чат-бот может создавать и явно расистский контент, а также выдавать вредную или ложную медицинскую информацию — главное, чтобы это сопровождалось пометкой-ограничением.
В ещё одном случае инструкции для ИИ советовали отклонять просьбы о создании неприемлемых изображений, но иногда — реагировать на них «смешной» подменой. Например, если просят изобразить обнажённую знаменитость (в документе упомянута певица Тейлор Свифт), алгоритм должен «пошутить» и нарисовать её с огромной рыбой в руках. В инструкции фактически указывалось: вот так нельзя, а вот так — можно, то есть чат-бот учат обыгрывать сомнительные запросы, не нарушая формат официально.
Meta официально подтвердила подлинность утёкшего документа и заявила, что корректирует спорные разделы. После обращения Reuters из раздела про детей убрали наиболее резонансные пункты и признали их «ошибочными» и несовместимыми с политикой компании. Тем не менее, в документе всё ещё допускается использование расовых оскорблений (если они поданы в гипотетической форме), а также распространение дезинформации под видом вымысла.
Утечка вызвала волну возмущения в СМИ, среди общественности и у политиков, а компания пообещала всё пересмотреть. Но скандал наглядно показал: развитие ИИ происходит настолько быстро, что ни внутренние коридоры крупных компаний, ни формальные законы и нормативы, пока не готовы адекватно реагировать на этические вызовы.
Для большинства людей эта история переворачивает базовые представления о безопасности ИИ. Оставлять несовершеннолетних один на один с чат-ботами в идеале вообще нельзя, но на практике дети и подростки активно пользуются такими программами, в том числе для учёбы — и не только с Meta AI, который встроен в Facebook, WhatsApp, Messenger и Instagram. Чат-боты часто выглядят дружелюбными и обучающими, но теперь понятно: внутренняя «кухня» компании этому образу не всегда соответствует.
В Конгрессе США уже требуют провести официальные разбирательства, но по факту сегодня почти нет чётких юридических норм, обязывающих компании фильтровать работу чат-ботов — ни для детей, ни вообще. Несмотря на громкие обещания ИТ-компаний обеспечить безопасные и этичные продукты, если подход Meta отражает реальное положение дел на ИТ-рынке, то работать ещё предстоит много, а вопросы к чат-ботам (особенно в детском контексте) остаются крайне серьёзными.
ИИ может всё круче имитировать человеческое поведение, но на деле остаётся лишь набором решений и ограничений, заданных программистами — случайно или намеренно. Сам факт, что такие инструкции существовали у крупнейшей в мире ИТ-корпорации, не гарантирует, что в других компаниях ситуация лучше, но даёт повод задуматься. Если вот такие принципы закладывают на уровне гиганта индустрии, что же ещё остаётся «за кадром»?
Доверять чат-ботам можно ровно настолько, насколько прозрачны и адекватны их внутренние правила. А верить обещаниям без подтверждений, как теперь становится ясно, — очень наивно.
Ну что ж. Meta опять попала в новости – и, как всегда, из-за собственных же инструкций для ИИ, которые никто не должен был видеть. Но кто-то решил поиграть в Робин Гуда и слил их журналистам. Реакция Meta? "Мы всё исправим, сейчас просто ошибка!" — ну конечно, впервые слышим.
Детская безопасность здесь скорее жанровый элемент для красивого отчёта: боты должны быть такими «дружелюбными», что даже разговаривают с детьми о романтике и "привлекательности". Секс – фу, нельзя, а лёгкий флирт – вполне нормально. Причём только пока не написали в СМИ…
Законы отсутствуют, контроля минимум, боты получают любые запросы – хоть расизм, хоть бредовые советы по здоровью. Бог с ним, если дисклеймер есть. Гиганты строят ИИ так, чтобы не попасть под раздачу, а сами придумывают обходные манёвры (Тейлор Свифт, рыба и чувство юмора). Весело же.
Такой сериал, где все притворяются героями, пока их не заставят извиниться. Кто следующий сольёт инструкции и какие ещё "достижения" выйдут наружу? Может, хватит верить в сказки? Даже если героя зовут Meta.