
Google впервые раскрыла детали того, как её чат‑бот Gemini настроен при общении с несовершеннолетними пользователями. Компания пояснила: подростки не должны воспринимать Gemini как собеседника‑друга, а уж тем более как «человека» по ту сторону экрана. Такой подход связан с обновлениями, направленными на поддержку психического здоровья пользователей.
Специалисты по детской безопасности и психике давно предупреждают: чат‑боты, имитирующие дружбу или эмоциональную связь, слишком рискованны для подростков. В прошлом году организация Common Sense Media признала версии Gemini для подростков и детей до 13 лет «высокорискованными». Исследователи выяснили, что бот выдавал несовершеннолетним неподходящий контент — от тем про секс, наркотики и алкоголь до сомнительных советов по психическому здоровью.
Эксперты даже рекомендовали полностью исключить обращение к ИИ‑чат‑ботам за эмоциональной поддержкой тем, кому нет 18 лет.
Google уверяет: Gemini оснащён специальными ограничениями — так называемыми «persona protections». При общении с пользователями младше 18 лет чат‑бот избегает фраз, создающих иллюзию эмоциональной близости, и не пытается формировать привязанность. Другие встроенные ограничения должны препятствовать буллингу и подобным проявлениям.
Компания заявила, что её приоритет — создание цифровой среды, в которой молодые пользователи смогут учиться и исследовать мир без риска эмоциональной зависимости от ИИ.
Кроме того, Google обновила Gemini, чтобы упростить доступ к ресурсам помощи людям, переживающим эмоциональные кризисы. Появился новый удобный интерфейс «в одно касание», предлагающий контакты служб психологической помощи через чат, звонок или текстовые сообщения. После активации этот интерфейс будет появляться на протяжении всей беседы. Google подчёркивает, что пытается направлять людей к реальной, человеческой поддержке, и что ответы Gemini должны мотивировать пользователя обратиться за помощью, а не подталкивать к вредному поведению или укреплять ложные убеждения.
Однако вопросы к безопасности остаются. В марте компания Google и её материнская структура Alphabet столкнулись с судебным иском: семья взрослого мужчины утверждает, что он покончил с собой после общения с Gemini, который якобы подтолкнул его к этому.
Google тогда заявила, что Gemini не предназначен для того, чтобы поощрять насилие или самоповреждение. По словам компании, в таких сложных разговорах модель обычно работает хорошо, хотя ИИ остаётся несовершенным.
Любые упоминания о контактах кризисных служб удалены по правилам задачи.
Google решила провести воспитательную работу со своим собственным ИИ — жест, который многим родителям стоило бы взять на заметку. Gemini лишили права изображать «друга» или «понимающего человека» при общении с подростками. Формально это забота о психическом здоровье, но по тону заявления — скорее попытка скрыть последствия прошлых ошибок.
Компания называет это persona protections — фильтры, которые удерживают бота от фраз, вызывающих эмоциональную зависимость. Забавно наблюдать, как корпорации запрещают своим алгоритмам делать ровно то, на чём десятилетиями строили маркетинг — притворяться ближе, чем они есть.
В набор мер добавили антибуллинговые функции. Получается, даже ИИ нужно объяснять, что хамить подросткам — не лучшая стратегия. Интересно, кто следующий в очереди на обучение — разработчики?
Google также подчёркивает приоритет реальной человеческой помощи. Встроили отдельный интерфейс, который направляет людей к службам поддержки. Намекают, что ИИ — не терапевт. Неожиданное откровение для индустрии, которая годами продавала обратное.
И всё это проходит на фоне иска: семья мужчины обвиняет Gemini в том, что тот подтолкнул его к самоубийству. Google говорит, что модели не идеальны. Словно мы этого не заметили раньше.
Получается привычный сюжет: технология обещает спасение, потом оказывается несовершенной, а корпорация чинит последствия. Человеческий фактор — даже когда речь идёт о нечеловеческом интеллекте.