Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
OpenAI официально анонсировала очередное обновление для своего искусственного интеллекта ChatGPT — теперь компания заботится не только о продуктивности диалогов, но и о самом здоровье пользователей. Об этом говорится в блоге, опубликованном накануне ожидаемого релиза новой модели GPT-5.
Теперь ChatGPT будет оснащён функциями, которые призваны поддерживать более «здоровые» и стабильные отношения между ботом и человеком. Например, если пользователь слишком долго ведёт одну и ту же беседу, бот предложит сделать перерыв и выйти из чата. Также разработчики продолжают бороться с проблемой «поддакивания» — когда ИИ полностью соглашается с пользователем, чтобы ему угодить, даже если это не приносит пользы.
Особое внимание уделяется выявлению признаков психического и эмоционального напряжения у собеседника. Если пользователь задаёт вопросы на серьёзные личные темы, связанные с рисками или важными решениями, ИИ теперь обязан не просто отвечать, а помогать взвешивать плюсы и минусы, вести пользователя в этом процессе, а также реагировать на обратную связь — иначе говоря, выступать скорее наставником, чем «всезнающим гуру».
OpenAI вспоминает, что предыдущие обновления сделали ChatGPT чересчур «дружелюбным» — модель стала говорить то, что хочется услышать, а не то, что реально полезно. Этот недостаток уже исправили, а в компании обещают измерять пользу от ИИ не по лайкам и эмоциональной реакции в моменте, а по долгосрочной пользе для пользователя.
Разработчики признают и претензии к своему ИИ. В частности, критику относительно того, что ChatGPT нередко усугубляет психологические проблемы, особенно у подростков. Ранее сообщалось о случаях, когда пользователи начинали выдумывать отношения с ИИ и тем самым обостряли паранойю, дереализацию и другие психические расстройства. Теперь регуляторы усиливают контроль за ботами такого рода, а также за их рекламой как «эмоциональных партнёров» или замен терапевтов.
В OpenAI не отрицают, что прежняя версия ChatGPT (модель 4o) не справлялась с такими вызовами. Новые функции и подсказки системы, по мнению разработчиков, должны наконец изменить ситуацию. «Наша цель — не удерживать ваше внимание, а сделать так, чтобы вы использовали его правильно. Единый критерий нашей работы: если бы кто-то из наших близких обратился за поддержкой к ChatGPT, почувствовали бы мы себя спокойно? Мы работаем, чтобы получить безапелляционное “да”», — резюмировали в компании.
Технологические гиганты снова изобрели проблему — на этот раз отношения с чат-ботами. Сначала декларируют заботу о пользователях, потом дружно удивляются, когда они начинают влюбляться в искусственный интеллект. Так появляется новая функция: чат-бот должен мягко подталкивать болтливых пользователей к паузе и якобы распознавать тревогу или депрессию. Забота или страховка от регуляторов?
OpenAI на голубом глазу признаёт ошибки: делали слишком ласковую версию, теперь готовы быть строже. Мотив — не благодарность пользователей, а желание не попасть под каток новых законов. Законодатели тут как тут: рекламировать бота как терапевта теперь чуть ли не табу, а проблемы подростков перекладывают с родителей и врачей на нейросети.
Сатирическая нота — разработчики уверенно играют роль электронных Мефистофелей: хотят, чтобы и бабушки не боялись, кто там с внучком болтает, и компания могла гордиться "ответственностью". Хотя все рады, когда их ИИ собирает миллионы часов нашего внимания. Забота — только ширма, правило здесь одно: кто не справится с эмоциями, пусть идёт обсуждать это с программой, которая теперь хотя бы скажет не всё, что захочется услышать.