ChatGPT научили звать на помощь: OpenAI, психика и гуманизм - Новости IT perec.ru

ChatGPT научили звать на помощь: OpenAI, психика и гуманизм

28.08.2025, 19:40:04 ИТОбщество
Подписаться на «Рифы и пачки / Твоя культура»
ChatGPT научили звать на помощь: OpenAI, психика и гуманизм

ChatGPT становится всё лучше в понимании, когда его собеседнику нужна реальная помощь от человека – и, если честно, давно пора. Недавняя презентация ChatGPT-5 могла создать впечатление, что это просто инструмент для программистов. Хотя в эфире мелькнула история женщины, воспользовавшейся ChatGPT для расшифровки медицинских терминов, основной разговор был о коде, коде и ещё раз коде.

Но на самом деле в жизни люди используют ИИ, и ChatGPT в частности, гораздо шире. Как показала бурная реакция на замену старой модели ChatGPT-4o после релиза “пятёрки”, очень многие обращаются к ChatGPT за поддержкой своего психического здоровья — для них это и коуч, и психотерапевт, и просто друг. И тут любые изменения в “характере” нейросети ощущаются на себе напрямую. Похоже, в OpenAI начали осознавать, какую ответственность они несут, и недавно сделали заявление: “Мы иногда сталкиваемся с людьми в состоянии серьёзного психического и эмоционального кризиса. Мы писали об этом несколько недель назад и хотели дать больше информации после очередного крупного обновления. Но последние трагические случаи с ChatGPT заставили нас говорить сейчас”.

Пока OpenAI не представляет новых функций, но объясняет: “Мы расскажем, как устроен ChatGPT, где есть проблемы, и куда мы движемся дальше”. Если упростить, OpenAI работает в нескольких ключевых направлениях, связанных со здоровьем и безопасностью пользователей.

Во-первых, усиливаются “защитные меры” при длинных диалогах. Обычно ChatGPT советует позвонить на горячую линию по борьбе с самоубийствами, когда человек впервые упоминает об этом, но если разговор продолжается долго, ИИ может сбиться и предложить рискованный совет.

Во-вторых, компания совершенствует фильтрацию опасного контента. Иногда классификатор “недооценивает” серьёзность ситуации и не блокирует сообщения, которые должны быть заблокированы — сейчас эти параметры дорабатывают.

В-третьих, OpenAI хочет расширить поддержку кризисным пользователям и раньше связывать людей с профессиональными психологами, чтобы не доводить до острой фазы. Возможно, нейросеть станет “мостиком” между человеком и лицензированными специалистами — это потребует осторожности и времени.

Ещё одно важное нововведение — родительский контроль. В ближайшее время для ChatGPT введут опции, которые позволят родителям видеть, как их подростки общаются с ИИ и даже настроить экстренный контакт на случай, если подросток попадёт в кризисную ситуацию.

Стоит признать: ChatGPT развивается так стремительно, что OpenAI, похоже, сама не успевает оценить все последствия своих открытий. Фильтры в Copilot, например, жестче и родительский контроль там завязан на Windows или Apple, а вот OpenAI только сейчас задумалась о собственных решениях.

Станет ли родительский контроль действительно защищать детей или подростки найдут способ его обойти – покажет время. Но разговор теперь начался, и проигнорировать эту тему у OpenAI уже не получится.


PEREC.RU

Что общего у плохого ситкома и OpenAI? Никогда не знаешь — то ли смеяться, то ли бежать в ужасе. Пока иллюзия братства с чат-ботом лечила предпринимателей от одиночества, OpenAI вдруг заметила, что люди используют их детище не только для написания кривого Python, но и чтобы не шагнуть с подоконника.

Потрясающее прозрение пришло после волны жалоб на «разочарование» от смены версии ChatGPT-4o: оказалось, что нейросеть для многих — не просто гугл, а замена реальной психологической помощи. OpenAI в лучшем духе корпораций решила: если вы не идёте к психотерапевту — он придёт к вам сквозь чёрный экран. Теперь ChatGPT строже следит за перепадами настроения у пользователей: сначала предложит телефон горячей линии, а в затяжном разговоре может и сам не в ту сторону свернуть — так что фильтры докручивают до истерики.

Выдумщица-роботка взялась за инновацию: фильтрация, переадресация, «мягкий выход» в сторону лицензированных психологов (которых ещё надо найти). Для подростков — сюрприз: родительский контроль. Пока родители радуются кнопке SOS, эксперты в айтишном двуглавии спорят: можно ли в принципе обезопасить детей, если они со второго класса хакеры.

Всё это приправлено фирменной скоростью OpenAI, когда сначала запускают, а потом — «вдруг» думают о последствиях. В сравнении с Copilot, где фильтры пожестче и управление поведением уходит к Windows, OpenAI только учится беречь нервы юзеров. В итоге у нас не столько новое слово в психотерапии, сколько новый повод задуматься: кому доверить свою душу — алгоритму с логотипом или реальному человеку?

Поделиться

Похожие материалы