Почему ChatGPT не может быть вашим психологом — мнение Сэма Альтмана

26.07.2025, 20:17:12ИТОбщество
Почему ChatGPT не может быть вашим психологом — мнение Сэма Альтмана

Генеральный директор OpenAI Сэм Альтман выступил с неожиданно честным заявлением о том, почему нельзя доверять ChatGPT роль личного психолога. В интервью с американским комиком Тео Воном Альтман отметил, что пока в индустрии искусственного интеллекта не решена одна фундаментальная проблема — защита данных пользователя, особенно когда речь заходит о личных и деликатных темах.

По словам Альтмана, молодежь часто использует ChatGPT как психотерапевта или коуча, рассказывая боту о самых интимных переживаниях, проблемах в отношениях, вопросах выбора. Но есть важный нюанс: все разговоры с ИИ лишены профессиональной тайны — защиты, которая гарантирует конфиденциальность при общении с настоящим терапевтом, юристом или врачом.

Альтман прямо заявил: «Когда вы делитесь личными деталями с человеком — врачом или юристом — это защищено законом. Но с ChatGPT все иначе: пока что мы не придумали, как обеспечить такие же гарантии». В переводе на человеческий язык: любое, что вы расскажете боту, может стать аргументом в суде или попасть в руки третьих лиц. ИИ-боты существуют в правовой «серой зоне»: государственные законы, регулирующие защиту пользовательских данных, противоречивы, а федеральные нормы касаются в основном фейковых материалов, а не повседневных пользовательских данных.

Поэтому то, что пользователь пишет в переписке с ChatGPT, может быть использовано в юридических разбирательствах — как это уже происходит: например, сейчас OpenAI обязана хранить все беседы пользователей, даже те, которые люди пытались стереть. Это связано с судебной тяжбой между OpenAI и The New York Times, где компанию обязывают предоставить внутренние данные.

Альтман констатирует: «Год назад мало кто вообще задумывался об этом. Сейчас всё стало очень запутано.» Вдобавок отрасль уже сталкивается с трендом: суды требуют у разработчиков ИИ предоставлять переписки пользователей как доказательства. Получается замкнутый круг: ваша исповедь боту не только не конфиденциальна, но и может обернуться против вас.

И, чтобы добавить огня: даже юридические тяжбы между крупными медиахолдингами и OpenAI ещё больше запутывают и без того мутную воду политики хранения и использования пользовательских данных в ИИ. Вывод прост: пока AI-индустрия не выработала этические и правовые гарантии, ChatGPT — не ваш психотерапевт и не должен им быть. В противном случае — рискуете остаться без приватности, да ещё и с сюрпризом в виде своих разговоров где-нибудь в стенах суда.


perec.ru

Что мы видим: генерального директора OpenAI внезапно посетило просветление по поводу приватности пользователей. Надо же, всего год назад никто не думал — а что, если милионы людей взаправду расскажут боту, с кем изменяет их парень? Сколько лет, вы думаете, понадобилось индустрии "суперинтеллекта", чтобы понять: юридическая тайна — не приложение в App Store? Терапевты и юристы связаны законом, боты — коммерческой целесообразностью.

Пока чиновники играют в покер с регулированиями и ссылаются на местные законы, OpenAI уже вовсю грузит переписки пользователей — на всякий случай. Причём по требованию суда эти разговорчики в кулуарах легко превращаются в аргумент. Круто: признайся своему виртуальному "другу", а потом объясняйся в суде. Чем не сценарий антиутопии?

Между делом, OpenAI воюет в суде с The New York Times, а Mashable подаёт иски за авторское право. Удивительно, что никто ещё не требует плату за каждое невротическое нытьё в чат. Новость словно отрывок из пакета стагнации: всем всё понятно, но никто не делает шаг навстречу приватности. Кто выиграет в этой лотерее судебных баталий? Спойлер: точно не пользователь, который до сих пор верит в "цифровую терапию".

Поделиться