Почему ChatGPT не ваш психотерапевт: Сам Альтман о рисках приватности

Следите за новостями по этой теме!

Подписаться на «Рифы и пачки / Твоя культура»
28.07.2025, 13:01:08ИТОбщество
Почему ChatGPT не ваш психотерапевт: Сам Альтман о рисках приватности

Многие начинают использовать искусственный интеллект, вроде ChatGPT, не только для составления писем или поиска информации, но и как личного психолога. Казалось бы, удобно: задал вопрос — получил совет. Но генеральный директор OpenAI Сам Альтман признал — конфиденциальность тут под вопросом.

В подкасте «This Past Weekend» Альтман прямо сказал: между разговором с реальным психотерапевтом и общением с ИИ есть большая разница. Если говорить с врачом, юристом или даже нотариусом, есть специальные законы о тайне общения: врачебная тайна, адвокатская тайна. Никакая беседа не уйдёт дальше кабинета — иначе скандал. А вот для диалога с ChatGPT никаких правовых гарантий нет.

Альтман уточнил: если вдруг OpenAI столкнётся с судебным разбирательством, её могут обязать раскрыть содержание ваших бесед, и закон обяжет их это сделать. Нет никакой гарантии, что ваши тревоги не окажутся на всеобщем обозрении. Много пользователей, особенно молодёжь, уже используют поводыря OpenAI в режиме виртуального психотерапевта, отчего у главы компании, кажется, волосы встали дыбом.

Однако это не единственная проблема приватности. В отличие от живого специалиста, ваши разговоры с ChatGPT отправляются в «чёрный ящик» алгоритма. Туда помещается всё: страхи, сомнения, сожаления. Данные там могут использоваться для обучения — и кто знает, не «всплывут» ли они позже в чужой консультации, когда новый пользователь задаст похожий вопрос.

Именно поэтому крупные компании предпочитают сделать «замкнутые» версии чат-ботов — чтобы снизить утечку личного. А распиаренный Lumo от Proton и вовсе шифрует каждое слово: никто, кроме пользователя, в его душу не заглянет.

Наконец, остаётся главный вопрос: может ли искусственный интеллект вообще стать терапевтом? С одной стороны — давай попробуем: что-то советует, выслушивает. С другой, ChatGPT не мыслит самостоятельно, а только повторяет фрагменты того, на чём был натренирован. Оригинального взгляда там не будет.

Открывать душу OpenAI или нет — каждый решает сам. Но ясно одно: вокруг разговоров с ИИ всё ещё поляна мин и ловушек. Пока в этой области не введут строгие правила и прозрачные механизмы, виртуальный «психотерапевт» — игра с огнём для приватности.


perec.ru

А как же без очередного парадокса: люди бегут к ChatGPT за советом, как к врачу или другу. Альтман аккуратно напоминает — тут не больница, а общественная приёмная с дверью нараспашку. Легальные гарантии? Ну разве что у нотариуса — а в чатботах нет и намёка. По сути, вся цифровая откровенность пользователя может обернуться против него — через суд или сбой в алгоритме. Лирика про «безопасную среду» быстро рушится, когда выясняется, что ваши душевные раны уходят на обучение всему миру, ведь ваши «тайные» разговоры — лишь очередной строительный материал для алчного алгоритма. На этом фоне попытки подключить дополнительное шифрование, как у Proton, смотрятся неплохо, но тут вопрос: стоит ли вообще делиться болью с машиной, которая может только попугаить чужие советы? Люди как всегда делают ставку на чёрный ящик и надеются, что он не подведёт. А на выходе — нежданчик. Так что в битве человечества со здравым смыслом счёт по-прежнему не в нашу пользу.

Поделиться