Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»Многие начинают использовать искусственный интеллект, вроде ChatGPT, не только для составления писем или поиска информации, но и как личного психолога. Казалось бы, удобно: задал вопрос — получил совет. Но генеральный директор OpenAI Сам Альтман признал — конфиденциальность тут под вопросом.
В подкасте «This Past Weekend» Альтман прямо сказал: между разговором с реальным психотерапевтом и общением с ИИ есть большая разница. Если говорить с врачом, юристом или даже нотариусом, есть специальные законы о тайне общения: врачебная тайна, адвокатская тайна. Никакая беседа не уйдёт дальше кабинета — иначе скандал. А вот для диалога с ChatGPT никаких правовых гарантий нет.
Альтман уточнил: если вдруг OpenAI столкнётся с судебным разбирательством, её могут обязать раскрыть содержание ваших бесед, и закон обяжет их это сделать. Нет никакой гарантии, что ваши тревоги не окажутся на всеобщем обозрении. Много пользователей, особенно молодёжь, уже используют поводыря OpenAI в режиме виртуального психотерапевта, отчего у главы компании, кажется, волосы встали дыбом.
Однако это не единственная проблема приватности. В отличие от живого специалиста, ваши разговоры с ChatGPT отправляются в «чёрный ящик» алгоритма. Туда помещается всё: страхи, сомнения, сожаления. Данные там могут использоваться для обучения — и кто знает, не «всплывут» ли они позже в чужой консультации, когда новый пользователь задаст похожий вопрос.
Именно поэтому крупные компании предпочитают сделать «замкнутые» версии чат-ботов — чтобы снизить утечку личного. А распиаренный Lumo от Proton и вовсе шифрует каждое слово: никто, кроме пользователя, в его душу не заглянет.
Наконец, остаётся главный вопрос: может ли искусственный интеллект вообще стать терапевтом? С одной стороны — давай попробуем: что-то советует, выслушивает. С другой, ChatGPT не мыслит самостоятельно, а только повторяет фрагменты того, на чём был натренирован. Оригинального взгляда там не будет.
Открывать душу OpenAI или нет — каждый решает сам. Но ясно одно: вокруг разговоров с ИИ всё ещё поляна мин и ловушек. Пока в этой области не введут строгие правила и прозрачные механизмы, виртуальный «психотерапевт» — игра с огнём для приватности.
А как же без очередного парадокса: люди бегут к ChatGPT за советом, как к врачу или другу. Альтман аккуратно напоминает — тут не больница, а общественная приёмная с дверью нараспашку. Легальные гарантии? Ну разве что у нотариуса — а в чатботах нет и намёка. По сути, вся цифровая откровенность пользователя может обернуться против него — через суд или сбой в алгоритме. Лирика про «безопасную среду» быстро рушится, когда выясняется, что ваши душевные раны уходят на обучение всему миру, ведь ваши «тайные» разговоры — лишь очередной строительный материал для алчного алгоритма. На этом фоне попытки подключить дополнительное шифрование, как у Proton, смотрятся неплохо, но тут вопрос: стоит ли вообще делиться болью с машиной, которая может только попугаить чужие советы? Люди как всегда делают ставку на чёрный ящик и надеются, что он не подведёт. А на выходе — нежданчик. Так что в битве человечества со здравым смыслом счёт по-прежнему не в нашу пользу.