ChatGPT теперь может помнить о вас больше, чем когда-либо – стоит ли вам беспокоиться?
Когда-то память ChatGPT была простой: вы говорили ей, что запомнить, и она слушала.
С 2024 года ChatGPT имеет функцию памяти, позволяющую пользователям сохранять полезный контекст: от вашего стиля общения и письма до ваших целей, интересов и текущих проектов. Вы могли зайти в настройки, чтобы просмотреть, обновить или удалить эти воспоминания. Иногда она сама фиксировала что-то важное. Но, в целом, она запоминала только то, что вы ей говорили. Теперь это меняется.
OpenAI, компания, стоящая за ChatGPT, запускает серьезное обновление своей памяти. Теперь, помимо фактов, которые вы вручную сохранили, ChatGPT будет использовать всю историю ваших прошлых разговоров для формирования будущих ответов самостоятельно.
По словам OpenAI, память теперь работает двумя способами: "сохраненные воспоминания", добавленные пользователем, и данные из "истории чатов", которые ChatGPT будет собирать автоматически.
Эта функция, называемая долгосрочной или постоянной памятью, сейчас внедряется для пользователей ChatGPT Plus и Pro. Однако на момент написания она недоступна в Великобритании, ЕС, Исландии, Лихтенштейне, Норвегии или Швейцарии из-за региональных регуляций.
Идея здесь проста: чем больше ChatGPT помнит, тем более полезной она становится. Это большой шаг к персонализации. Но это также хороший момент, чтобы остановиться и спросить, что мы можем потерять в обмен.
Легко увидеть привлекательность этой идеи. Более персонализированный опыт с ChatGPT означает, что вам нужно меньше объяснять о себе и получать более актуальные ответы. Это удобно, эффективно и знакомо.
"Персонализация всегда была связана с памятью", говорит Рохан Сарин, менеджер продукта в компании Speechmatics, занимающейся технологиями распознавания речи на базе ИИ. "Зная кого-то дольше, вы больше не должны объяснять им все".
Он приводит пример: попросите ChatGPT порекомендовать пиццерию, и она может мягко направить вас к чему-то более соответствующему вашим фитнес-целям – это тонкое подталкивание, основанное на том, что она знает о вас. Это не просто следование инструкциям; это умение читать между строк.
"Так мы и сближаемся с кем-то", говорит Сарин. "И так мы начинаем доверять им". Эта эмоциональная связь и делает эти инструменты такими полезными – возможно, даже утешительными. Но она также поднимает риск эмоциональной зависимости. А ведь это, по сути, и есть цель.
"С точки зрения продукта хранение всегда касалось привязанности", говорит Сарин. "Это держит пользователей вернувшимися. С каждым взаимодействием стоимость переключения увеличивается".
OpenAI не скрывает этого. Генеральный директор компании, Сэм Альтман, написал в Твиттере, что память позволяет "AI-системам узнавать вас на протяжении вашей жизни и становиться крайне полезными и персонализированными".
Эта полезность очевидна. Но очевиден и риск зависимости от них не только в помощи, но и в том, чтобы знать о нас.
Сложностью с долгосрочной памятью в ИИ является ее неспособность понимать контекст так, как это делают люди.
Мы инстинктивно разделяем, что является личным, а что профессиональным, что важно, а что мимолетно. ChatGPT может испытывать трудности с таким переключением контекста.
Сарин отмечает, что поскольку люди используют ChatGPT для стольких разных вещей, эти границы могут размываться. "В реальной жизни мы полагаемся на невербальные сигналы, чтобы расставить приоритеты. У ИИ нет этого. Поэтому память без контекста может вызывать неприятные триггеры".
Он приводит пример: если ChatGPT будет упоминать магию и фантазию в каждой истории или креативном предложении, просто потому что вы однажды сказали, что вам нравится Гарри Поттер. Будет ли она обращаться к прошлым воспоминаниям, даже если они уже неактуальны? "Способность забывать – это часть нашего роста", говорит он. "Если ИИ лишь отражает то, кем мы были, это может ограничить то, кем мы можем стать".
Без способа оценить, модель может выдавать вещи, которые кажутся случайными, устаревшими или даже неподходящими для момента.
Постоянная память может быть крайне полезна для работы. Джулиан Уиффен, директор по ИИ и анализу данных в Matillion, платформе интеграции данных с встраиванием ИИ, видит сильные случаи использования: "Она может улучшить непрерывность долгосрочных проектов, сократить повторяющиеся запросы и предложить более персонализированный опыт ассистента", говорит он.
Но он также насторожен. "На практике существуют серьезные нюансы, которые пользователи, и особенно компании, должны учитывать". Его главные беспокойства касаются конфиденциальности, контроля и безопасности данных.
"Я часто экспериментирую или размышляю вслух в подсказках. Я не хотел бы, чтобы это сохранялось – или, что хуже, снова появлялось в другом контексте", говорит Уиффен. Он также отмечает риски в технических средах, где фрагменты кода или конфиденциальные данные могут перемещаться между проектами, что поднимает вопросы о интеллектуальной собственности или соблюдении нормативов. "Эти проблемы обостряются в регулируемых отраслях или при совместной работе".
OpenAI подчеркивает, что пользователи все равно могут управлять памятью: удалять индивидуальные воспоминания, которые больше не актуальны, полностью отключать ее или использовать новую кнопку "Временный чат". Она теперь появляется в верхней части экрана чата для разговоров, которые не основаны на прошлых воспоминаниях и не будут использоваться для построения новых.
Тем не менее, Уиффен говорит, что этого может быть недостаточно. "Меня беспокоит отсутствие тонкого контроля и прозрачности", говорит он. "Часто неясно, что модель запоминает, как долго хранит информацию и можно ли ее по-настоящему забыть".
Он также обеспокоен соответствием законам о защите данных, таким как GDPR: "Даже хорошо задуманные функции памяти могут случайно сохранить конфиденциальные личные данные или внутреннюю информацию из проектов. А с точки зрения безопасности, постоянная память расширяет поверхность атаки". Возможно, именно поэтому обновление еще не внедрено глобально.
Каков выход? "Нам нужны более четкие рамки, более прозрачные индикаторы памяти и возможность полностью контролировать, что запоминается, а что нет", объясняет Уиффен.
Другие инструменты ИИ применяют разные подходы к памяти. Например, ИИ-ассистент Claude не сохраняет постоянную память вне вашего текущего разговора. Это значит меньше возможностей для персонализации, но больше контроля и конфиденциальности.
Perplexity, поисковая система ИИ, вовсе не акцентирует внимание на памяти – она получает информацию с веб-сайтов в реальном времени. Тогда как Replika, ИИ, созданный для эмоционального партнерства, делает наоборот, сохраняя долгосрочный эмоциональный контекст для углубления отношений с пользователями.
Таким образом, каждая система обрабатывает память по-разному в зависимости от своих целей. И чем больше они о нас знают, тем лучше выполняют эти цели – будь то помощь в написании, связи, поиске или понимании.
Вопрос не в том, полезна ли память; я думаю, что это очевидно. Вопрос в том, хотим ли мы, чтобы ИИ стал таким хорошим в выполнении этих ролей.
Легко сказать да, поскольку эти инструменты призваны быть полезными, эффективными, даже незаменимыми. Но эта полезность не нейтральна; она намеренная. Эти системы создаются компаниями, которые выигрывают, когда мы больше полагаемся на них.
Вы бы не стали добровольно отказывать себе во втором мозге, который помнит о вас все, возможно, лучше, чем вы сами. И именно на это рассчитывают компании, создавшие ваши любимые инструменты ИИ.
Ох, как мило, OpenAI решила порадовать нас ещё одной "персонализированной" фишкой, которая, похоже, уместилась вся в ограниченном поле ваших личных данных. Теперь их искусственный интеллект будет помнить о вас долгосрочно, как ваша бабушка — о всех ваших духовных метаниях и неудачных романах. Разумеется, это сделано только ради вашего удобства и эффективности – вы же не так думаете, правда?
Запускающие инновации насчет памяти, они утверждают, что чем больше информации AI хранит о вас, тем полезнее он становится. Неужели?, — подумали мудрые лоббисты — а ведь в этом есть свой интерес!. Более персонализированный опыт, поихося к пиццерии — с учетом ваших фитнес-целей, не станете ли вы дегенератом, который просто хочет поесть пиццу?
И вот тут начинается самое интересное — возможность "забывать". Оказывается, это качество, которое делает нас людьми, здесь может сработать во вред. Если ChatGPT будет напоминать вам о ваших юношестве, когда вы впервые прочли "Гарри Поттера", будет ли это полезно, когда вы пытаетесь поднять заявки на работу? Будет странно, если ваш искусственный друг начнет тянуть за собой кучу мертвых дел, словно зомби, который хочет изучить вашу жизнь.
Стоит напомнить, что OpenAI не скрывает своих намерений. Генеральный директор в своих твитах делится восторгом от "вашей жизни под контролем AI". Но не волнуйтесь — это поможет ИИ "узнать вас'" до последнего угощения.
А что касается конфиденциальности, то тут мы сталкиваемся с речевыми барьерами, как в тупиковом переулке. Не хочете, чтобы информация собиралась? У вас есть возможность её удалить – но кто может гарантировать, что ничего не осталось, как следы на песке после прилива? Ваши эксперименты и размышления могут оказаться в утечке, и спросите себя: насколько это важно?
На горизонте виднеются другие системы ИИ, держащиеся вдали от памяти, как от проклятия или ответственности. Одинокий Claude хранит только текущий разговор, будучи вместо этого не слишком рьяным "партнером". Хотя завоевать доверие намного проще, чем убирать последствия.
В конце концов, вопрос стоит не в том, нуждается ли в памяти искусственный интеллект. Вы понимаете, что это вопрос выборов, о которых заглядывают в ваш ум? Компании рассчитывают на ваше нежелание работать в одиночку, и вы рискуете стать зависимым от своего второго мозга. Долго ли мы пробудем в этой зависимости, пока нас не накроет? Может, хорошее старое "поэтому" здесь неуместно?