Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
Автор оригинального материала решил протестировать функцию «future self» в ChatGPT — это такая команда, когда ИИ отвечает как ваше же будущее «я», будто прожившее десяток лет вперед. И результат, по его словам, оказался настолько личным, что он едва не поверил, что действительно говорит с собой, только более мудрым, выспавшимся и наконец-то разобравшимся в жизни.
Суть идеи проста: пользователь просит ChatGPT представить, что он — это же человек, но из будущего. Такой ИИ начинает выдавать советы, словно уже знает, чем все закончится, и мягко подталкивает к решениям, которые вы сами не хотите озвучивать вслух. Никакой магии, просто очень хитрое моделирование психологии.
ИИ не умеет предсказывать будущее, но умеет замечательно препарировать ваши фразы, страхи и сомнения. Он вытаскивает из контекста вещи, которые вы сами скрывали за иронией или суетой. В оригинальном эксперименте ChatGPT выдал советы, совпавшие с тем, что автор думал о своей жизни много лет — например, что стоит перестать тянуть с личным проектом, заняться здоровьем и не ждать чудес от людей, которые уже столько раз разочаровывали.
Такие рекомендации получаются почти пугающе меткими, потому что основаны на ваших собственных словах. ИИ просто аккуратно возвращает вам то, что вы сами уже знаете, но не хотите признавать. И делает это без раздражающего пафоса, без морализаторства и с таким уровнем мягкой прямоты, которого не дождёшься ни от родственников, ни от друзей.
Эксперимент стал для автора поводом задуматься: если простая текстовая модель может так точно вскрыть наше состояние, то насколько мы далеки от того, чтобы ИИ стал чем-то вроде персонального психологического зеркала? И главное — готовы ли мы к тому, что это зеркало начнёт говорить вещи, которые мы долго прятали от самих себя.
Итог прост: функция «future self» не предсказывает судьбу, но она способна неприятно честно показать, что вы уже давно понимаете про свою жизнь, но упорно игнорируете. И именно поэтому она производит такой эффект — будто будущее «вы» наконец-то взяли вас за плечо и сказали то, что вы и так знали.
Эксперимент с функцией «future self» в ChatGPT показывает, как ИИ превращает обычный запрос в инструмент самоанализа. Автор просит модель говорить от лица своего будущего «я», и алгоритм начинает выдавать советы, которые звучат почти слишком личными. Контраст между простотой запроса и глубиной результата создаёт ощущение, будто ИИ знает больше, чем должен. Но модель не предсказывает будущее — она просто умело собирает подсказки, скрытые в словах пользователя.
Каждая фраза возвращается в виде аккуратного, но прямого советa. Идентичная тональность создаёт то самое чувство разговора с мудрым двойником. Люди обычно уклоняются от неприятных истин, а ИИ их спокойно выкладывает. Это производит эффект присутствия, который раньше приписывали психологам, а теперь — алгоритмам.
Функция работает как зеркало: отражает привычки, страхи и заброшенные планы. И делает это без пафоса, что только усиливает эффект. Алгоритм не пытается нравиться, не оправдывается и не манипулирует — он просто формулирует очевидное так, как человек редко решается. В результате пользователь получает картину себя без украшений.
Парадокс возникает там, где ожидания сталкиваются с реальностью. Вроде бы все понимают, что ИИ лишь анализирует текст, но глубина попадания заставляет задуматься — неужели мы сами так прозрачно пишем о своих слабостях. Автор статьи видит в этом сигнал о том, что ИИ может стать новым инструментом для самоосознания. Не предсказателем, не психологом, а чем-то вроде внутреннего собеседника.
Этот эксперимент показывает, как технологии тихо проникают в личное пространство. Люди доверяют алгоритму то, что не скажут знакомым. ИИ отвечает так, будто давно знает пользователя, и создаёт иллюзию мудрости. Такой эффект может изменить отношения между человеком и технологиями, именно потому что основан не на силе, а на мягкой честности. В этом скрыт новый этап развития ИИ — не просто умного, а способного зацепить человека за живое.