Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
Новое исследование поставило под сомнение популярный подход к общению с системами искусственного интеллекта, когда пользователю предлагают начинать каждый запрос с громких слов о том, что ИИ — «эксперт мирового уровня», «гений программирования» или «лучший из лучших». Учёные обнаружили, что такие комплименты не только не помогают, но и могут ухудшать качество ответов. Исследователи объясняют: модели начинают ориентироваться не на задачу, а на завышенные ожидания, что приводит к сбоям и чрезмерно уверенным, но ошибочным решениям.
Авторы работы сравнили несколько подходов к формулировке запросов. Один из них — модный стиль «подбадривающего промпта», где ИИ заранее приписывают высокий статус. Другой — строгое, точное описание того, что нужно сделать. Оказалось, что второй вариант стабильно давал лучшее качество результатов, особенно в задачах программирования. Вместо размытых лестных слов ИИ нужен ясный контекст задачи и чёткие параметры того, что от него требуется.
В экспериментах исследователи проверяли реакцию моделей на одинаковые задачи, но с разными формулировками. Когда ИИ представляли как «ведущего инженера-программиста», он чаще генерировал код с ошибками. Когда же запрос ограничивался конкретным требованием — например, «написать функцию на определённом языке, учитывая конкретные входные данные», — результаты были заметно точнее.
Учёные говорят, что важно уберечь пользователей от иллюзии: искусственный интеллект не становится умнее от слов похвалы. Он обучен на огромных объёмах данных и реагирует на структуру запроса, а не на попытки повысить его самооценку. Чем точнее пользователь формулирует задачу, тем выше вероятность получить корректный ответ.
Исследователи подчеркивают, что чрезмерное использование «экспертных» формулировок может создавать ложное ощущение уверенности у моделей. Это проявляется в излишне смелых формулировках и попытках выдавать ошибки за правильные ответы. Поэтому лучший способ общения — ясность, лаконичность и чёткое указание параметров задачи. Комплименты же стоит оставить для людей — им они хотя бы действительно полезны.
Исследование описывает забавный эффект: если пользователь начинает запрос с пафосных похвал ИИ, модель начинает заметно хромать. Учёные проверили разные стили запросов и увидели, что комплименты сбивают алгоритмы, а конкретика, наоборот, помогает. Возникает контраст между тем, как люди хотят казаться вежливыми, и тем, что машина просто теряет фокус. Исследователи демонстрируют это на примере программирования: возвышенные титулы заставляют ИИ генерировать более уверенные, но ошибочные решения. Ясные задачи оказываются полезнее, чем любые «вы великий эксперт». Такое открытие выглядит логичным, если вспомнить, что нейросеть обучена распознавать паттерны текста, а не эмоции. И чем больше шума и ожиданий в запросе, тем сильнее она уходит от смысла. Эта работа словно тихий намёк на то, что индустрия любит обещания, но реальность упирается в технические ограничения. Парадоксально: машины не нуждаются в уважении, а люди продолжают им его демонстрировать. Исследование предлагает снять этот слой театральности и просто объяснить задачу. В итоге оказывается, что точность — продукт простоты, а не лести.