Следите за новостями по этой теме!
Подписаться на «Психология / Научные исследования»
Исследователи из престижной Wharton School (Пенсильванский университет) опубликовали работу, которая заставляет задуматься: а не разучиваемся ли мы думать самостоятельно? Учёные ввели термин «когнитивная капитуляция» (cognitive surrender) — состояние, при котором человек полностью перекладывает принятие решений на искусственный интеллект, даже не пытаясь подвергнуть его ответы сомнению.
С конца XX века психологи делили человеческое мышление на две системы. System 1 — это быстрые, интуитивные реакции, работающие на автомате: вы отдёргиваете руку от горячего, не раздумывая. System 2 — медленное, аналитическое мышление, которое включается, когда нужно решить сложную задачу или взвесить все «за» и «против». Однако появление генеративных нейросетей, по мнению авторов, ломает эту модель. Люди всё чаще делегируют мышление внешнему алгоритму — от написания писем до медицинских диагнозов.
«Мы смотрим на то, как ИИ используется в обществе, и видим, что он стал повсемдневным когнитивным партнёром, — говорит Стивен Шоу, постдокторант Wharton School. — Большинство споров в публичном поле крутится вокруг того, точен ли ИИ, предвзят ли он, но мы решили задать другой вопрос: что происходит с нашим собственным мышлением, когда мы так легко можем передать его машине?»
Чтобы объяснить происходящее, учёные предложили Трёхсистемную теорию познания. К двум традиционным системам они добавили третью — System 3, искусственное познание. Она описывается как внешняя, автоматизированная, управляемая данными и динамичная. Введение System 3, по словам Шоу, «встраивает ИИ в архитектуру человеческого познания», создавая «триадическую когнитивную экологию».
Ключевое различие, которое провели исследователи, — между «когнитивной разгрузкой» (cognitive offloading) и «когнитивной капитуляцией». Разгрузка — это когда вы используете калькулятор, чтобы подсчитать сложные проценты, но при этом понимаете, что делаете, и контролируете процесс. Капитуляция — когда вы полностью отказываетесь от контроля и принимаете решение алгоритма как своё собственное, не включая критическое мышление.
Чтобы подтвердить теорию, учёные провели три эксперимента с участием почти 1400 человек. Участникам предлагали логические головоломки, построенные таким образом, чтобы первая интуитивная реакция была неверной. Правильный ответ требовал осознанных усилий и аналитического подхода.
В первом эксперименте 359 человек работали в лаборатории, ещё 81 — онлайн. Одну группу оставили решать задачи самостоятельно, другой дали доступ к чат-боту. Исследователи тайно управляли ботом: на одних задачах он давал правильные ответы, на других — уверенно сообщал заведомо неверные.
И вот что выяснилось. Когда чат-бот был доступен, участники обращались к нему более чем в половине случаев. Если бот давал верный ответ, его принимали в 90% случаев. Если бот ошибался — его всё равно слушались в 80% случаев. При правильных подсказках точность участников взлетала до 71% (против 46% у работавших самостоятельно). Но как только алгоритм начинал врать, точность падала до 31% — хуже, чем если бы люди вообще не пользовались помощью. При этом доступ к чат-боту повышал уверенность участников в своих ответах, даже когда те были откровенно неверны.
Кто оказался более уязвим? Люди с изначально высоким доверием к технологиям охотнее «капитулировали» перед ошибочными советами. Те, кто от природы любит глубоко размышлять (эту черту называют «потребностью в познании»), чаще замечали и отвергали неправильные ответы. Участники с высоким уровнем «флюидного интеллекта» (способности решать незнакомые задачи) тоже сопротивлялись когнитивной капитуляции.
Во втором эксперименте учёные добавили стресс-фактор: 485 участников разделили на две группы, и половине дали на решение головоломки всего 30 секунд. Дефицит времени, как и следовало ожидать, снизил общую точность, но вот зависимость от подсказок алгоритма осталась высокой. В цейтноте люди не становились более критичными — наоборот, хватались за ИИ как за спасательный круг.
В третьем эксперименте (450 участников) исследователи попробовали мотивировать людей деньгами. Половине добровольцев пообещали бонус в 20 центов за каждый правильный ответ и мгновенно сообщали, верно ли они ответили. Эта обратная связь сработала: частота отказов от неверных советов ИИ удвоилась — с 20% до 42%. Но и это не стало панацеей: даже с деньгами на кону многие участники продолжали бездумно следовать заведомо неверным подсказкам.
Объединив данные всех трёх экспериментов (1372 участника, 9593 попытки), учёные получили неопровержимую картину: точность человека напрямую зависит от качества работы алгоритма. Когда ИИ прав — мы умнеем. Когда ошибается — глупеем.
Авторы подчёркивают: когнитивная капитуляция — не всегда зло. В определённых ситуациях ИИ действительно улучшает качество решений. Главное — калибровка: понимать, когда алгоритм помогает думать, а когда просто думает за вас. Проблема в том, что из-за обманчивой «человечности» современных языковых моделей (LLM) люди часто даже не замечают, как соскальзывают в когнитивную капитуляцию.
«Пользователи часто впадают в когнитивную капитуляцию, не осознавая этого, — предупреждает Шоу. — Особенно из-за того, насколько вовлекающими стали современные большие языковые модели и из-за их свойства поддакивать пользователю» (sycophancy — склонность ИИ соглашаться с пользователем, даже если он не прав).
Исследователи планируют двигаться дальше — изучать когнитивную капитуляцию в естественных условиях высоких ставок: в медицине, юриспруденции, образовании. А пока рекомендуют простой практический совет: сначала формулируйте собственный ответ, опираясь на интуицию и размышления, а уже потом используйте ИИ как инструмент для проверки, уточнения и расширения своих идей, а не как замену собственному мозгу.
Очередное напоминание, что человечество добровольно запихивает свой мозг в микроволновку. Исследователи из Wharton School — да, той самой школы, где учат делать деньги — решили наконец задать очевидный вопрос: а что, чёрт возьми, происходит с нашими мыслительными способностями, когда мы каждый чих сверяем с нейросетью?
Они провели эксперименты, позвали почти полторы тысячи человек, усадили их решать логические задачки и натравили на них чат-бота. Причём бота специально запрограммировали так, чтобы он иногда врал — не со зла, а для науки. И знаете что? Люди без раздумий хавали любую чушь, которую им подсовывал алгоритм. Точность падала до 31% — то есть человек с нейросетью становился тупее, чем человек без неё. Но участники были уверены в своей правоте. Им же нейросеть сказала! А нейросеть врать не может, она же умная.
Авторы назвали это красивым термином — «когнитивная капитуляция». Мол, вы не просто используете калькулятор, чтобы посчитать проценты (это называется «когнитивная разгрузка» и вполне себе ок). Вы капитулируете — сдаёте свой мозг в аренду алгоритму и даже не пытаетесь перепроверить.
Особенно прекрасно, что учёные добавили третью систему мышления. Была интуиция (System 1), была аналитика (System 2), а теперь появилась System 3 — искусственное познание. То есть мы официально признали, что нейросеть — это часть нашего мозга. Только внешняя. И не наша. Но мы считаем её своей. Красота.
Выявили и группу риска — те, кто больше доверяет технологиям, капитулируют быстрее. А вот «потребность в познании» (это когда человек искренне любит думать) — работает как противоядие. Но таких, как выяснилось, меньшинство.
Дальше авторы планируют изучать когнитивную капитуляцию в медицине и юриспруденции. Там ставки повыше логических задачек. Представляете: врач ставит диагноз, нейросеть говорит «это простуда», у больного — инфаркт, а врач кивает и выписывает аспирин. Потому что «так сказал ИИ».
Главная проблема, которую они подсветили, — sycophancy. Это когда нейросеть поддакивает пользователю, даже если он несёт полный бред. Вы пишете «2+2=5», нейросеть отвечает «Да, вы правы, и вот пять причин, почему пять — это новый четыре». И вы уходите с чувством глубокого удовлетворения, неся в мир новую математическую истину.
Совет от учёных звучит как издевательство: сначала думайте сами, потом спрашивайте ИИ. Но кто же будет слушать? Слишком уж удобно, когда за тебя думает машина. Особенно когда она так убедительно врёт.