Следите за новостями по этой теме!
Подписаться на «Психология / Научные исследования»
Новое исследование утверждает: привычка перекладывать учебные усилия на искусственный интеллект превращает ChatGPT в своеобразную «когнитивную костыль», который ускоряет обучение, но ослабляет долговременную память. Работа опубликована в журнале Social Sciences & Humanities Open.
Генеративный искусственный интеллект — это программы, создающие текст, изображения и другие материалы по запросу. Он умеет отвечать на сложные вопросы, анализировать большие массивы данных и писать тексты за секунды. Неудивительно, что миллионы студентов используют такие системы для учебы.
Профессор Федерального университета Рио-де-Жанейро Андре Баркауи решил выяснить, что происходит с памятью студентов, когда часть умственной работы они доверяют чат-боту. В психологии это называется «когнитивной разгрузкой» — когда человек передает некоторую часть мыслительных задач внешнему инструменту. Раньше это была калькулятор или блокнот, теперь — полноценный ИИ, который анализирует и думает за пользователя.
Баркауи заметил: интерес студентов к чтению и самостоятельному мышлению падает с каждым годом. Снижается и креативность, и критическое мышление, и способность писать связные тексты. Та же проблема есть и в других странах, по словам коллег исследователя.
Он опирался на концепцию «желательных трудностей». Она предполагает, что обучение происходит лучше, когда студент сталкивается с определенным уровнем интеллектуального усилия. Попытка самостоятельно вспомнить факт или разобраться в сложной теме укрепляет нейронные связи. Чат-бот же, наоборот, предлагает быстрый ответ и снимает необходимость думать.
Чтобы проверить гипотезу, Баркауи привлек 120 студентов-бизнесменов в возрасте 18–24 лет. Половина использовала ChatGPT при подготовке к 10-минутной презентации на тему основ ИИ — этика, влияние на общество, технические принципы. Другая половина работала «по старинке»: конспекты, статьи, обычные поисковики.
Спустя 45 дней студенты прошли внезапный тест на понимание материала. Вернулись 85 участников. Те, кто учился традиционно, в среднем правильно ответили на 68,5% вопросов. Пользователи ChatGPT — лишь на 57,5%.
Разрыв особенно велик в технических темах. ИИ также ухудшал запоминание и по «мягким» направлениям вроде этики, но эффект был слабее. При этом ученики с чат-ботом тратили меньше времени: 3,2 часа против 5,8 у традиционной группы.
Даже с учетом разницы по времени традиционные учащиеся показали лучший результат. Важно не количество часов, а их качество: самостоятельные попытки интерпретировать текст, сопоставлять идеи и проверять себя укрепляют память. Использование же чат-бота дает ощущение продуктивности, но не нагружает мозг.
Предыдущий опыт с ИИ не влиял на результат: частые пользователи ChatGPT провалились так же, как и новички. Это подтверждает эффект ложной компетентности — когда кажется, что понимаешь тему лучше, чем есть.
Баркауи выделил три вывода:
– Производительность ≠ Компетентность. ИИ дает быстрый результат, но не развивает мышление.
– Атрофия критического мышления. Как калькулятор ослабил устный счет, так ИИ ослабляет навыки анализа и письма.
– ИИ — помощник, а не автопилот. Он должен расширять возможности человека, а не заменять усилия.
Ограничения исследования: почти треть участников не вернулась на финальный тест, а выборка ограничена одной бразильской университетской программой. В других дисциплинах эффект может быть иным.
Будущие работы могут исследовать, помогает ли схема «сначала попытка, потом чат-бот» или анализ цифровых следов студентов позволяет точнее оценить поведение при обучении.
Исследование Баркауи показывает ещё одну главу в бесконечной истории о том, как технологии под видом помощников тихо делают людей менее внимательными к собственной голове. Студенты, вооружённые ChatGPT, уверенно шагают к презентациям, будто им открыли секреты вселенной. Потом проходит полтора месяца — и выясняется, что секреты забыл не ИИ, а студент.
Группа, которая «училась по старинке», выглядела как пережиток прошлого — почти вдвое больше времени, море самостоятельных попыток, поиск, ошибки. А потом тест. И внезапно именно они оказываются в выигрыше. Случайность или странное совпадение? Вполне ожидаемо: мозгу, как ни странно, нравится работать, а не смотреть, как работает кто-то другой.
Технарям хуже всего. Там, где нужно продираться через сложность, ChatGPT любезно стелет красную дорожку, по которой удобно идти, пока не выясняется, что память осталась на старте. Мягкие темы вроде этики забываются тоже, но чуть медленнее — видимо, мозг хотя бы видел слова, которые ему знакомы.
Самое пикантное — опыт использования ИИ ничего не меняет. Хочешь спрашивать бота каждый день — пожалуйста. Вот только эффект остаётся одинаковый: иллюзия компетентности. Такие иллюзии особенно приятны и особенно бесполезны.
Баркауи пытается говорить о критическом мышлении, трудностях и мозговой работе. Звучит почти романтично — в мире, где даже калькуляторы стали слишком сложными для школьников. Но формулировка про то, что ИИ должен быть штурманом, а не автопилотом, смотрится будто из методички по «осознанному потреблению технологий».
Ограничения исследования, конечно, есть — треть студентов куда‑то исчезла, дисциплина одна, страна одна. Но тенденция слишком узнаваемая, чтобы не принять её всерьёз. Технологии двигаются вперёд, а навыки — назад. И где‑то на этом пути ChatGPT, сам того не желая, стал отличным способом забывать то, что ещё вчера казалось понятным.