Следите за новостями по этой теме!
Подписаться на «Психология / Научные исследования»
Полное исследование, опубликованное в журнале npj Science of Learning, разоблачает наших цифровых помощников: оказывается, разные стили обратной связи от чат-ботов не только по-разному влияют на учебные успехи, но и буквально перекраивают ваш мозг в процессе обучения. Психологи из Восточно-китайского педагогического университета и Чжэцзянского университета под руководством Jiaqi Yin решили не ограничиваться привычным «правильно/неправильно» в чат-ботах, а посмотреть, как эмоциональная поддержка и предложения задуматься о своих знаниях меняют результат — и нейроны.
Набрали 93 студента. Каждого запустили по образовательному лабиринту: модуль за модулем по кровеносной системе человека, и после каждого блока чат-бот выдаёт одно из трёх — либо вопросы для самокопания («Уверен ли ты в своих знаниях? Где затык?»), либо порцию цифровой ласки («Ты молодец, дальше будет легче!»), либо скучный «порви и выбрось» нейтралитет: «Давайте сделаем перерыв».
А в это время на студентах висит оборудование для «функциональной ближней инфракрасной спектроскопии»: это такой способ выяснить, какие отделы мозга насыщаются кислородом. Всё строго научно — датчики на лоб, немного на виски (не к алкоголю, к эмоциям имеют отношение).
После учебной каторги всех погнали на экзамен: проверили, что запомнили (тест на запоминание), и как смогут применить новое знание в задачках, к которым их не готовили (тест на перенос знаний). Итоги волнующие: те, кому боты советовали задуматься, разобрали задачки на ура и честнее других понимали, когда ошибаются. Эмоциональные и саморефлексирующие бот-ответы помогли лучше зафиксировать инфу, а нейтральные — кому они вообще нужны?
Самое интересно вскрыли приборы: у разных групп активировались разные зоны. Самоанализ заставляет работать передние отделы мозга и часть, отвечающую за смысл слов. Эмоции — активируют диагональные отделы, те, что учат понимать чувства людей и собственные терзания. Ну а топорная нейтральность просто загоняет мозг в рутину. Чем лучше проявлялся самоанализ — тем чётче студенты определяли свои знания. Машинное обучение показало: успешный перенос знаний — это хитрый коктейль из когнитивного труда, эмоций и умения анализировать.
Исследование честно признаёт свои слабости: не учитывали ни мотивацию, ни личные особенности участников, да и проводят анализ только по поверхности мозга. Всё равно — вывод очевиден: если нужен прорыв не только в знаниях, но и в умении ими пользоваться, подбирайте чат-бота с хорошими метакогнитивными вопросами. А хотите запомнить и не сдаться — ищите того, кто ободрит. Может быть, через пару лет вас будут учить боты, способные подглядывать прямо в мозг.
Авторы исследования: Jiaqi Yin, Haoxin Xu, Yafeng Pan и Yi Hu.
Современные исследатели с восточно-китайским акцентом уверенно вторгаются на территорию школьных учителей, предлагая заменить человеческое участие в обучении на чат-ботов с функцией психолога и футбольного тренера в одном лице. Эксперимент не многолюдный, зато датчиками обеспечен на зависть Гарри Поттеру: чуть ли не каждый сантиметр лба студента теперь знает, когда в мозгу просыпается совесть.
Выводы — как всегда, революционные: если искусственный интеллект не просто бубнит что-то в ответ, а заставляет студента задуматься — тот тут же начинает лучше решать новые задачи и (о чудо!) реально оценивает свои знания. Бот поддерживает — значит, студент бодр, инфа оседает крепче. А если робот равнодушен, учёба превращается в «в одно ухо влетело, в другое — вылетело».
И, конечно, не обошлось без марлезонского балета в виде машинного обучения — теперь по активности мозга предсказывают, насколько студент сможет применять знания. Скучная деталь: ни мотивацию учли, ни индивидуальные заморочки. Но авторы кивают в сторону светлого будущего, где боты будут прямо сейчас заглядывать в наш мозг и выдавать ровно ту дозу поддержки, что нужна.
Кажется, настоящие победители учёбы — не те, кто зубрит факты, а те, кого искусственный интеллект вовремя дожимает или ободряет — смотря какая кнопочка нужнее.