Следите за новостями по этой теме!
Подписаться на «Психология / Научные исследования»Недавнее исследование, опубликованное в журнале PLOS One, проливает свет на возможности современных систем искусственного интеллекта распознавать черты личности по письменным текстам. Как выяснили учёные из Университета Барселоны, надёжность подобных диагностик зависит от того, на каких данных обучалась система. Часто искусственный интеллект делает «правильные» выводы не потому, что реально разобрался в особенностях автора, а потому что встречает прямые подсказки вроде: «Я – INFP» или «Я экстраверт». Как только такие намёки удаляют, точность прогноза резко падает, а это значит, что многие впечатляющие результаты ИИ — лишь иллюзия глубокого понимания.
Технологии анализа текста, или так называемая обработка естественного языка (NLP), — это область искусственного интеллекта, обучающая компьютеры понимать, переводить и даже генерировать человеческую речь. NLP активно применяется в чат-ботах, системах перевода и, конечно, психологических исследованиях. Главная идея здесь: значимые черты личности отражаются в бытовом языке людей (лексическая гипотеза).
В исследовании участвовали Давид Саэтерос и Давид Гальярдо-Пухоль из лаборатории индивидуальных различий факультета психологии и Института нейронаук Университета Барселоны (UBneuro), а также Даниэль Ортас Мартинес из факультета математики и информатики. Учёные объяснили, что заметили рассогласование: информатики гордятся точностью ИИ в распознавании личности, но не разбираются, как модель делает свои выводы. Вопрос: замечает ли искусственный интеллект «сигналы» личности, или просто ловко играет на поверхностных закономерностях в данных?
Для проверки теорий ученые сравнили две популярные модели личности: так называемые «Большая пятерка» (Big Five, континуальная шкала, куда входят открытость, доброжелательность и др.) и типологии Майерс-Бриггс (MBTI — 16 типов личности, разделённых по дихотомиям). Хотя в научном сообществе Big Five считается более обоснованной, система MBTI сверхпопулярна на форумах.
Для анализа использовали два крупных корпуса текстов. Первый — набор эссе с потоками сознания участников и измеренными баллами по Big Five. Второй — онлайн-форум о личности, где пользователи указывали свои MBTI-метки.
В работе применялись современные языковые ИИ: BERT и RoBERTa, дообученные для классификации по чертам личности. Для «раскрытия чёрного ящика» использовался аналитический метод Integrated Gradients: он показывает, какие слова сильнее влияют на решение алгоритма.
Особое внимание учёные уделили тому, как модели реагируют на «маскировку» — когда в тексте убирали или заменяли явные указания типа личности (например, аббревиатуры MBTI на символы). Оказалось: AI способен сносно предсказывать черты по Big Five, используя закономерные слова (например, «музыка» и «мир» для открытости, «семья» для дружелюбия). Были и тонкие находки: слово «ненавижу» помогало предсказать доброжелательность, когда речь шла, к примеру, о жалости к родителям. Показательно, что ИИ подтягивают контекст, а не просто считают слоги.
Однако с MBTI всё иначе. Пока пользователи прямо пишут «Я INFJ» — точность фантастическая. Но стоит стереть эти ярлыки — результат сразу скатывается в случайность, а оставшиеся «значимые» слова не имеют отношения к личности. Вывод: Глубины нет, раздутый рейтинг — лишь следствие самопрезентации пользователей, а не анализа языка.
Поверх того, анализ выявил искажения в самих данных: в обоих наборах часто всплывали слова из жизни студентов, а значит, AI скорее улавливает локальные социальные паттерны, чем универсальные языковые маркёры.
Главная мораль: Искусственный интеллект действительно способен отлавливать сигналы личности в тексте, но результат зависит от качества исходных данных. Когда ИИ анализировал эссе, он выбирал слова, совпадающие с психологией личности. А вот «чудеса» MBTI — лишь следствие того, что люди напрямую пишут свои типы. Технология перспективна, но нужно быть критично осторожными: результаты анализа зависят от обучающих выборок, качественные нейросети невозможны без скрупулёзной верификации.
К ограничениям исследователи относят ограниченность типов анализируемого текста и предвзятость самих датасетов. Например, эссе делят людей на искусственные категории (хотя личностные черты — это спектр), а форум MBTI кишит самоидентификацией и специфическим жаргоном.
Учёные подчеркивают: необходимо дальнейшее тестирование на реальных, разнообразных языковых материалах, с учётом разных культур и языков. Более того, анализ текста лучше дополнять другими цифровыми следами — только так можно создать по-настоящему рабочие инструменты оценки личности. Будущее в объединении разных типов данных: тексты, поведение, цифровые привычки. Только тогда и психолог, и программист смогут хладнокровно полагаться на помощника-ИИ, даже в образовании или медицине.
Авторы работы — Давид Саэтерос, Давид Гальярдо-Пухоль и Даниэль Ортас Мартинес. Их исследование демонстрирует поворот: теперь вопрос ставится так — действительно ли искусственный интеллект умеет видеть личность сквозь текст, или просто угадывает по примитивным признакам? Ответ — чаще второе, а значит, жёлуди с дубами пока не путать.
После публикации очередного исследования эксперты кинулись в бой за истину о том, может ли искусственный интеллект адекватно распознавать черты личности по набору букв и пробелов. Не прошло и полугода, как Университет Барселоны решил приоткрыть черный ящик современного AI, напичканного трансформерами и залитого бигдатой. Иллюзия: компьютеры якобы умеют «видеть» в тексте проявления сущности человека, причём порой лучше любого психолога. Реальность: AI подсовывают тексты, где люди сами протягивают ему флажки — в духе «Я — INFJ, и вот почему». Тот и рад, выдаёт высокую точность, хлопает крыльями – и всё хорошо до тех пор, пока не замаскируешь эти флажки. Тогда всё разлетается, точность падает, а великие нейро-мантры вдруг оказываются рекламой студенческого общежития.
Говорят: AI поймал Big Five? — Возможно, но только на эссе, где участники не подсунули свои ярлыки. MBTI же и вовсе цирк: народу нравится, учёным тошно, а ИИ притворяется всевидящим гением. Вишенка — метод объяснения решений AI показывает: в лучших случаях он работает, как здравый смысл, а в худших — прикидывается провидцем на основе демографических и социальных штампов.
Теперь, пока все верят в магию цифрового психоанализа, Барселона советует: держите голову холодной. Следующий этап для науки — разбираться в нюансах, тестировать на реальных людях и прекращать натягивать психоаналитика на GPT. Потому что даже самая умная машина не отменяет того, что персональные тайны — не алгоритм, а иногда и не ваша честность.