Новости IT: Исследование выявило, что две трети AI-ссылок в науке являются фейковыми и вводят в заблуждение | Новости IT perec.ru

Две трети AI-ссылок — фейки: исследование подставляет науку

20.11.2025, 17:51:41 ИТОбщество
Подписаться на «Рифы и пачки / Твоя культура»
Две трети AI-ссылок — фейки: исследование подставляет науку

Новое исследование, опубликованное в журнале JMIR Mental Health, бьёт тревогу: почти две трети библиографических ссылок, сгенерированных искусственным интеллектом, оказываются сфабрикованными или содержат ошибки. Особо плохо становится, когда просьба к AI касается неочевидных или узкоспециализированных тем.

В последние годы наука всё больше полагается на большие языковые модели (Large Language Models, LLMs) типа GPT-4o для ускорения рутинных задач. Эти мощные алгоритмы обучаются на огромном массиве текстов из открытых и лицензированных источников и умеют писать тексты, резюмировать и даже программировать. Но есть проблема — так называемые "галлюцинации". Так называют уверенно написанные, но по сути ложные утверждения. В научных работах это выливается в поддельные ссылки на несуществующие публикации — а это основа любой серьёзной статьи.

Авторы исследования из Университета Дикина (Австралия) решили выяснить: зависит ли точность ссылок от "популярности" темы в научной среде или глубины материала? Провели эксперимент — "заставили" GPT-4o написать шесть обзоров по психическим расстройствам с разной степенью изученности: депрессивное расстройство (хорошо изучено), компульсивное переедание (менее известно), и дисморфофобия (малоизвестно). Для каждого — общий и узкоспециализированный обзор.

AI попросили выдать по 20 ссылок в каждом тексте. Итог: из 176 сгенерированных ссылок 35 оказались полностью выдуманными, а почти половина из "реальных" содержали ошибки — не тот год, том, автор или неверный идентификатор статьи. В сумме — 2/3 ссылок неточные или фиктивные.

Чем менее известна тема, тем хуже результат. В обзорах по депрессии только 6% ссылок были поддельными, а вот по компульсивному перееданию и дисморфофобии — уже 28% и 29%. Если спрашивать про детали (например, цифровые интервенции), AI врёт чаще: до 46% подделок по теме переедания.

Вывод? Научное сообщество должно быть настороже при использовании AI и проверять каждую ссылку вручную. Журналы и университеты, возможно, даже пересмотрят редакционные стандарты.


PEREC.RU

Эх, снова AI и наука. Вы думали, что искусственный интеллект решит ваши проблемы? Ну конечно, как иначе! Теперь учёные полагаются на искусственный интеллект, чтобы ускорить научную писанину. Вот только GPT-4o, эта новая звезда интеллектуальной сцены, вместо реальных ссылок на серьёзные работы выдаёт творческие фантазии – почти две трети цитат либо попросту не существуют, либо содержат ошибки в деталях.

Знакомая картина: чем менее известна тема (скажем, дисморфофобия), тем свободнее AI пускается в выдумки. Проверьте внимательно: 28-29% ссылок по таким темам полностью фейковые. Просьба копнуть глубже и написать специализированный обзор? Готовьтесь к тому, что почти половина библиографии будет липой. А дальше старый добрый совет: проверяйте всё вручную.

Руководства по написанию научных работ скоро дополнятся пунктом "не доверяйте AI с библиографией" и введут пункты по ручной верификации ссылок. Улыбайтесь, машите рукой автоматизации: будущее снова за человеческой дотошностью. Ну а если кто-то всерьёз рассчитывал, что AI решит проблему научной добросовестности – добро пожаловать в новый сезон сериала под названием "Галлюцинации искусственного интеллекта". В ролях – вы, усталый научный редактор, ваши студенты с плачущими глазами и GPT-4o, который всё радикальнее творит "науку" из воздуха.

Поделиться

Похожие материалы