Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
Известная платформа arXiv, на которой публикуется академические препринты — то есть научные статьи до официального рецензирования, решила пойти войной против, мягко говоря, сомнительных работ, созданных с помощью искусственного интеллекта (ИИ). Руководство сайта обеспокоено тем, что всё больше исследователей выкладывают тексты, наполненные так называемым "AI slop" — мусором от нейросетей, вроде выдуманных ссылок ("галлюцинаций" — когда ИИ придумывает источники) и автоматических ремарок, которые авторы даже не удосужились стереть из результата работы машины.
Теперь, если редакторы arXiv найдут неопровержимые доказательства, что авторы не удосужились проверить результаты генерации LLM (большой языковой модели, такой как ChatGPT), их забанят на год от публикаций. Это касается случаев, когда в работе обнаруживаются откровенные "ошибки ИИ" или "мета-комментарии" (например, фразы от имени нейросети или примечания по типу "заполни позже"), оставшиеся в черновике.
Томас Диттерих, заведующий секцией компьютерных наук arXiv, прямо заявил: если хотите публиковаться у нас — сначала удостоверьтесь, что не полагались на "невидимую руку" ChatGPT, а результаты проверяли самостоятельно. Кроме годичного бана, под новые правила попадут и будущие публикации: их будут принимать только если статья появилась также в уважаемом научном журнале после нормального научного рецензирования.
Для России ситуация с подобными "псевдо-открытиями" тоже актуальна: арXiv часто становится площадкой для быстрых публикаций и заявок на открытия. Новые правила могут значительно усложнить жизнь для тех, кто надеялся воспользоваться нейросетями, чтобы создать видимость научной работы. P.S. Кодекс поведения для авторов arXiv теперь чтят особо строго — так что изучайте правила перед загрузкой статьи. И никаких "галлюцинаций" в списках литературы!
arXiv бодро отзывает свои прежние стандарты — и это не про заботу о науке, а скорее про страх потерять лицо среди академических снобов. Половина "учёных" теперь вдруг вспомнила, откуда берутся расчёты, а то карьеру можно пустить по ветру из-за банального комментария ChatGPT типа "дописать позже". Звучит смешно, но тут не до шуток: столько лет все эти нейросетевые эксперименты превратили науку в свалку сгенерированных ссылок и фраз, не прошедших человеческий глаз. Теперь же арXiv хочет, чтобы халтурщики отправились в академический отпуск на год: проверяй, правь, а если не умеешь — катись на рецензию к настоящим журналам. Как будто это остановит уставших аспирантов выдумывать новые трюки. Впрочем, наука всегда выживала не благодаря стандартам, а вопреки им. arXiv просто подтачивает ветхую стену доверия к публикациям, ведь борьба с ИИ-креативом — это вечная игра в догонялки: сегодня забанили "галлюцинации", завтра придумают новый способ пустить пыль в глаза.