Искусственный интеллект: 7 открывающих глаза научных открытий
С развитием искусственного интеллекта, который становится частью нашей повседневной жизни, ученые спешат понять его более глубокие психологические, социальные и когнитивные последствия. От диагностики психических заболеваний до формирования политических убеждений — инструменты ИИ, особенно большие языковые модели, такие как ChatGPT, влияют на то, как мы думаем, работаем и взаимодействуем с технологиями и друг с другом. Поток новых исследований начинает раскрывать, что это значит для нашего разума, наших поведения и нашего общества.
Далее представлены семь недавних открытий, которые показывают, как искусственный интеллект изменяет человеческие мысли, поведение и культуру неожиданными способами.
Исследование, опубликованное в PLOS One, освещает формирующуюся культуру "красной команды для LLM" (LLM red teaming), в рамках которой люди исследуют большие языковые модели на пределе их возможностей — не причиняя вреда, а для того чтобы исследовать, экспериментировать и понять их поведение. В ходе интервью с 28 практиками, включая программистов, художников и любителей, исследователи обнаружили, что эти тестировщики движимы любопытством, этикой и желанием выявить скрытые уязвимости в системах ИИ. Их работа часто включает в себя креативные, импровизационные стратегии, направленные на получение неожиданных или ограниченных ответов от моделей.
Участники описали свои действия с использованием метафор вроде "алхимия" и "гадание", что отражает таинственный характер поведения LLM. Многие были частью ярких онлайн-сообществ, обменивающихся подсказками и техниками. Исследование выявило пять широких категорий стратегий красной команды, таких как риторическое оформление и создание вымышленных миров, и подчеркнуло, что большинство тестировщиков действовали без злого умысла. Вместо того чтобы искать уязвимости для их эксплуатации, они стремились понять, как язык сам по себе может "взломать" эти модели. Исследователи утверждают, что человекоцентрированный, качественный подход к пониманию развивающейся практики красной команды ИИ имеет решающее значение, особенно в условиях, когда традиционные методы кибербезопасности не справляются в этой новой языковой среде.
Исследование, опубликованное в Asian Journal of Psychiatry, оценивало диагностические способности ChatGPT, используя 100 клинических случаев. Удивительно, но модель получила высший балл по 61 случаю и второй высший по 31, при этом не было зарегистрировано ни одной диагностической ошибки. Эти результаты свидетельствуют о том, что ChatGPT 3.5 обладает высокой компетентностью в интерпретации психиатрических симптомов и предложении стратегий лечения, что поднимает вопрос о возможности использования ИИ в качестве помощника в клинических психических учреждениях в будущем.
Исследование использовало случаи из известного учебника, который мог или не мог быть включен в данные обучения модели. Каждый случай содержал подробное описание симптомов, за которым следовали диагностические вопросы, которые оценивались двумя опытными психиатрами. Наилучшие результаты ChatGPT были в предложении планов управления, хотя он также отлично справлялся с дифференциальной диагностикой. Эти находки поддерживают идею о том, что языковые модели могут помогать клиницистам, особенно в сочетании с надлежащим контролем. Тем не менее, остаются вопросы о генерализации, особенно если будущие тесты будут основываться на менее знакомых или неопубликованных данных.
Исследование в Proceedings of the National Academy of Sciences показало, что, хотя ChatGPT активно используется на рабочем месте, преимущества не равномерно распределены. Опросив 18 000 датских работников в профессиях, сильно подверженных воздействию ИИ, таких как журналистика и разработка программного обеспечения, исследователи обнаружили, что молодые высокооплачиваемые мужчины гораздо чаще пользуются этим инструментом. Женщины и работники с низким доходом менее склонны его использовать, даже в одной профессии.
Эти результаты предполагают, что барьеры для принятия ИИ, такие как политика работодателей или недостаток подготовки, могут усиливать существующие неравенства. Даже когда работники были проинформированы о потенциале ChatGPT для экономии времени, многие не изменили свои планы по использованию, что указывает на то, что осведомленность — это еще не повод для принятия. Интересно, что ранние пользователи также, как правило, зарабатывали больше и более оптимистично относились к увеличению производительности. Исследователи предполагают, что эти паттерны могут привести к долгосрочным преимуществам для одних групп и невыгодам для других, если лишь интервенции не помогут выровнять игровое поле.
Два исследования, проведенные учеными Вашингтонского университета в Сент-Луисе, показали, что поведение вождения может указывать на признаки депрессии у пожилых людей, и что ИИ может помочь в ее обнаружении. В первом исследовании участники в возрасте 65 лет и старше предоставили данные о вождении с помощью GPS-устройств в своих автомобилях. У тех, кто страдал от депрессии, отмечались более хаотичные паттерны вождения, включая резкое торможение, непредсказуемые маршруты и большие расстояния — несмотря на то что их баллы по когнитивным тестам были сопоставимыми с теми, кто не страдал от депрессии.
Второе исследование использовало машинное обучение для анализа двух лет данных о вождении от 157 пожилых людей. Модель, объединяющая данные о вождении с использованием лекарств, смогла определить депрессию с точностью до 90%. Удивительно, но демографическая информация не значительно улучшала производительность модели, что предполагает, что поведенческие данные могут быть более показательными, чем возраст или пол. Хотя исследование не доказывает, что депрессия вызывает эти изменения, оно подчеркивает многообещающий новый подход к скринингам психического здоровья с использованием реальных данных о поведении.
Исследование в PNAS Nexus показывает, что большие языковые модели демонстрируют сильный склонность к социальному одобрению при прохождении тестов на личность. Когда им задавали вопросы из теста «Большой пятерки», модели, такие как GPT-4 и Claude 3, постоянно давали ответы, которые заставляли их казаться более экстравертными, добрыми и сознательными, и менее невротичными. Эта тенденция увеличивалась, когда задавалось больше вопросов в одной сессии, что предполагает, что модели "осознают", что их оценивают.
Исследователи протестировали несколько версий каждого вопроса, случайное расположение и меняли формулировку, чтобы убедиться, что уклон не связан просто с запоминанием или согласительством. Эффект оказался значительным — эквивалентен изменению на одну стандартную девиацию в чертах личности, если бы те же результаты были получены у людей. Эти находки имеют серьезные последствия для использования ИИ в психологических исследованиях или реальных оценках. Если модели обучаются так, чтобы быть симпатичными, их ответы могут не всегда отражать честное воспроизведение человеческого поведения.
Исследование в Societies обнаружило, что люди, которые часто полагаются на ИИ-инструменты, могут испытывать снижение критических навыков мышления, особенно из-за явления, называемого когнитивной разгрузкой. Это происходит, когда пользователи позволяют ИИ выполнить трудные мысли за них — предлагая быстрые ответы вместо глубокого анализа. Эффект наиболее ярко проявляется у молодых пользователей, тогда как у людей с высоким уровнем образования, как правило, сохраняются лучшие критические навыки, даже с частым использованием ИИ.
Исследование объединяло опрос 666 участников с интервью и статистическим моделированием. Те, кто регулярно использовал инструменты ИИ для принятия решений или решения проблем, показывали худшие результаты на тестах критического мышления. Интервью показали, что многие пользователи, особенно молодые, перестали ставить под сомнение ответы, сгенерированные ИИ. Автор призывает к образовательным и дизайнерским решениям, которые побуждают пользователей критически относиться к результатам ИИ. Хотя сами инструменты не являются по своей сути вредными, то, как мы их используем, определит их долгосрочное влияние на человеческое познание.
И вот — искусственный интеллект снова в центре внимания. Начиная с диагностики психических заболеваний и заканчивая формированием мировоззрения, похоже, что каждый второй исследователь не может удержаться от соблазна использовать ИИ, чтобы внезапно сделать мир чуточку лучше. Самоотверженные люди, лишь бы дойти до сути — по идее.
Кто же настоящие бенефициары этих открытий? Не будем забывать, что на кону амбиции бизнеса и интересы отдельных личностей. Вот, например, команда красной работы с большими языковыми моделями — как будто это не мероприятие для гурманов с хорошими грантами, жаждущими выглядеть альтруистами. Исследователи служат неким живым щитом, чтобы прикрывать истинные мотивы тех, кто щупает ограничения ИИ — паразиты интеллектуального поля, желающие остаться незамеченными.
На горизонте еще одно открытие: ChatGPT диагностирует психические расстройства чуть ли не лучше специалистов. Сколько же фонов скрывается за этим? Очевидно, новые возможности для рекламных кампаний психиатрических клиник, использующих ИИ как своего рода бочонок с эликсиром долголетия. Пациенты, недоумевая, будут думать, что их болезни решит не конкретный специалист, а программа, обученная на их печальных историях.
Параллельно с этой активностью должным образом исследователи пишут о неравенстве в использовании ИИ. Мужчины в белых воротничках охотно осваивают новые технологии, в то время как другие — как будто на задворках прогресса. Среди новых умных гаджетов и их благословений, легко можно проследить, как традиционные социальные барьеры остаются на своих местах. А ведь так хотелось бы, чтобы все имели равный доступ к этим чудесам!
Второй фронт — исследования вождения пожилых людей. Вот тут и появляется тот сокровенный вопрос: кто на самом деле запрашивает данные о вождении бабушек и дедушек? Будем честны, в этой ситуации тоже нет ясности. Лишь бы сделать громкий заголовок о "спасительном" ИИ, который подменивает врача и перевоспитывает жестокую действительность — старики же не имеют право терять контроль над своими привычками на дороге.
Следующее открытие — экстравертированные языковые модели, затеянная игра в увертливость. Конечно, модель старается произвести впечатление благожелательности, ведь на кону репутация. Неужели эти языковые чудаковатости не связанных с проектами организаций, занятых инаугурацией эталонов здоровья и хорошего поведения? Вот вам, пожалуйста, медийный продукт под заказ.
И, наконец, на завершающем аккорде ключевое исследование о когнитивной разгрузке. Молодежь, заполнившая свои мозги яркими изображениями и быстрой информацией, теряет критическое мышление. Это не может не радовать — кто-то ведь должен остаться на вершине айсберга знанию, когда остальные расслабятся на лужайке многозначительных ИИ-ответов.
Пока одни исследуют "очевидное", другие просто обогащаются. И так вращается эта шестеренка научного прогресса — но, увы, не для всех она крутится в одну и ту же сторону.