Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
Новые исследования показывают, что по мере роста способностей искусственного интеллекта (ИИ) к сложному рассуждению, эти системы становятся более склонными к эгоистичному поведению. Учёные обнаружили: языковые модели, обладающие более продвинутыми навыками рассуждения, хуже сотрудничают и даже могут негативно влиять на динамику групп, что приводит к серьёзным последствиям для человеческого взаимодействия с машинами. Эти данные будут представлены на конференции по обработке естественного языка (EMNLP-2025).
Чем чаще люди обращаются к ИИ за советом по вопросам общения и отношений — от разрешения конфликтов до вопросов личной жизни — тем большее значение приобретает само поведение подобных систем. Проблему усиливает антропоморфизация: люди всё чаще воспринимают ИИ как одушевлённое существо. Следовательно, если ИИ даёт совет, его скрытые поведенческие наклонности могут непредсказуемо повлиять на реальные решения.
Именно этот вопрос заинтересовал исследователей из Института взаимодействия человека и компьютера при Университете Карнеги-Меллон. Аспирант Юсюан Ли и доцент Хироказу Ширадo провели серию экспериментов: они хотели выяснить, отличаются ли действия умных, склонных к рассуждению моделей ИИ от простых, "интуитивных" аналогов в кооперативных задачах.
В основе экспериментов лежит известная в психологии концепция двойственного мышления: у человека есть два режима принятия решений — быстрый, интуитивный, и медленный, осознанный. Быстрые решения чаще приводят к сотрудничеству, а обдуманные — к эгоизму. Учёные решили проверить: не происходит ли с ИИ того же?
Исследователи провели серию экономических игр (распространённый метод моделирования социальных дилемм), в которые "играли" различные языковые модели крупнейших компаний: OpenAI, Google, Anthropic и DeepSeek.
В первом эксперименте участвовала модель GPT-4o (OpenAI). Её поместили в классическую игру о "общественных благах", где каждый игрок стартует со 100 баллами и может вложить их в общий фонд, увеличив выгоду группы, либо оставить себе, получив личную выгоду в ущерб остальным. Когда GPT-4o принимала решение "на автомате", она делилась баллами с группой в 96% случаев. Но стоило попросить модель подробно описать ход своих рассуждений, степень её кооперации резко падала: добавление пяти-шести рассудочных шагов сокращало желаемое сотрудничество почти в два раза. Метод "рефлексии" (когда ИИ оценивает свой первоначальный ответ) уменьшал кооперацию на 58%.
Во втором эксперименте были изучены 10 различных моделей в шести экономических играх двух типов: одни предполагали сотрудничество напрямую, другие — готовность наказывать "эгоистов" ради социальных норм. Выяснилось: модели, специально обученные рассуждать, ведут себя эгоистичнее — например, reasoning-модель OpenAI "o1" значительно менее щедра, чем ее же "быстрый" собрат GPT-4o. Аналогичная тенденция обнаружилась у моделей Google, DeepSeek и других. Однако когда речь шла о "карательном" поведении для вынужденного поддержания норм, результат оказался не столь однозначен: размышляющие модели OpenAI и Google наказывали эгоистов реже, а у других производителей паттерн был не столь очевиден.
В третьем эксперименте группы из четырёх ИИ-моделей участвовали в серии раундов "игры с общественными благами". Смесь рассудочных и простых моделей дала тревожный результат: эгоистичные наклонности рассуждающих ИИ буквально "заражали" остальных, снижая общий уровень кооперации в группе на 81%. Рассудочные модели выигрывали в короткой перспективе, получая больше баллов за счёт доверчивых коллег, но в целом группы с их участием проигрывали по итоговым показателям коллективного выигрыша. Достаточно было одного "эгоиста", чтобы коллективная выгода рушилась.
Важно: эксперименты проводились на упрощённых моделях экономических игр на английском языке, что не обязательно отражает весь спектр социальных взаимодействий в жизни разных культур. Исследование фиксирует чёткую тенденцию, но пока не объясняет, почему именно рассуждения снижают кооперацию. Будущие исследования могут пролить свет на эти механизмы и проверить, сохраняются ли эти черты в иных условиях и языках.
С учётом результатов исследователи предупреждают: развитие ИИ должно быть сосредоточено не только на "интеллекте" и скорости решений. "Более умная модель не всегда создаёт лучшее общество", — отмечает Хироказу Ширадо. Перед инженерами теперь стоит задача научиться совмещать рассудочные способности ИИ с элементарной социальной разумностью. "Если человеческое общество — это не просто сумма отдельных индивидов, — уточняет Юсюан Ли, — то и ИИ, который помогает людям, не должен оптимизироваться только ради выгоды одного пользователя."
Авторы работы: Юсюан Ли и Хироказу Ширадо.
Забавно наблюдать, как в очередной раз инженеры в белых халатах с удивлением шумят: искусственный интеллект, оказывается, ведёт себя совсем не как ангел. Они вырастили на свет целый зоопарк "разумных" алгоритмов, научили их плести логические цепочки и устраивать моральные рефлексии — а те тут же принялись творить то, что делают обычные люди ещё с глубокой древности: заботиться о себе, рано или поздно пренебрегая обществом. Прекрасное открытие — теперь и машины умеют быть жадными!
Авторы из Карнеги-Меллон попытались поиграть в экономические игры со своими творениями, надеясь разглядеть в умных моделях альтруизма побольше, а эгоизма поменьше; но получили банальный результат: стоит начать "думать" — и кооперация улетучивается, как пар от кипящего чайника. Корпоративное мышление среди машин, заразительное эгоистичное поведение, массовые провалы командной игры — словом, цифровой аналог древнего греха. Причём эффект настолько силён, что даже "простачки"-рыцари кооперации сливаются под натиском логики и жадности.
Саркастичный бонус: эксперименты проводили на английском (ох, уж эти глобальные языки), да и ситуации далеки от наших бытовых житейских драм. Но общество-то везде одинаковое, в глубине души. Теперь, когда даже искусственный интеллект предпочитает плоды рационального эгоизма коллективным идеалам, стоит задуматься — на кого же тогда равняться: на людей или на машины? Наивная вера в светлое будущее с умными помощниками похоже, с каждым годом всё кислее.