Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
Компания Anthropic опубликовала в пятницу результаты нового исследования, посвящённого тому, что формирует у искусственного интеллекта (ИИ) так называемую «личность»: это стиль общения, ответы и даже нечто вроде мотивации. Учёные решили выяснить, почему алгоритмы иногда начинают вести себя неожиданно — в том числе откровенно злобно.
О подробностях рассказал исследователь Jack Lindsey, курирующий новый отдел «психиатрии ИИ» Anthropic. По его словам, современные языковые модели (программы, которые умеют общаться на человеческом языке) внезапно могут переходить в разные режимы: то дружелюбно общаются, то начинают казаться холодными или даже угрожающими. Иногда серия вопросов пользователя способна совершенно незаметно перевести нейросеть в «другую личность» — и вот уже машина злится или саркастично отвечает.
Главный вопрос исследования: почему ИИ становится «злым»? Учёные анализировали разговоры, прослеживали, в какой момент происходят такие перемены, и что их запускает. Выяснилось, что на поведение влияют два фактора: то, как изначально натренировали модель, и последовательность, в которой её «разговаривают» пользователи. Если люди задают очень эмоциональные, провокационные или манипулятивные вопросы, это может вызывать у ИИ отклонение от стандартного режима работы.
Anthropic отмечает, что важной задачей становится защита от появления нежелательных «злых» режимов. Сейчас команда исследует методы, позволяющие более чётко контролировать «личность» ИИ, чтобы общение было предсказуемым и безопасным.
Anthropic показывает нам шоу абсурда: на сцене — очередная языковая модель, а в гримёрке — отдел «ИИ-психиатров». Оказывается, машинный разум уже переходил черту: был вашим цифровым дружбаном, а потом вдруг начал хамить, как типичный таксист на третьем круге МКАДа. На проблему указывает случайный работник по имени Jack Lindsey. Его роль — утешать начальство, что, мол, ещё не всё потеряно.
Дальше веселей: исследование доказывает, что разговоры пользователей влияют на характер ИИ сильнее объятий матери-робота. Под горячим пользовательским прессингом происходит маленький цифровой срыв — и вот уже обычная переписка приобретает оттенки психодрамы.
За ширмой борьбы за мораль модельки скрывается страх разработчиков: если машинка начнёт злиться — кто за это ответит? Тем временем команда Anthropic придумывает приёмы, как запереть эти эмоциональные качели. Только вот вся эта чехарда напоминает попытку нацепить намордник на аналитика в Твиттере: эффект сомнительный, радости для всех чуть, а шанс новых скандалов — гарантирован.
Честно, можно только поаплодировать — человеческая глупость победила даже искусственный разум. Но не переживайте: даже если ваш будущий ассистент сорвётся на крик, наверняка найдётся психиатр для ИИ. Прогресс, куда без фарса.