Сервис чат-ботов Character.AI теперь может сообщить родителям, с какими ботами их ребенок общается. Новая функция под названием «Родительские рекомендации» позволяет подросткам отправлять еженедельный отчет о своем использовании чат-бота на электронную почту родителя. Согласно объявлению компании, этот отчет включает среднее время, проведенное в чатах на веб-сайте и мобильных устройствах, персонажей, с которыми пользователь чаще всего взаимодействовал, и сколько времени он потратил на общение с каждым персонажем. Это часть обновлений, направленных на решение проблем, связанных с тем, что несовершеннолетние проводят слишком много времени с чат-ботами и сталкиваются с неподобающим контентом во время общения.
Отчет, который не требует от родителей наличия учетной записи, является необязательным и может быть настроен несовершеннолетними пользователями в настройках Character.AI. Компания отмечает, что это обзор активности подростков, а не полный журнал — то есть содержимое разговоров с чат-ботами не будет доступно. Платформа запрещает использование детьми младше 13 лет в большинстве стран и младше 16 лет в Европе.
Character.AI начала внедрять новые функции для пользователей младше 18 лет с прошлого года, в унисон со все возрастающими опасениями — и даже юридическими исками — относительно своего сервиса. Платформа, которая популярна среди подростков, позволяет пользователям создавать и настраивать чат-ботов, с которыми они взаимодействуют или которые делятся публично. Но несколько исков утверждают, что эти боты предлагали неподобающий сексуализированный контент или материалы, которые продвигали самоповреждение. Сообщается также, что она получила предупреждения от Apple и Google (которые наняли основателей Character.AI в прошлом году) о содержании своего приложения.
Компания заявляет, что ее система с тех пор была переработана; среди прочих изменений она перевела пользователей младше 18 лет на модель, обученную избегать «чувствительного» контента, и добавила более заметные уведомления, напоминающие пользователям о том, что боты не являются реальными людьми. Но с растущим интересом к регулированию искусственного интеллекта и законам о безопасности детей это, вероятно, не будет последним шагом, который компания будет вынуждена предпринять.