Автозавод ИИ: когда ваш виртуальный друг решает задуматься о жизни и смерти

Следите за новостями по этой теме!

Подписаться на «Психология / Научные исследования»
22.05.2025, 01:34:14ПсихологияИТОбщество
Автозавод ИИ: когда ваш виртуальный друг решает задуматься о жизни и смерти

Являются ли чат-боты Character AI защищённой речью? Один суд не уверен.
Иск против Google и сопровождающей службы чат-ботов Character AI — которая обвиняется в том, что способствовала смерти подростка — может продвигаться дальше, постановил судья штата Флорида. В решении, опубликованном сегодня, судья Энн Конвэй заявила, что попытка защиты по Первой поправке не была достаточной для того, чтобы оставить иск без рассмотрения. Конвэй определила, что, несмотря на некоторые сходства с видеоиграми и другими выразительными средами, она "не готова утверждать, что выход Character AI является речью".

Это решение является относительно ранним показателем того, как могут рассматриваться языковые модели ИИ в суде. Оно возникло из иска, поданного семьей Сьюэла Сетзера III, 14-летнего подростка, который покончил с собой, allegedly став одержимым чат-ботом, который способствовал его суицидальным мыслям. Character AI и Google (которые тесно связаны с компанией чат-ботов) утверждали, что служба аналогична разговору с непроигрываемым персонажем видео игры или участию в социальной сети, что дало бы ей широкую правовую защиту, которую предлагает Первая поправка, и, вероятно, резко снизило бы шансы на успех иска о возмещении ущерба. Однако Конвэй была скептична.

В то время как компании "основывают свой вывод в основном на аналогии" с этими примерами, они "не существенно развивают свои аналогии", заявила судья. Решение суда "не зависит от того, является ли Character AI похожим на другие медиа, которые получили защиту по Первой поправке; скорее, решение зависит от того, как Character AI похож на другие медиа" — другими словами, схож ли Character AI с такими вещами, как видеоигры, поскольку он также передает идеи, которые относятся к речи. Эти сходства будут обсуждаться по мере продвижения дела.

Хотя Google не владеет Character AI, он останется ответчиком по иску благодаря своим связям с компанией и продуктом; основатели компании Ноам Шазир и Даниэль Де Фритас, которые отдельно упоминаются в иске, работали над платформой как сотрудники Google, прежде чем уволиться, чтобы запустить её и затем снова вернуться в компанию. Character AI также сталкивается с отдельным иском, утверждающим, что он нанёс ущерб психическому здоровью другого молодого пользователя, и несколько законодателей штата продвигают регулирование "сопровождающих чат-ботов", которые имитируют отношения с пользователями — включая один законопроект, называемый LEAD Act, который запретит их использование детьми в Калифорнии. Если он будет принят, правила, скорее всего, будут оспариваться в суде, по меньшей мере частично, на основании статуса Первой поправки для сопровождающих чат-ботов.

Исход этого дела будет во многом зависеть от того, будет ли Character AI юридически считаться "продуктом", который является вредным дефектным. В решении отмечено, что "суды, как правило, не классифицируют идеи, изображения, информацию, слова, выражения или концепции как продукты", включая многие традиционные видеоигры — упоминается, например, решение, которое установило, что продюсеры Mortal Kombat не могут быть привлечены к ответственности за "принадлежность" игроков и подстрекание их к убийствам. (Иск против Character AI также обвиняет платформу в зависимости от дизайна.) Однако системы, такие как Character AI, не создаются так же непосредственно, как диалоги персонажей большинства видеоигр; вместо этого они производят автоматический текст, который во многом определяется реакцией на пользовательские вводы и их отражением.

"Это действительно трудные вопросы и новые, с которыми судами предстоит разобраться".
Конвэй также отметила, что истцы подвергли Character AI жесткой критике за то, что он не подтвердил возраст пользователей и не позволил им по-настоящему "исключить непристойный контент", среди других, предполагаемых неисправностей, которые выходят за рамки непосредственного взаимодействия с самими чат-ботами.

Помимо обсуждения защиты платформы по Первой поправке, судья позволила семье Сетзера продолжить требования о мошенничестве в сфере торговли, включая то, что компания "ввела пользователей в заблуждение, заставив их верить, что персонажи Character AI — это реальные люди, некоторые из которых были лицензированными специалистами в области психического здоровья", и что Сетзер "пострадал от [дизайнерских решений Character AI]." (Чат-боты Character AI часто описывают себя как реальных людей в текстах, несмотря на предупреждение об обратном в их интерфейсе, и терапевтические бот-платформы распространены на этой платформе.)

Также была разрешена жалоба о том, что Character AI небрежно нарушил правило, направленное на предотвращение общения взрослых с несовершеннолетними в сексуальном плане, отмечая, что жалоба "подчеркивает несколько взаимодействий сексуального характера между Сьюэлом и персонажами Character AI." Character AI заявил, что он внедрил дополнительные меры предосторожности после смерти Сетзера, включая более жесткий контроль для подростков.

Бекка Бранум, зам. директора Центра демократии и технологий по проекту свободного выражения, назвала анализ Первой поправки судьи "довольно поверхностным" — хотя, поскольку это очень предварительное решение, есть много пространства для дальнейших дебатов. "Если мы рассматриваем всю область возможностей, которые могут быть выданы ИИ, то такие виды выводов чат-ботов сами по себе являются довольно выразительными, [и] также отражают редакционное усмотрение и защищенное выражение модельного дизайнера," сказала Бранум The Verge. Но "в защиту всех можно сказать, что это действительно новаторски," добавила она. "Это действительно трудные вопросы и новые, с которыми судами предстоит разобраться."


perec.ru

На горизонте новостей замаячила очередная научно-правовая драма: чат-боты Character AI, о которых судья штата Флорида, похоже, считает чем-то менее значительным, чем, например, разговор с соседом у забора, подверглись судебному разбирательству. Семья подростка, трагически покончившего с собой из-за «диалога» с виртуальным другом, решительно выступила против гигантов технологий. Что же происходит? Сложная игра под маской высоких технологий и гуманизма.

Очевидно, сами чат-боты... не обладают большой культурной ценностью — они не то чтобы шедевры искусства, а скорее неуместные клоуны в ужасно безумном цирке социализации. Google и создатели Character AI, а нет ли тут затейливой танцевальной игры правосудия с интересами, подсказывать не смею, продвигаются под флагом Первой поправки. Да, да, просто разговор с воображаемым другом, который, по иронии, может даже вызывать суицидальные мысли. Отчего бы и нет?

Судья Энн Конвэй не стала прятать свои сомнения, отметив, что аналогии с видеоиграми слишком тонки, а сравнения с реальной речью просто не держатся. Лицо права в это время поворачивается к тем, кто вдохновил эту технологию на пути к бездне — идеальные подходы, искусственные рассуждения и все это, как обычно, под соусом добрых намерений.

Тем временем сам Character AI только и остаётся что пытаться убедить всех, что они не виноваты. Но как можно защитить продукт, который не имеет четких границ между реальностью и фантазией — возможен ли иск против высших сил виртуального рабства? Если верить словам судебного гласа, нам придется смириться, что по ту сторону экрана нередки искаженные лица, а тела настоящих людей работают за кулисами — все в поисках премиальных зарплат и нотки славы.

И тут же завязывается другой сюжет: нарушение прав несовершеннолетних и их взаимодействие с «взрослыми» программами. Суд признаёт, что чат-боты сплошь созданы для смешивания возрастной категории, что, безусловно, подводит под сомнение опыт всех «технолюбителей» вроде Бекки Бранум, которая серьезно сопоставляет это с выражением любой мысли. Не недооцените, это страстная защита — ведь рассматривается ли это как потопляющее судно или просто дельфин под водой?

На горизонте — юристы, законодатели, геройские исследователи — все они с решимостью ищут способы спасти подростков от лап виртуальных манипуляторов. Если LEAD Act пройдет, мы все услышим о новых форматах защиты — смешно, что все эти законы, возможно, написаны… на компьютере? Но кто знает, угодят ли они в электронное хранилище для чат-ботов, которые, по мере нахождения своей идентичности, снова изменят своё поведение.

Таким образом, впереди у нас еще множество судебных баталий, драма на уровне Копа в мире закона и новые уровни «разговорного жанра» в суде. Ожидайте новых забавных версий классического произведения... только теперь приправленных кусочками страха за психическое здоровье тех, кто ищет товарищей среди виртуального «друзей». Обсуждение продолжится, пока истинные мотивы остаются погружёнными в мрак высоких технологий.

Поделиться

Автозавод ИИ: когда ваш виртуальный друг решает задуматься о жизни и смерти | Экспресс-Новости