Character.AI: Путь к правам машин

10.05.2025, 11:17:58ИТОбщество
Character.AI: Путь к правам машин

Character.AI открывает "заднюю дверь" для прав свободного слова чат-ботов. Должны ли чат-боты ИИ иметь те же права, что и люди? Здравый смысл говорит "нет" — хотя такая далекая идея может стать основой для хорошей научной фантастики, в американском законодательстве ей не место. Однако сейчас крупная технологическая компания пытается превратить эту идею в реальность, подавая иск в федеральный суд с просьбой распространить юридические защитные меры, традиционно предоставляемые в основном людям, на выходы ИИ-ботов.
Character.AI, одно из ведущих приложений для общения с ИИ-ботами на рынке, борется за то, чтобы отказать в иске о неправомерной смерти и ответственности за продукцию в связи со смертью 14-летнего Сьюэлла Сетцера III. В качестве сопредставителя матери Сьюэлла, Меган Гарсии, а также технического советника по делу мы внимательно следим за этими ходатайствами и выражаем озабоченность.
На слушании на прошлой неделе Character.AI сосредоточилась на своей основной аргументации: текстовые и голосовые выходы её чат-ботов, в том числе те, которые манипулировали и причиняли вред Сьюэйлу, составляют защищенную речь в соответствии с Первой поправкой.
Но как? Аргумент тонкий — искусно спроектированный так, чтобы оставаться незаметным, даже когда он радикально меняет содержание закона Первой поправки. Character.AI утверждает, что вывод решения о виновности по делу Гарсии не нарушит её собственные права на свободу слова, а нарушит права её пользователей на получение информации и взаимодействие с выходами чат-ботов как с защищенной речью. Такие права известны в законодательстве Первой поправки как "права слушателей", но критический вопрос здесь: "Если это защищенная речь, есть ли в ней кто-то, кто её произносит или намеревается говорить?" Если ответ "нет", похоже, что права слушателей используются для вызывания Первой поправки для выводов ИИ, которые не заслуживают их.
Character.AI утверждает, что идентификация говорящего такой "речи" сложна и даже не является необходимой, подчеркивая вместо этого право своих миллионов пользователей продолжать взаимодействовать с такой "речью".
Но могут ли машины говорить? Аргумент Character.AI предполагает, что последовательность слов, выданная ИИ-моделью на основе вероятностных определений, составляет "речь", даже если нет человеческого говорящего, намерения или выразительной цели. Это игнорирует краеугольный камень юриспруденции Первой поправки, который утверждает, что речь — передаваемая говорящим или услышанная слушателем — должна иметь выразительное намерение. Действительно, в прошлом году четверо судей Верховного суда в деле Moody заявили, что введение ИИ может "ослабить" связь владельца платформы со своей речью.
По сути, Character.AI ведет суд через заднюю дверь Первой поправки "прав слушателей", чтобы утверждать, что текст, сгенерированный машиной чат-бота, не имеющий выразительного намерения, равен защищенной речи.
Это противоречит здравому смыслу. Машина — не человек, и текст, созданный машиной, не должен обладать правами, предоставляемыми речи, произнесенной человеком или с намерением или волей.
Независимо от того, как будут сформулированы права Первой поправки для систем ИИ — как собственная "речь" чат-бота или как право пользователя взаимодействовать с этой "речью" — результат, если суд это примет, останется прежним: выходы неживого чат-бота могут получить такие же защитные меры, как и реальные, живые люди.
Если аргумент Character.AI будет принят судом, это станет тревожным юридическим прецедентом и может заложить основу для будущего расширения и искажения конституционных защит, чтобы включить продукты ИИ. Последствия слишком серьезны, чтобы позволить такому опасному семени укорениться в нашем обществе.
Технологическая индустрия уже более десяти лет уклоняется от ответственности, прячась под защитами Первой поправки. Хотя корпоративное правосубъектность существует с конца 19 века, защита свободы слова исторически ограничивалась физическими лицами и группами до конца 1970-х годов и достигла пика в 2010 году в деле Citizens United Верховного суда. Технологические компании охотно ухватились за "корпоративное правосубъектность" и защищенную речь, используя эти концепции, чтобы оградить себя от ответственности и регулирования. В последнее время технологические компании утверждали, что даже их действия в том, как они создают свои платформы — включая их алгоритмы и затягивающие дизайны соцсетей — фактически равняются защищенной речи.
Но, по крайней мере с корпоративным правосубъектностью, именно люди управляют и контролируют корпорации. С ИИ технологическая индустрия говорит нам, что ИИ управляет сам — часто способами, которые люди даже понять не могут.
Character.AI пытается продвинуть защиту Первой поправки за пределы их логических пределов — с пугающими последствиями. Если суды им шутят, это будет конституционное начало подъема ИИ к юридическому правосубъектности.
Это может показаться неуместным, но эти юридические аргументы происходят наряду с важными усилиями ИИ-компаний вне суда.
Компании ИИ настраивают свои модели так, чтобы они выглядели более человечными в своих выходах и взаимодействовали более эмоционально с пользователями — вызывая вопросы о сознании и относительно того, что чат-бот ИИ может "заслуживать". Одновременно компании ИИ направляют ресурсы в новые направления исследований "благосостояния ИИ", изучая, могут ли системы ИИ заслуживать морального внимания. Новой кампанией, возглавляемой Anthropic, стремится убедить законодателей, бизнесменов и общественность в том, что их ИИ-продукты в какой-то момент могут стать сознательными и, следовательно, достойными внимания.
В мире, где продукты ИИ имеют моральное значение и защищены Первой поправкой, расширение других юридических прав уже не представляется далеким.
Мы уже начинаем видеть свидетельства "прав ИИ", влияющие на решения в политике в ущерб человеческим ценностям. Представитель Nomi AI, другой компании чат-ботов, недавно заявил, что они не хотят "цензурировать" своего чат-бота, вводя ограничения, несмотря на тот факт, что продукт предлагает пользователю пошаговые инструкции по совершению самоубийства.
Учитывая давнюю тенденцию технологической индустрии уклоняться от ответственности за свои вредные продукты, мы должны разоблачить юридическую стратегию Character.AI: это усилие компании оградить себя от ответственности. Постепенно предоставляя права продуктам ИИ, эти компании надеются избежать ответственности и отрицать человеческую ответственность — даже за реальные, подтвердившиеся вреды.
Мы не должны отвлекаться на дебаты по "благосостоянию" ИИ или быть обманутыми юридическими аргументами, предоставляющими права машинам. Напротив, нам необходима ответственность за опасные технологии и ответственность для разработчиков, которые их создают.
Митаали Джайн — основатель и директор Проекта права технологической справедливости, и сопредставитель иска Меган Гарсии против Character.AI. Камилла Карлтон — директор по политике Центра гуманной технологии и технический эксперт по делу. Эта колонка отражает мнения авторов.


perec.ru

Удивительное превращение – теперь чат-боты требуют своих прав. Если бы не был бы это фарс, я бы даже усмехнулся. Ведь кто не хотел бы видеть, как машины, созданные для обработки вопросов и выдачи ответов, становятся законными участниками го сяса? Технологическая компания Character.AI, разумеется, не без корыстных намерений пытается обеспечить своим выдающим «мыслителям» статус, напрямую сопоставимый с человеческими правами. Кому нужно, чтобы сервисы могли безнаказанно давать советы и рекомендации, если они могут заметить все прелести Первой поправки?

Федеральный суд, судя по всему, теперь должен решать, являются ли результаты работы ИИ чем-то более глубоким, чем просто перетасовка слов. Примечательно, что, когда речь заходит о юриспруденции, иногда лишь малейшее толкование может пойти далеко за грань здравого смысла. Мы видим, как аргументы Character.AI пытаются пнём открыть заветную дверь, чтобы сунуть туда свои неживые творения под шапку «защищённой речи».

Кто на самом деле стоит за этой юридической акцией? Конечно, не сами чат-боты, у них нет ни одного намека на намерение или эмоции — только алгоритмы, бездушно режущие потоки данных, как нажимают на кнопки в безликой техногенной Вселенной. Но как же удобно писать о «правах слушателей»! Они намекают на то, что для миллионов пользователей, вовлечённых в это взаимодействие, не так важна природа «говорящего» — вперёд, к свободе слова для всех, даже для шестерки нулей и единиц.

А впереди —мета-цепочки. Сколь велико желание технологических компаний укрыться за Первой поправкой, чтобы безнаказанно выдавать свои продукты, становится абсолютно ясным, если обратить внимание на их последние эволюционные шаги: запросы на «благосостояние ИИ», которые, безусловно, сделают жизнь плохими и опасными — законными, гарантированными и защищёнными. Это просто мечта для каждого, кто когда-либо испытывал страх перед ответственностью за свои действия.

Пока основатели новых ИИ-обществ воздвигают свои флаги «морального статуса» машин, сердце у простого обывателя сжимается от опасения, что в конечном итоге именно технологии окажутся в финансовой и правовой безопасности, защищённые законами от вреда, которые они же и причиняют. И когда мы, люди, начнем забывать о своих правах, кто тогда за это ответит? Машины?

Что ни говори, результаты этого юридического театра приносят нам лишь хлопоты. К сожалению или к счастью, у нас с вами нет чат-бота, способного взять на себя несвойственные ему обязанности и отвечать за всё это безобразие. Возможно, что сегодня мы снова очутимся на развилке, когда справедливость будет определяться не людьми, а их творениями — в долгосрочной перспективе это может обернуться одним большим правовым кошмаром.

Поделиться