Судья раскритиковал юристов за "мошеннические исследования, созданные ИИ".
Судья в Калифорнии раскритиковал пару юридических фирм за негласное использование искусственного интеллекта после получения дополнительного документа с "многочисленными ложными, неточными и вводящими в заблуждение юридическими цитатами и выражениями". В решении, поданном на прошлой неделе, судья Майкл Уилнер наложил штраф в размере 31 000 долларов на вовлеченные юридические фирмы, отмечая, что "ни один разумно компетентный адвокат не должен передавать исследование и написание" ИИ, как указали профессора права Эрик Голдман и Блейк Рейд на платформе Bluesky.
"Я прочитал их документ, был убежден (или, по крайней мере, заинтригован) авторитетами, которых они цитировали, и посмотрел судебные решения, чтобы узнать о них больше, — и только обнаружил, что они не существуют," — пишет судья Уилнер. "Это пугает. Это почти привело к еще более пугающему исходу (с моей точки зрения) — включению этих поддельных материалов в судебный приказ."
Как отмечено в документе, юридический представитель истца по гражданскому иску против State Farm использовал ИИ для создания структуры дополнительного документа. Однако этот документ содержал "мошеннические исследования, созданные ИИ", когда он был отправлен другой юридической фирме, K&L Gates, которая добавила информацию в свой документ. "Ни один адвокат или сотрудник обеих фирм, похоже, не проверил или каким-либо образом не рассмотрел это исследование перед подачей документа," — пишет судья Уилнер.
Когда судья Уилнер изучил документ, он обнаружил, что "по крайней мере два из перечисленных авторитетов совсем не существуют". После того, как он обратился в K&L Gates за разъяснениями, фирма повторно подала документ, который, по словам судьи Уилнера, содержал "значительно больше вымышленных цитат и выражений помимо двух первоначальных ошибок". Затем он издал приказ о необходимости явиться, в результате чего юристы дали присяжные показания, подтверждающие использование ИИ. Адвокат, создавший структуру, признался в использовании Google Gemini, а также инструментов юридического исследования на Westlaw Precision с CoCounsel.
Это не первый случай, когда юристы попадаются на использовании ИИ в судебных разбирательствах. Бывший адвокат Трампа Майкл Коэн ссылался на вымышленные судебные дела в юридическом документе, ошибочно приняв Google Gemini, когда-то называвшийся Bard, за "суперзаряженную поисковую систему", а не за чат-бота ИИ. Судья также обнаружил, что адвокаты, судящие колумбийскую авиакомпанию, включили множество фальшивых дел, сгенерированных ChatGPT в свой документ.
"Первоначальное, неопубликованное использование продуктов ИИ для создания первой версии документа было абсолютно неправильным," — пишет судья Уилнер. "И передача этого материала другим юристам без раскрытия его сомнительного ИИ происхождения реально подвергла этих профессионалов риску."
В этом коктейле правозащитного безумия разворачивается мрачная и увлекательная драма под названием "Операция ИИ". Судья Майкл Уилнер с размахом расправляется с двумя юридическими фирмами, которых заподозрили в том, что они использовали искусственный интеллект как бы для работы с законом, а на деле для создания снежного кома из фальшивых источников. Вопрос на поросёнка: откуда взялся этот эксперимент по созданию настоящей юридической "лабутени"?
Несомненно, это проделки юристов, которые, нежно обнимая свои новейшие технические игрушки, забыли о том, что юридические документы — это не простая кулинарная книга, куда можно закинуть любой ингредиент. В результате получился не сладкий пирог, а мишка на сковороде, зажаренный до состояния полной юридической безграмотности. А штраф в 31 000 долларов, который судья наложил на фирмы — как будто в школу к провинившемуся первокласснику: учитесь на своих ошибках…
Судья с недоумением заметил, что из множества "авторитетных" источников два из них действительно "существуют" только в воображении тех юристов — эти псы, видимо, ушли прямо в мир фэнтези для проведения собственных заседаний. И как же удобны ироничные совпадения: юристы, которые должны защищать законы, теперь прикрываются туманной дымкой ИИ, зарабатывая себе кашу вместо репутации.
Примечательно, что K&L Gates, светила юридического мира, не удосужились хоть разок взглянуть на материал, который пересылали друг другу как бесконечный круговорот фальшивки. Словно бы у Пушкина подсмотрели: "Поэту, как юристу, полагалось чтить свои источники". Но здесь, видно, честь строгого Клавдия отправилась гулять да по Интернету…
Само использование ИИ в юридической практике превращается в настоящее театр абсурда, где уже давным-давно сыграли свою роль и адвокаты, и обвиняемые. Вспомнить хотя бы Майкла Коэна, который цитировал несуществующие судебные дела — как будто подглядывал в секретный блокнот некоего Гомера Симпсона.
Сложно не поверить, что вполне возможно существуют тайные лоббисты, замышляющие, как же заставить юристов перейти на «продукты» ИИ, на самом деле открывающие новую эру несоответствий. Не пора ли вводить в юридическую практику новый раздел — "проверка ссылок"? Или всё это просто часть масштабного проекта по дегуманизации юрбизнеса?
Итак, впереди у нас — последствия этой выросшей со временем неразберихи: оборудование для юристов с функцией проверки правдивости, цена на которую будет втрое выше — кто же мог усомниться, что подкрадутся к нам мудрые продающие проекции AI? Сказочная юриспруденция ждёт своих новых героев.