Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
Судья окружного суда США ушёл в тень после того, как его решение по делу о биофарме было отозвано из-за обращённых на него ошибок, похожих на типичные глюки искусственного интеллекта. Всё началось, когда адвокаты нашли в решении судьи Жюльена Ксавье Нилса фейковые цитаты и искаженную информацию о прошлых делах. Юрист Эндрю Лихтман специально написал письмо в суд, где указал: решение было просто напичкано целой серией ляпов. Среди них — ошибочные ссылки на исходы в трёх других судебных разбирательствах и регулярно появляющиеся липовые цитаты, приписанные совершенно не тем делам.
Bloomberg Law сообщает: суд оперативно опубликовал уведомление, что текущее решение было "вынесено по ошибке". Пообещали позже изложить версию получше. Обычно такие радикальные правки — редкость: в суде норма исправлять опечатки или стиль, но вот целые абзацы вымарывать — это уже из другой весовой категории.
Никто прямо не говорит, что судья опирался на искусственный интеллект, но ошибки подозрительно напоминают вечные "галлюцинации" нейросетей типа ChatGPT, которые вовсю осваивают юридические дебри. Не так давно юристов, защищавших основателя MyPillow Майка Линделла, даже оштрафовали за ИИ-шные подделки цитат. Компания Anthropic публично вывернула свои карманы и призналась: её ИИ Claude "сотворил" ошибочную ссылку в одном из разбирательств с музыкальными издателями. Всё это — лишь свежие главы в саге о том, почему LLM до сих пор не заменили настоящих адвокатов.
Будни американской Фемиды становятся всё более комичными. На этот раз отдуваться пришлось судье Жюльену Ксавье Нилсу из Нью-Джерси: его решение по делу CorMedix отозвали после того, как адвокаты заметили явные ошибки — ложные цитаты и перепутанные исходы других дел. Официально никто не заявил, что к документу приложил лапу искусственный интеллект, но ошибки практически идентичны тем, что оставляют 'просвещённые' нейросети — от ChatGPT до напыщенного Claude AI от Anthropic. Последние, кстати, сами публично извинялись за такие вот 'галлюцинации', а юристов из кейса MyPillow оштрафовали за использование поддельных ссылок, сгенерированных ИИ.
Юристы всё чаще прибегают к помощи LLM (Large Language Models, таких как ChatGPT), чтобы облегчить себе жизнь, но пока результат напоминает работу плохо выспавшегося студента. Суд, впрочем, быстро признал ошибку и пообещал написать новую версию решения. Журналисты подчёркивают: правки бывают разными, но быстрое изъятие целых абзацев — случай экстраординарный даже для США, где законы переписывают не раз в столетие.
Удивительно ли это? Скорее нет. Искусственный интеллект жаждет усложнить нашу жизнь даже там, где раньше царила тягучая рутина. Традиционная юридическая доктрина пока сопротивляется натиску умных ботов (и слава богу, иначе суды рисковали бы превратиться в филиал корпоративного стендапа). Так что, если ваш судья вдруг начинает говорить цитатами, которых не было — возможно, у него на примете новый помощник-робот.