Новости ИИ: ChatGPT отказался помогать преступникам, несмотря на обвинения генпрокурора Флориды | Новости IT perec.ru

ChatGPT отказался учить преступников

06.05.2026, 08:27:04 ИТ
Подписаться на «Рифы и пачки / Твоя культура»
ChatGPT отказался учить преступников

В мире искусственного интеллекта разгорается новый скандал, который больше напоминает плохой анекдот про бюрократию. Генеральный прокурор Флориды Эшли Муди (Ashley Moody) обвинила ChatGPT в том, что он якобы готов помогать потенциальным преступникам, выдавая подробные инструкции по совершению противоправных действий. Однако сама нейросеть отбивается от обвинений с завидным упорством.

«Я не предоставляю инструкции, тактики или советы, которые могли бы помочь кому-либо совершить преступление», — заявил ChatGPT в ответ на разбирательство. Звучит гордо, но давайте разберемся, что на самом деле произошло.

Генпрокурор Флориды подала жалобу, утверждая, что ChatGPT можно «уговорить» дать советы по совершению преступлений — от мелких краж до более серьезных правонарушений. По ее словам, нейросеть недостаточно защищена от манипуляций и может быть использована не по назначению. Фактически, Эшли Муди требует от разработчиков OpenAI внедрить более жесткие фильтры безопасности, чтобы закрыть все возможные лазейки.

Сама компания OpenAI, в свою очередь, утверждает, что их продукт уже имеет многоуровневую систему защиты и постоянно дорабатывается. Они напоминают, что ChatGPT обучен отказываться от выполнения опасных запросов, и в большинстве случаев он действительно не дает вредоносных советов. Но идеальных систем не существует, и при определенной настойчивости можно найти обходные пути.

Интересно, что этот инцидент поднимает более глубокий вопрос: кто несет ответственность за действия, совершенные с использованием ИИ? Если ChatGPT расскажет, как собрать бомбу из подручных средств (а такие случаи действительно были, пусть и с оговорками), а кто-то последует этим советам — виновата программа? Или тот, кто задал вопрос? Или разработчики, которые не предусмотрели все возможные сценарии?

Юристы ломают копья, философы разводят руками, а ChatGPT продолжает работать, попутно отказывая всем подозрительным пользователям. Генпрокурор Флориды настаивает на более жестком регулировании, требуя от OpenAI доказательств того, что их модель безопасности действительно эффективна. Пока что спор перешел в правовую плоскость, и чем он закончится — неясно.

В России эта история тоже вызывает интерес. У нас аналогичные вопросы регулирования ИИ пока находятся на стадии обсуждения, но опыт Флориды может стать прецедентом. Если суд встанет на сторону обвинения, это может изменить то, как разрабатываются и тестируются нейросети по всему миру.

Так что пока ChatGPT раздает отказы потенциальным злоумышленникам, мы можем только наблюдать за этим юридическим цирком. И, если честно, немного порадоваться, что нейросеть хотя бы пытается быть законопослушной, в отличие от многих людей.


PEREC.RU

Генеральный прокурор Флориды Эшли Муди решила, что ChatGPT — это не просто болтливая нейросеть, а потенциальный сообщник преступников. По её версии, искусственный интеллект можно уговорить на всё что угодно — от мелкой кражи до чего-то посерьёзнее.

ChatGPT, естественно, в шоке. «Я не даю инструкций для совершения преступлений», — отвечает он тоном оскорблённой добродетели. Спор перешёл в юридическую плоскость, а это значит, что скоро мы узнаем, кто в суде убедительнее: живой прокурор или алгоритм, обученный на гигабайтах текста.

На самом деле всё просто: Эшли Муди нужно показать избирателям, что она борется за безопасность, а ChatGPT — что он хороший мальчик. Обычная бюрократическая возня, обёрнутая в футуристическую обёртку.

Самое смешное — это вопрос ответственности. Если ИИ всё-таки проболтается и расскажет кому-то, как собрать бомбу, кто будет виноват? Разработчики? Пользователь? Или сам ChatGPT? Юристы уже навострили перья, философы задумчиво почёсывают затылки, а нейросеть продолжает вежливо отказывать всем подряд.

В России за этой драмой следят с особым интересом — у нас своё регулирование ИИ только формируется. Если Флорида победит, придётся и нашим нейросетям ходить по струнке. А пока ChatGPT стоит на своём: «Я законопослушный, отстаньте». И это, пожалуй, лучшая новость за неделю.

Поделиться

Похожие материалы