ЧатGPT по сообщениям обвинил невиновного человека в убийстве его детей. Прошло более двух лет с тех пор, как ChatGPT ворвался на мировую арену, и хотя OpenAI добилась значительных успехов, всё ещё осталось немало проблем. Одна из самых серьёзных: «галлюцинации» или представление ложной информации за факт. Теперь австрийская правозащитная группа Noyb подала вторую жалобу против OpenAI из-за таких «галлюцинаций», указав на конкретный случай, когда ChatGPT, как сообщается, и ошибочно утверждал, что норвежец — убийца.
Чтобы усугубить ситуацию, когда этот человек спросил ChatGPT, что о нём известно, тот заявил, что он был приговорён к 21 году лишения свободы за убийство двух детей и попытку убийства третьего. Галлюцинация также была приправлена реальной информацией, включая количество детей, их пол и название родного города.
Noyb утверждает, что этот ответ нарушает GDPR. "GDPR однозначен: персональные данные должны быть точными. Если нет, у пользователей есть право на их изменение для отражения правды", — заявил адвокат по защите данных Noyb Йоаким Седерберг. "Показать пользователям ChatGPT маленькое уведомление с предупреждением о том, что чат-бот может ошибаться, явно недостаточно. Нельзя просто распространять ложную информацию, а в конце добавить небольшое уведомление, что всё, что вы сказали, может быть неправдой."
Другие значимые примеры «галлюцинаций» ChatGPT включают обвинение одного человека в мошенничестве и хищении, репортера суда в сексуальном насилии и профессора права в домогательствах, как сообщают различные издания.
Первая жалоба Noyb к OpenAI о «галлюцинациях» в апреле 2024 года касалась неправильной даты рождения публичной личности (так что не убийство, но тоже неточная информация). OpenAI отклонили просьбу истца удалить или обновить их дату рождения, утверждая, что не могут изменить информацию, уже находящуюся в системе, а могут только заблокировать её использование по определённым запросам. ChatGPT полагается на оговорку о том, что "может ошибаться".
Да, есть поговорка, гласущая, что все делают ошибки, поэтому на карандашах есть ластики. Но, когда речь идет о невероятно популярном ИИ-чат-боте, действительно ли эта логика применима? Увидим, как OpenAI ответит на последнюю жалобу Noyb.