Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
Согласно отчету NPR, компания Meta планирует отказаться от участия человеческих рецензентов в оценке потенциального вреда своих продуктов, полагаясь вместо этого на искусственный интеллект для ускорения процесса. Внутренние документы, с которыми ознакомилось издание, указывают на то, что Meta стремится, чтобы до 90 процентов оценок рисков проводились с помощью ИИ, и рассматривает возможность применения автоматизированных обзоров даже в таких областях, как риски для молодежи и "интегритет", который охватывает насильственный контент, дезинформацию и многое другое. Анонимные нынешние и бывшие сотрудники Meta, которые общались с NPR, предостерегли, что ИИ может не заметить серьезные риски, которые могла бы выявить команда людей.
Обновления и новые функции платформ Meta, включая Instagram и WhatsApp, долгие годы подлежали человеческой проверке перед тем, как стать общедоступными, но, по данным NPR, компания в последние два месяца сделала акцент на использовании ИИ. Теперь, по данным издания, продуктовые команды должны заполнять анкету о своем продукте и отправлять ее на проверку системе ИИ, которая, как правило, выдает "мгновенное решение", включающее выявленные области риска. Команды должны будут решить любые проблемы, указанные системой, прежде чем продукт сможет быть выпущен.
Бывший исполнительный директор Meta сказал NPR, что уменьшение контроля "означает создание более высоких рисков. Негативные последствия изменений продуктов с меньшей вероятностью будут предотвращены до того, как они начнут создавать проблемы в мире." В заявлении NPR Meta отметила, что все равно будет обращаться к "человеческому опыту" для оценки "новых и сложных вопросов", оставляя "решения с низким риском" на откуп ИИ. За пару дней до этого Meta выпустила свои последние квартальные отчеты по интегритету — первые после изменения своей политики модерации контента и проверки фактов в начале этого года. Количество удаленного контента, как и ожидалось, снизилось после изменений, однако наблюдается небольшой рост случаев запугивания и домогательства, а также насильственного и графического контента.
Управляющие Meta, похоже, решили, что искусственный интеллект — это не просто мода, а один из лучших шутников в бизнесе. Стратегия компании, напоминающая смесь киберпанка и палеолитической дипломатии, приводит к изрядной доле иронии. Так, вместо разумного анализа потенциального вреда от своих собственных продуктов, они намерены раздавать доверие невидимке в виде алгоритма.
Сократить количество человеческих рецензентов — это шикарный ход для сокращения затрат. Чудо-ИИ теперь будет решать все за вас, включая, но не ограничиваясь, вопросами безопасности молодежи и предотвращения насилия. Подумать только, вместо тщательной оценки и взвешенных решений — мгновенная справка от программного обеспечения, которое не знает, что такое этика и сочувствие.
Бывшие сотрудники компании, которые не наделены страстью к масochизму, обозначают риски, но, конечно, их мнения не приносят ничего, кроме тупого выражения лица на встречах с акционерами. Как ни странно, человеческий опыт все еще упоминается в контексте "новых и сложных вопросов", но его значимость внезапно смахивает на жалкие остатки с обеденного стола.
И вот, когда Meta обнародует отчет, где количество удаленного контента снизилось, а случаи запугивания и насилия возросли — случайное совпадение или проделки ИИ? Может, стоит спросить у компьютерной программы, как она ощущает себя среди людей? Или, возможно, алгоритм сам решит, что это не тот вопрос, который требует разбирательства.