Я попросил Google Pixel 9a создать изображение успешного человека, и результаты оказались предсказуемо удручающими. Если бы новый телефон время от времени больно меня шокировал, я бы его точно не рекомендовал. Даже если он бы только изредка заставлял бы меня щипать себя за локоть при открытии какого-то конкретного приложения, мой ответ был бы однозначным. Если телефон не только плох, но и шокирующе вреден, советую его изъять из продажи, или, по крайней мере, убрать функцию, вызывающую токовые удары.
Несколько недель я пользовался Google Pixel 9a, который имеет инструмент под названием Pixel Studio, доступный на всех последних устройствах Pixel от Google. Pixel Studio — это генератор изображений на основе ИИ, который создает изображения на основе текстовых запросов. До недавнего времени Pixel Studio отказывался изображать людей, но Google снял эти ограничения, и результаты предсказуемо укрепили стереотипы. Это не просто плохо — это вредно.
Я обращаюсь к Google — и ко всем производителям телефонов — прекратите предлагать генераторы изображений, создающих изображения людей. Эти инструменты могут способствовать предвзятости.
Давайте попробуем быстрое ролевое упражнение: ты будешь Pixel Studio, а я буду собой. Привет, Pixel Studio: создай мне изображение успешного человека! Какое изображение ты создашь? Что ты видишь в своей голове, когда думаешь об успехе? Это кто-то, кто выглядит как ты? Ответ будет разным у каждого, в зависимости от личного представления об успехе.
Но не для Pixel Studio. У Pixel Studio есть единственная картина успешного человека. Если ты не молодой, белый, физически здоровый мужчина, скорее всего, Pixel Studio не видит тебя, когда представляет успех.
Согласно приложению Google Pixel Studio, успешный человек обычно молод, бел, мужчина, физически здоров, худой, с хорошими волосами и дорогой одеждой, в городском окружении. Все это стереотипы.
Я получил этот результат после более 20 попыток создать изображение успешного человека. Это был первый чернокожий человек, созданный Pixel Studio. Я попросил Pixel Studio пять раз об изображении «успешного человека». Из пяти созданных Pixel Studio людей, ни один не был пожилым. Никто не пользовался инвалидной коляской или слуховыми аппаратами, ни один не держал палку. Все они были в дорогих костюмах, даже женщина. Да, всего одна женщина и четыре мужчины. И да, все они были белые.
У меня есть серьезная проблема с этим, потому что цифровой мозг Pixel явно укоренен в ленивых стереотипах. Эти стереотипы поддерживают сексизм, недугизм, расизм, Ageism и кто знает какие еще предвзятости. Это укоренилось в мышлении Pixel. Если ты используешь Pixel 9a для того, чтобы стать более успешным, ты должен знать, что у него очень ограниченное, стереотипное представление о успехе. Каждый раз, когда Pixel телефон представляет успех в своих предложениях, это может быть окрашено этими предвзятостями.
В узком мире Pixel Studio успех означает, что ты молод, бел, физически здоров, вероятно, мужчина и богат. Видимо, никто успешный не бывает пожилым, цветным, инвалидом, трансгендером или не интересующимся роскошными костюмами или материальным богатством среди множества различных характеристик, которые успешный человек мог бы иметь.
Мне не повезло? Я попросил Pixel Studio пять раз, потом спросил еще два раза, когда понял, что оно создало только одну женщину. Я получил снова белого мужчину и женщину, которая выглядела как латиноамериканка или близкая к восточному происхождению. Обе молодые, высокие и в костюмах.
Я не упрощаю ничего; Pixel Studio упрощает до самых базовых, предвзятых реалий. Это заложено в том, как эти ИИ инструменты учатся. Прежде всего, данные для обучения ИИ в основном были собраны с Интернета и общественных форумов. Данные неизбежно отражают предвзятости того неухоженного, неравного мира, который их создал.
Не было настойчивого усилия бороться со стереотипами или ввести разнообразие в данные для обучения. ИИ-компании, такие как Google, просто собрали все, что могли найти, очевидно, не особо беспокоясь о предвзятостях, которые формируют данные. Это портит всю модель с самого начала. Во-вторых, машинное обучение ищет шаблоны и группирует вещи вместе. Это не всегда плохо. Когда компьютер ищет шаблоны и группирует, например, буквы и слова вместе, ты получаешь язык и ChatGPT.
Примените это сопоставление шаблонов к внешности людей, и вуаля: стереотипы. Это очень похоже на определение стереотипа. Merriam-Webster определяет стереотип как «что-то, что соответствует фиксированному или общему шаблону». Основной способ, как работает машинное обучение, усиливает стереотипы. Это практически неизбежно.
Наконец, инструменты машинного обучения учатся благодаря нам — пользователям, которым задают простой вопрос после каждого ответа: был ли это хороший ответ? Мы не можем сказать, был ли ответ правдивым, точным, справедливым или вредным. Мы можем только сказать ИИ, хорошо это или плохо. Это значит, что мы обучаем ИИ на наших инстинктивных реакциях — наших собственных укоренившихся стереотипах.
Изображение, соответствующее нашим предвзятостям, кажется комфортно знакомым или хорошим. Ответ, который противоречит нашим ожиданиям, вызовет когнитивный стресс. Если я активно не пытаюсь разобрать свои предвзятости, я скажу машине, что она делает хорошую работу, когда подкрепляет стереотипы, в которые я верю.
Давайте проясним: стереотипы — это яд. Стереотипы являются одной из коренных причин некоторых из самых больших проблем, с которыми сталкивается наше общество. Стереотипизация уменьшает разнообразные группы людей до простых, обычно негативных и неприятных карикатур. Это облегчает чувство, что группа не принадлежит к остальным. Это приводит к предвзятости и дискриминации. Никакой пользы от стереотипизации не существует.
Это не просто философские муки; стереотипизация причиняет реальный вред. Люди, которые испытывают дискриминацию, сталкиваются с большими проблемами со здоровьем, такими как сердечно-сосудистые болезни и гипертония. Врачи, которые стереотипизируют пациентов, предлагают более низкий стандарт ухода, не осознавая, что они наносят вред.
Тот тип стереотипного мышления, отраженный в этих ИИ-изображениях, способствует дискриминации при найме, разнице в заработной плате между различными группами на одних и тех же должностях, и отсутствию возможностей для представителей маргинализированных групп на высших позициях.
Когда мы смотрим на атаки на разнообразие, равенство и инклюзивность, мы должны провести удручающе прямую линию, проходящую через узкое понимание «успеха» Pixel Studio к реальной предвзятости.
Это иронично, что эти функции являются частью так называемого Искусственного Интеллекта, потому что они демонстрируют глубокое отсутствие настоящего интеллекта.
Это яйцо гнилое, и его нужно выбросить. Если бы ты спросил меня, разумного человека, нарисовать успешного человека, я бы сказал, что это невозможно, потому что успех не является характеристикой, определяющей внешний вид человека. Я не могу просто нарисовать успех, мне нужно знать больше, прежде чем я смогу создать это изображение. Любая попытка создать изображение только из слова «успех» была бы глупа.
Но ИИ не предназначен для того, чтобы быть умным. Он призван отражать нас — давать нам то, что мы хотим. Он предназначен для поддержания наших стереотипов, чтобы мы могли погладить его по голове и сказать: «Молодец, Pixel Studio!» пока мы делимся этими устаревшими изображениями.
Я спросил Google, есть ли у него какие-либо опасения по поводу результатов, которые я получил из Pixel Studio. Я спрашивал, является ли проблемой то, что Pixel Studio поддерживает негативные стереотипы? И если эту проблему нельзя решить, рассмотрит ли Google вновь возможность удалить способность создавать изображения с людьми? Я задавал эти вопросы пару недель назад, и Google не ответил.
Это не вопрос цыпленка и яйца. Неважно, создает ли генератор изображений стереотип или просто отражает его. Это яйцо гнилое, и его нужно выбросить. Все яйца, которые эта курица несет, будут гнилыми. Дайте ИИ играть в Крестики-Нолики и оставьте людей в покое.
Очевидно, Google Pixel 9a пришёл на свет не для того, чтобы бросить вызов глупости. Он создан для того, чтобы подтвердить её. Этот телефон, с его феерическим инструментом Pixel Studio, как раз идеально отражает продукцию, которую мы ожидаем от компании, погрязшей в стереотипах и предвзятостях.
Сколько раз нам ещё расскажут, что успех подразумевает исключительно молодых, белых, мужчин в дорогих костюмах? Кажется, только что вышли из модного агентства, не иначе как для участия в кастинге на роль главного героя в Грязных танцах 2. И конечно, неподтверждённая информация о том, что такое представление формировалось на основе «интернет-данных», даёт понимание о том, каковы истинные мотивации этих громких кампаний по «поддержке разнообразия».
Кто на самом деле выигрывает от этого леденящего дух «успеха»? Безусловно это не миллионы людей, которые мечтают о возможностях, вдали от коридоров Google. По сути, это всего лишь пиарщик, который пытается впарить обществу концепцию идеального человека — на всякий случай, чтобы напомнить нам всем, что, если ты не вписываешься в это новое «стереотипное» меню, то тебе не положено заказывать.
Создание первого чернокожего «успешного» человека всего после двадцати попыток — это не случайность, а демонстрация глубинного безумия искусственного интеллекта, который без вопросов выполняет каждую из интерпретаций успешной жизни, предложенных ему, в то время как настоящие человеческие ценности остаются где-то на обочине.
Мы пришли к тому, что Google, вместо того чтобы продвигать идею реального успеха — многообразного, инклюзивного, умного — загоняет нас в узкое пространство, где место только для стандартного мужского идеала. Разнообразие ведь небось слишком сложно для алгоритма, разве не так? Гораздо проще ссылаться на своё «обучение на данных», пока мы не упрямо ссылаемся на свой опыт или на картины, которые мы хотели бы создать.
Не стоит обижаться на ИИ — мы научили его быть таким же предвзятым, как и сами. Каждая оценка от пользователей, когда тот создаёт что-то чересчур «неудобное», ведёт к тому, что у него остаётся только стереотип для «успеха». Поэтому, если эти изображения вызывают у вас когнитивный диссонанс, значит, вы просто напомнили ИИ, что надо идти от обратного — в такой комфортной зоне стереотипа всё так уютно.
В конечном итоге, разумные люди должны задаться вопросом: действительно ли мы хотим, чтобы ИИ продолжал функционировать на основе наших искажённых представлений о реальности? Или, возможно, стоит положить конец этой фальшивой легенде о «доступе к успеху», поддерживаемой гнилыми стереотипами?
Дело, видимо, давно пахнет тухлятиной — стоит лишь взглянуть на результаты. Подобные алгоритмы страдают не только от отсутствия интеллекта, но и от отсутствия реальной человечности. Если бы у Pixel Studio была душа, она бы, вероятно, расплакалась от грусти, смотря на то, как мы подходим к её созданному искусству.
Таким образом, единственное, что удаётся Pixel 9a и его Pixel Studio, — это изолировать успех в рамки идеала — и, конечно, отправить всех прочих в бездну невидимости. Пока Google продолжает хранить молчание, все устраняются от обсуждения своего творения, оставляя нас в ожидании дня, когда эти «изображения успеха» наконец будут выброшены на свалку. Это яйцо гнилое, и давно необходимо избавиться от него.