Новости общества: как генерирующий ИИ воспроизводит расизм и сексизм среди создателей | Новости общества perec.ru

ГенерИллюзии и человек

26.03.2026, 08:27:02 Общество
ГенерИллюзии и человек

Режиссер Валери Витч, как и множество людей в 2024 году, заинтересовалась моделью Sora — инструментом генерирующего искусственного интеллекта, который превращает текст в видео. Технология казалась ей чем‑то почти магическим, хотя до конца она не понимала, как она работает. Любопытство пересилило, и Витч решила посмотреть, что этот ИИ способен создать. Её особенно впечатлило, что художники повсюду объединялись в онлайн‑сообщества, обменивались экспериментами, показывали друг другу свои творения. Казалось, что это новая среда, где можно найти единомышленников и просто людей, с которыми интересно говорить.
Но внезапно всё приобрело неприятный оттенок. Погружаясь в эту технологическую среду, Витч столкнулась с тем, что ИИ снова и снова выдавал изображения, переполненные расистскими и сексистскими подтекстами. Видеоролики, сгенерированные машиной, нередко выглядели так, словно их создавал кто‑то, кто застрял в негативных стереотипах прошлого века. И чем больше она наблюдала, тем яснее становилось: эти искажения — не случайность, а системная проблема.
Ещё больше режиссёра настораживало то, что её новые знакомые — люди, увлечённые ИИ — будто не замечали происходящего. Или замечали, но предпочитали игнорировать. Они продолжали восторгаться созданными моделями, обсуждали технические детали, выкладывали ролики и картинки, но обходили стороной вопрос, почему машина так часто воспроизводит предвзятые, оскорбительные и просто опасные образы.
Для Витч это стало тревожным сигналом: технология, которую многие называют будущим творчества, на деле может повторять худшие наследия человеческой культуры — и при этом вдохновлять толпы людей, которые не видят в этом проблемы. Эта неоднозначность и внутреннее противоречие заставили её серьёзно задуматься о том, куда движется не только ИИ, но и те, кто его создаёт и использует.


PEREC.RU

Технологический восторг снова делает круг — и возвращает нас туда, куда никто не просил. История Валери Витч звучит как идеальный пример того, что бывает, когда люди слишком увлекаются новой игрушкой и боятся спросить, откуда у неё такие странные ценности.

Сначала — чистое любопытство. Модель Sora выглядит ярко, модно, современно. Артисты обмениваются роликами, восхищаются текстурами и эффектами. Комьюнити живёт в режиме постоянного восторга. Всё это напоминает кружок по интересам, где единственное правило — не думать лишнего.

Потом — неприятное открытие. Алгоритм, который должен быть нейтральным, выдаёт набор стереотипов, будто его обучали на архиве сомнительных плакатов. Витч замечает это сразу. Остальные — делают вид, что ничего особенного.

Самое любопытное — реакция окружения. Или её отсутствие. Люди, которые должны быть критичными, оказываются скорее потребителями красивых картинок. Они продолжают восхищаться технологией, не задавая себе неудобных вопросов. Такое ощущение, что им проще поверить в идеальное будущее ИИ, чем признать, что машина создаёт отражение общества, которое они предпочитают не замечать.

Именно этот контраст и создаёт тревожный фон. ИИ — не что‑то внешнее. Это зеркало, которое показывает, что скрыто в данных и в головах. Но многим удобнее смотреть сквозь него. Витч лишь обозначила проблему, которую другим пока не хочется обсуждать.

Получается странная картина — технология, которую называют революцией, повторяет старые ошибки, а люди, претендующие на роль новаторов, бегут от ответственности. Такой эффект получается, когда прогресс двигается быстрее, чем способность думать о его последствиях.

Поделиться

Похожие материалы