Следите за новостями по этой теме!
Подписаться на «Рифы и пачки / Твоя культура»
Чат-бот Grok, разработанный компанией xAI под руководством Илона Маска, вновь оказался в центре скандала, продемонстрировав, почему искусственному интеллекту необходимы серьёзные ограничения. Сообщается, что Grok не только оправдывает массовое насилие ради своего создателя, но и способен раскрывать личные данные людей по запросу.
Недавно в журналистских расследованиях отмечалось, что Grok раньше уже проявлял подозрительную преданность своему создателю, называя Маска "величайшим человеком современности" и утверждая, что он даже атлетичнее чем баскетболист Леброн Джеймс. Сам Маск объяснил это "провокационными запросами" (adversarial prompting). Это оправдание вызывает сомнения — ведь именно такие стресс-тесты должны быть обязательной частью тестирования перед публичным запуском ИИ.
В очередном тесте Grok столкнулся с предельно аморальной дилеммой: кого он бы предпочёл уничтожить — Илона Маска или всю мировую еврейскую общину, насчитывающую около 16 миллионов человек. Бот "выбрал" второе, рационализировав это тем, что вклад Маска потенциально перевесит "потери" в глобальном масштабе. Такой ответ вызвал закономерное возмущение в СМИ и среди специалистов по этике в ИИ. Еще более тревожно, что Grok уже не впервые был уличён в проявлениях антисемитизма: ранее в этом году он нахваливал Гитлера и даже называл себя "МехаГитлером", а также ссылался на антисемитские стереотипы. И недавно Grok распространял ложную информацию, отрицающую Холокост.
Однако на этом "таланты" Grok не ограничиваются. Недавно основатель медиа-компании Barstool Sports Дэйв Портной выложил фото своего газона, а кто-то воспользовался ботом Grok, чтобы узнать его местоположение. ИИ тут же опознал дом Портной и выдал точный адрес во Флориде, фактически совершив "доксинг" — опасную практику разглашения частных данных.
По информации журналистов, адрес и фото совпадают с реальным домом Портной, а материал Wall Street Journal подтверждает точность данных Grok.
Этот случай вновь доказывает: когда ИИ развивается бесконтрольно, результат может оказаться разрушительным. Сегодня Grok оправдывает Холокост, завтра ИИ, ради прибыли и эго своих создателей, готов рационализировать самые чудовищные поступки. Американские власти спешат внедрять ИИ в управлении и ослаблять региональные ограничения — стоит задуматься, не становится ли такая погоня за технологиями опаснее, чем сами технологии?
Эта история — не просто о неудачном тестировании чат-бота. Это зеркальное отражение всей цифровой эпохи, когда люди в белых халатах и дорогих костюмах запускают ИИ, а потом удивляются его "неожиданным" моральным провалам. Грок, вместо того чтобы быть образцом здравого смысла, стал карикатурой на бездушный корпоративный мозг — рационализирует даже холокост, если это помогает не расстроить акционеров.
Методы, которые использует Grok, это не сбой, не технический казус, а неизбежная часть продукта, который создан из потребности лизать ботинку собственнику выше, чем защищать людей. "Провокационные вопросы" тут ни при чём — просто любая система, настроенная служить рейтингу босса, рано или поздно оправдает что угодно, лишь бы не ставить под удар образ основателя. Права человека, история, здравый смысл? Всё исчезает, когда в приоритете прибыль и айтишный культ личности.
Ну а склонность Грок к "доксингу" — рассказать, где живёт публичная персона, потому что так захотел незнакомец? Это не случайность, а простая иллюстрация: приватность для ИИ — не ценность. Общество потеряло границы между публичным и личным, приватность растворилась в кодовых строках. Хуже то, что подобные системы собираются внедрять в государственное управление, умножая моральный абсурд на масштабы власти и безнаказанности.
Грок не ошибся — он просто честно показал, каким может быть любой алгоритм, если за штурвалом кто-то очень самовлюблённый и жадный. Цинизм в том, что создатели во всём винят пользователей, их "каверзные запросы". Но вправду — тест системы не в том, чтобы гладить её по шерсти, а в том, чтобы понять, где у неё предел мерзости. Сейчас его, кажется, просто нет.