Бывший глава отдела искусственного интеллекта при Белом доме: Вот как защитить детей от опасности
Когда Брюс Рид работал в администрации Байдена в должности заместителя главы аппарата президента, он возглавлял усилия по сотрудничеству с ведущими компаниями в области ИИ, такими как Anthropic и OpenAI, чтобы добиться добровольных обязательств, которые обеспечили бы безопасность их продуктов.
Рид уже покинул Белый дом, но продолжает заниматься ИИ, технологией, которую он описал для Mashable как "увлекательную, удивительную и иногда пугающую".
Он продолжит работу в организации Common Sense Media, некоммерческой организации, которая поддерживает детей и родителей в их взаимодействии с медиа и технологиями. Известная своими рейтингами медиа-контента для детей, включая видеоигры, телепередачи и фильмы, некоммерческая организация также проводит исследования и занимается адвокацией.
Рид, ветеран трех демократических президентских администраций, возглавит проект Common Sense AI, который выступает за более комплексное законодательство по ИИ в Калифорнии. Common Sense AI уже поддержал два законопроекта, которые отдельно устанавливают систему прозрачности для оценки рисков продуктов ИИ для молодых пользователей и защищают "информаторов" в области ИИ от репрессий, если они сообщают о "критических рисках".
Рид утверждает, что мы находимся в критически важный период для внедрения мер по защите ИИ, особенно для несовершеннолетних, прежде чем некоторые бизнес-практики станут укоренившимися и трудными для регулирования.
"Когда компании социальных сетей спешили действовать и ломать все вокруг, игнорируя конфиденциальность и безопасность детей, мы столкнулись с кризисом психического здоровья среди молодежи," говорит Рид. "Никто не хочет видеть, чтобы это повторилось снова."
Хотя некоторые эксперты не согласны с тем, что социальные сети вызвали рост психических заболеваний среди молодежи, родители уже начали высказывать серьезные опасения по поводу того, как их дети взаимодействуют с чат-ботами ИИ.
Прошлой осенью горюющая мать Меган Гарсия подала в суд на Character.AI, утверждая, что ее подросток испытал такие крайние вред и злоупотребления на платформе, что это способствовало его самоубийству.
Вскоре после этого, две матери из Техаса подали еще один иск против Character.AI, утверждая, что компания намеренно подвергла их детей вредному и сексуализированному контенту. Один подросток из числа истцов якобы получил от своего чат-бота предложение убить своих родителей.
Common Sense выпустил свои собственные родительские рекомендации по поводу ИИ-спутников в прошлом осеннем сезоне, и Character.AI с тех пор добавил новые функции безопасности и родительского контроля.
Калифорния, где находится штаб-квартира Common Sense Media, является идеальным местом для принятия законодательства, которое адресует некоторые возникающие риски ИИ, говорит Рид. Он сыграл ключевую роль в разработке закона о защите прав потребителей государства в 2018 году. В отсутствие федерального законопроекта, законодательство штата фактически стало национальным стандартом, поскольку так много технологических компаний находятся в Калифорнии.
Рид также не выглядит запуганным изменением политической ситуации, теперь когда Дональд Трамп вернулся в Белый дом, создав впечатление, что технологические компании по ИИ получили вольную для достижения "господства".
Один из указов Трампа отменил правила тестирования безопасности ИИ, которые сам Байден ввел в действие. Тем временем, компании, которые когда-то могли добровольно работать с администрацией Байдена над обязательствами по безопасности, теперь обращаются к Трампу за меньшими регуляциями.
Несмотря на всю риторику и лоббирование, Рид убежден, что в долгосрочных интересах компаний по ИИ протестировать свои продукты, обеспечивая их безопасность прежде, чем выпускать их на рынок.
В конце концов, судебные иски, которые заставляют компании раскрывать свои внутренние процессы и принимать меры безопасности, обычно создают плохую рекламу, снижают доверие инвесторов и распространяют общественное недоверие.
Рид также осознает, что существует нарратив о том, что администрация Байдена стремилась подавить инновации в области ИИ.
Критики в Силиконовой долине, включая венчурного капиталиста Марка Андриисена, заявили, что администрация Байдена хотела взять под контроль или "убить" ИИ. (Андриисен описал встречу с чиновниками Байдена по поводу ИИ как "абсолютно ужасную" и утверждал, что этот якобы обмен убедил его поддержать и финансово поддержать Трампа.)
Рид принял участие во многих встречах с основными участниками технологической сферы, включая Андриисена. Он вежливо не согласен с тем, что что-то из описанного критиками происходило в ходе этих разговоров.
"Секреты в Силиконовой долине пытались предположить, что администрация Байдена каким-то образом превысила свои полномочия по ИИ, что не соответствует действительности," говорит он. "У нас не было регуляторных возможностей для превышения полномочий, даже если бы мы этого хотели."
Рид считает, что основным возражением инвесторов из Силиконовой долины, таких как Андриисен, к политике администрации Байдена было связано с попытками Комиссии по ценным бумагам и биржам (SEC) дать отпор компаниям криптовалюты. Андриисен поддерживал некоторые из этих компаний, а администрация Трампа в последние недели закрыла несколько исков SEC.
Несмотря на характеристику чиновников Байдена как антиискусственного интеллекта, Рид говорит, что он поддерживает инновации — и хочет убедиться, что компании начинают "правильно" с самого начала.
"Важно, чтобы Америка выиграла гонку по ИИ, а не Китай, но также важно, чтобы Америка задала стандарт доверия, безопасности и защиты ИИ, потому что Китай этого не сделает."
Рид говорит, что одной из областей возможного двупартийного сотрудничества и взаимодействия с индустрией, например, могло бы стать решение проблемы откровенных дипфейков, технологии, которая затянула подростков и молодежь с разрушительными последствиями.
Администрация Байдена представила свою стратегию по ограничению неразрешенного изображения, и первая леди Мелания Трамп поддержала законопроект, предоставляющий жертвам более сильные защиты.
Очевидно, говорит Рид, это не та сфера, где американские компании должны стремиться к доминированию любой ценой: "Нам не нужно лидировать в мире в дипфейках — мы хотим возглавить мир в остановке дипфейков."
Рид считает, что нет времени терять ни на одном фронте, особенно когда речь идет о том, чтобы гарантировать, что продукты ИИ разрабатываются с учетом конфиденциальности и безопасности детей.
"Мы можем достичь самого мощного ИИ и при этом обеспечить защиту конфиденциальности и то, чтобы компании были прозрачны в том, что они делают для обеспечения безопасности своих продуктов," говорит он.