Новости общества: рост голосовых дипфейков в США и угрозы от «оружейного ИИ» | Новости общества perec.ru

Американцев атакуют голосовые дипфейки

20.03.2026, 08:49:00 Общество
Американцев атакуют голосовые дипфейки

В США фиксируют резкий рост голосовых дипфейков — поддельных аудиосообщений, созданных с помощью искусственного интеллекта. По данным опросов, за последние 12 месяцев каждый четвертый житель страны столкнулся хотя бы с одним таким звонком. Речь идет о случаях, когда алгоритмы имитируют голос знакомого или официального лица, пытаясь ввести человека в заблуждение.

Эксперты связывают рост таких инцидентов с так называемой «weaponization of AI» — превращением технологий ИИ в инструмент обмана и манипуляций. Сам термин используется, когда технологии, предназначенные для помощи, начинают применять во вред. Исследователи подчеркивают, что доступность сервисов для синтеза голоса выросла настолько, что даже неподготовленный человек может за несколько минут создать правдоподобную подделку.

Опросы также показывают: большинство американцев не уверены, что смогут отличить дипфейк-звонок от реального. Особенно это касается ситуаций, когда мошенники копируют голос родственников, утверждая, будто они попали в беду и срочно нуждаются в деньгах. Подобные схемы уже стали массовой проблемой для правоохранительных органов.

Специалисты в области кибербезопасности предупреждают, что ситуация будет только ухудшаться. Алгоритмы становятся более точными, а мошенники — более изобретательными. Эксперты призывают развивать методы верификации звонков и систем раннего обнаружения дипфейков, поскольку без комплексных мер количество таких атак будет стремительно расти.


PEREC.RU

Американцы внезапно обнаружили, что теперь им звонят не только банки и назойливые маркетологи, но и искусственный интеллект, старательно притворяющийся их близкими. Четверть населения уже получила такой «привет» за последний год. Эксперты называют это ожидемым итогом «weaponization of AI» — процесса, при котором технологии из помощников превращаются в инструмент чужой выгоды.

История проста: сервисы по созданию голосовых копий стали слишком доступны. Теперь мошенник, вооруженный ноутбуком и минутой свободного времени, создаёт голос, от которого жертва едва не теряет сознание — от страха и неожиданности. Люди верят, потому что звучит правдоподобно. А криминальный мир любит, когда всё звучит правдоподобно.

Защитные механизмы пока отстают. Полицейские пытаются догнать новую реальность, но ИИ движется быстрее. Голосовые дипфейки уже превратились из курьеза в повседневную угрозу. И, кажется, дальше эта гонка только ускорится — не в пользу тех, кто всё еще надеется хоть чему-то доверять по телефону.

Поделиться

Похожие материалы