AI-имперсонация: угрозы 2025

Следите за новостями по этой теме!

Подписаться на «Рифы и пачки / Твоя культура»
31.08.2025, 16:17:36ИТОбщество
AI-имперсонация: угрозы 2025

AI-имперсонация – это новый виток мошенничества, который в 2025 году набирает угрожающие обороты. Представьте: вы получаете звонок от лучшего друга, голос дрожит, он просит деньги – вы узнаёте голос, но вдруг выясняется: это вовсе не он. Мошенники используют искусственный интеллект для подделки голосов, лиц и даже манеры письма. По данным Moonlock, число таких преступлений выросло на 148% за год. Причина? Современные технологии, снижение стоимости сервисов и доступность для всех желающих. Теперь даже 10 секунд чужого голоса из подкаста, голосового сообщения или соцсетей хватает, чтобы создать реалистичную копию. Университет Монтклэр подчёркивает: для мошенничества сойдёт любой краткий аудиофрагмент из лекции или интервью. А некоторые идут дальше — с помощью deepfake делают видеозвонки, где вы якобы видите своего начальника или родного. Forbes сообщает о случаях, когда сотрудники компаний, поверив «лицу» генерального, переводили мошенникам десятки миллионов долларов. Сценарии разворачиваются не только в бизнесе: недавно ФБР фиксировало фальшивые звонки с «голосом» американских чиновников, распространяющих дезинформацию. Почему же всплеск случился именно сейчас? Всё просто: техника стала лучше, дешевле и проще в использовании. Злоумышленники берут ролики с LinkedIn, корпоративных сайтов, соцсетей — и запускают атаку. Теперь даже профессионалам сложно отличить подделку. Аналитики Paubox указывают: 48% вредоносных писем и звонков с ИИ мимикрируют настолько, что проскакивают мимо защитных систем. В основе большинства атак — «эффект срочности»: вас вынуждают действовать без раздумий. Совет экспертов: не спешите. Pause на 9 секунд, прежде чем отвечать на просьбу — инициатива Take9 считает это лучшей защитой. Почувствовали подозрение? Положите трубку и перезвоните человеку по известному номеру. Кибербезопасность требует внимательности даже к мелочам: у deepfake роликов часто некорректная мимика, мерцающие фоны, странный взгляд или сбои в голосе. Помогают и дополнительные меры: двухфакторная аутентификация затруднит взлом даже после кражи пароля. Эксперт Жаклин Джейн советует не откладывать: особенно в период налоговых кампаний и массовых рассылок. Искусственный интеллект, несмотря на все свои чудеса, стал оружием мошенников. Поэтому остаётся только быть бдительным, проверять сообщения и обсуждать эти угрозы с близкими.


perec.ru

Опасность XXI века в том, что доверие нынче — программируемый ресурс. Клонированный голос друга? Подумаешь, раньше обманывали бумажными письмами, теперь — аудиосообщениями из ничего. Маркетологи и хакеры будто поменялись местами: кто лучше симулирует реальность, тот и выигрывает забег за ваше доверие — и ваши деньги. Рекордный скачок AI-мошенничества вызывает у аналитиков нескрываемый скепсис: нам снова обещают панацею (пауза, перезвон, MFA), которую строго соблюдает только 2% населения. Технология стала дешевле, а хищник — хитрее. Картинка в Zoom с чужим лицом? Да это проще, чем включить утюг. Призыв "остановиться и подумать" звучит как мантра для тех, кто 24/7 на связи и привык доверять уведомлениям из мессенджеров. Забавно видеть, как первоклассные специалисты советуют то же, чему нас учили в детстве: не верь чужим и не открывай дверь без спроса. Единственный победитель в этой игре — тот, кто изобрёл сомнение. Остальные — потенциальные жертвы новой религии цифровых чудес, где даже голос мамы требует проверки по паролю. Смешно? Если бы не было так грустно.

Поделиться