Эксперт Кадыров: мошенники под Новый год активизируются, используя нейросети
В России мошенники под Новый год активизируются, используя передовые технологии нейросетей, рассказал "Газете.Ru" Родион Кадымов, директор по продукту FABULA AI .
Злоумышленники все чаще прибегают к использованию дипфейк-технологий для хищения денежных средств. Благодаря нейросетям мошенники создают убедительные видеоизображения человека, а затем отправляют этот созданный образ его друзьям или родственникам через мессенджеры и социальные сети.
"Если, например, аккаунт взломали, или ваш родственник переслал кому-то голосовые сообщения, то по отрезку в 15 секунд можно сделать "слепок" голоса отправителя. Также мошенники могут общаться с вами или отправлять голосовые сообщения, схожие с голосом ваших знакомых и близких. Даже если вы слышите в голосовом знакомый голос, не теряйте бдительность", — отметил он.
Имея в доступе изображение с лицом вашего родственника, мошенники могут представляться его именем и отправлять вам видеосообщения в Telegram, зачастую это выглядит убедительно. Вы просто видите лицо, которое говорит голосом вашего родственника, но видео может быть сделано при помощи технологии Face swap, сказал эксперт.
Мошенники активно применяют приемы социальной инженерии. Этот метод основан на эксплуатации человеческих слабостей и чрезвычайно эффективен. Часто мошенники представляются сотрудниками, например, банка и звонят клиентам и их родственникам от имени службы поддержки. Наибольшему риску подвержены те, кто плохо знаком с современными технологиями, и люди старшего поколения.
"С развитием ИИ технологии совершенствуются, и мошенники осознают их потенциал, применяя нейросети на профессиональном уровне: используют цифровых двойников, передовые визуальные и голосовые генеративные сети, технологии замены лиц (face swap), и накладывают нужные звуковые фрагменты на аудиосообщения, такие как голосовые сообщения в Telegram", — пояснил эксперт.
Проверяйте все электронные письма и аккаунты. Если мошенники представляются сотрудниками банка, они могут отправлять сообщения от имени службы поддержки. В таких случаях важно помнить, что техническая поддержка редко делает первый шаг. Любые неожиданные обращения должны вызывать подозрения. Не стоит отвечать на такие письма, так как они могут быть фишинговыми.
"Если вы столкнулись с мошенником, который отправляет видеокружок, обратите внимание на движения его головы. При резких поворотах лица может возникнуть эффект "слетания" технологии Face Swap, что может свидетельствовать о подделке. Это может быть полезным индикатором для выявления обмана. Обратите внимание на голос, созданный с помощью ИИ — он часто будет монотонным и лишенным естественных интонаций. Это может быть признаком подделки. Также попробуйте вывести собеседника на эмоции, задавая вопросы, которые могут вызвать реакцию. Настоящие люди обычно реагируют эмоционально, в то время как ИИ может не показать такой же уровень вовлеченности", — рассказал Кадымов.
При подозрении на дипфейк сразу сообщите об этом в службу поддержки компании, имя которой было использовано мошенниками. Для повышения уровня безопасности важно всегда учиться и быть в курсе новых угроз, резюмировал он.