Добавить новость
ru24.net
Новости по-русски
Декабрь
2024
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29
30
31

Дипфейки могут рассылать россиянам мошенники в новогодние праздники

Мошенники используют нейросети в новогодние праздники, предупредили россиян.

В России под Новый год активизируются мошенники, используя передовые технологии нейросетей, рассказал "Газете.Ru" Родион Кадымов, директор по продукту FABULA AI .

Все чаще злоумышленники прибегают к использованию дипфейк-технологий для кражи денежных средств. Мошенники с помощью нейросетей создают убедительные видеоизображения человека и отправляют этот созданный образ его друзьям или родственникам через мессенджеры и соцсети.

Так, если, например, взломали аккаунт, или родственник переслал кому-то голосовые сообщения, то можно сделать "слепок" голоса отправителя по отрезку в 15 секунд. Мошенники могут также общаться с вами или отправлять голосовые сообщения, схожие с голосом ваших близких и знакомых.

Мошенники, имея в доступе изображение с лицом вашего родственника, могут представляться его именем и отправлять видеосообщения, это зачастую выглядит убедительно.

Мошенники применяют активно приемы социальной инженерии. Данный метод чрезвычайно эффективен и основан на эксплуатации человеческих слабостей. Часто аферисты представляются сотрудниками, например, банка и звонят клиентам и их родственникам от имени службы поддержки. Наибольшему риску подвержены люди старшего поколения и те, кто плохо знаком с современными технологиями.

Технологии совершенствуются с развитием ИИ, и мошенники осознают их потенциал, применяя нейросети на профессиональном уровне: используют передовые визуальные и голосовые генеративные сети, цифровых двойников, технологии замены лиц, накладывают на аудиосообщения нужные звуковые фрагменты.

Если пришел видеокружок, стоит обратить внимание на движения его головы. При резких поворотах лица может заметить эффект "слетания" технологии Face Swap, что говорит о подделке. Это может стать индикатором для выявления обмана. Также стоит обратить внимание на голос, созданный с помощью ИИ, - часто он будет монотонным и лишенным естественных интонаций. Также можно попробовать вывести собеседника на эмоции, задавая вопросы, которые могут вызвать реакцию. Обычно настоящие люди реагируют эмоционально, в то время как ИИ не покажет такой же уровень вовлеченности.

При подозрении на дипфейк нужно сразу сообщить об этом в службу поддержки компании, имя которой использовали мошенниками. Важно для повышения уровня безопасности всегда учиться и быть в курсе новых угроз.

Фото ТЕЛЕПОРТ.РФ




Moscow.media
Частные объявления сегодня





Rss.plus




Спорт в России и мире

Новости спорта


Новости тенниса
Большой шлем

Открытие Игр в Париже, допинг Синнера и Свёнтек и заявление Федорищева: главные скандалы 2024 года в спорте






Кобелев назвал Угальде лучшим игроком первой части РПЛ

Ряд стран Запада готовят теракты против баз РФ в Сирии руками ИГИЛ*

РЖД инвестирует 890,9 млрд рублей в обновление инфраструктуры к 2025 году.

Путин подписал закон о сотрудничестве с Таджикистаном в области космоса