В российском правовом поле может появиться новая мера противодействия цифровым угрозам. Депутат Госдумы Амир Хамитов от партии "Новые люди" выступил с законодательной инициативой о введении административной ответственности за распространение видеороликов, сгенерированных искусственным интеллектом, которые выдают за реальные события.Соответствующее предложение уже направлено на рассмотрение в Министерство цифрового развития, связи и массовых коммуникаций РФ, сообщил телеканал "Москва 24".Наказание будет применяться не ко всем ИИ-видео, а только к тем случаям, когда удастся доказать умысел автора ввести аудиторию в заблуждение, а также если распространение такого контента привело к негативным последствиям.Речь идёт, например, о фальшивых видеозаписях дорожных происшествий, терактов или других шокирующих событий, которые могут спровоцировать панику. К тому же такие видео могут заставить правоохранительные органы и экстренные службы запускать бесполезные проверки, которые тратят бюджетные средства и рабочее время.В качестве санкции за подобные нарушения парламентарий предлагает установить административные штрафы. Для граждан их размер может составить от 1 000 до 5 000 рублей. Основная цель этих мер — не просто наказать нарушителей, но и компенсировать ущерб, который был нанесён государственным службам, а также усилить борьбу с дезинформацией.Как нейросеть маскируется под настоящее видеоПроблема реалистичности фейкового контента особенно актуальна на фоне стремительного развития технологий. Яркий пример — нейросеть Sora2, которая способна создавать слишком правдоподобные видео.По данным Life.ru, разработчики пытаются бороться со злоумышленниками и при сохранении видео отображаются водяные знаки нейросети. Однако на практике эти метки легко удаляются с помощью специальных программ и других нейросетей, что позволяет мошенникам беспрепятственно выдавать фейки за реальные события.Видеосообщения-"кружки" / Telegram-канал "Сгенерировано ИИ"Наряду с новыми нейросетями у кибермошенников пользуются популярностью и другие схемы с видео.Так, эксперты компании BI.ZONE в беседе с "Коммерсантом" отмечают всплеск новой схемы обмана с использованием поддельных видеосообщений в Telegram. Чтобы завоевать доверие жертвы, мошенники взламывают аккаунт знакомого человека, а затем отправляют в диалог сгенерированный нейросетью видеоролик, где подставное лицо обращается к пользователю с просьбой.По словам Алексея Лужнова, руководителя управления по противодействию мошенничеству BI.ZONE, многие люди подсознательно доверяют видео с близкими или коллегами, что и играет на руку преступникам.Для большей убедительности злоумышленники сопровождают такие видео фальшивыми фотографиями и документами, создавая целую легенду и подталкивая жертву к срочному переводу денег.Как защитить себя и близких от видео нейросети"Вся эта история с ИИ-видео — это не повод для паники, а сигнал к тому, что наша цифровая бдительность должна стать строже. Технологии обмана стали доступны каждому, а значит, доверять нужно не глазам, а проверенным каналам связи", — считает IT-специалист компании "Сфера" Андрей Глибичук.По его словам, в финансовых вопросах нужно включать "режим параноика".Самое главное правило: никогда не реагируйте на просьбы о деньгах или конфиденциальных данных в режиме реального времени, какой бы срочности ни был тон сообщения."Ваш друг или родственник в панике по видеосвязи? Прервите разговор и перезвоните ему по номеру телефона, а не в мессенджерах. 99% мошеннических схем рушатся на этом простейшем действии", — предупредил программист.Андрей также рекомендует создать с близкими "слово-пароль". Это вовсе не шпионская игра, а эффективный механизм безопасности. Стоит заранее договориться в семье и с близкими друзьями о кодовом слове или фразе, которую будете использовать в сообщениях или при разговоре, чтобы подтвердить личность."Учитесь видеть "цифровые артефакты". Хотя дипфейки стали очень качественными, они ещё не идеальны. Обращайте внимание на детали: взгляд собеседника часто бывает "стеклянным" или не фокусируется на объекте, а также ИИ всё ещё плохо воспроизводит естественный ритм моргания", — добавил эксперт.По словам специалиста, контуры волос или очки могут "плыть" и сливаться с фоном, а неестественное падение теней на лицо — частый признак подделки."Защитите свои цифровые следы. Чем больше ваших фотографий и видео в открытом доступе, тем качественнее мошенник сможет создать ваш дипфейк. Пересмотрите настройки приватности в соцсетях, ограничьте круг лиц, которые видят ваши фотоальбомы. Не выкладывайте в публичный доступ видео, где вы эмоционально говорите, — это идеальный материал для обучения нейросети", — резюмировал программист.Напомним, юрист рассказал о том, как распознать аккаунт мошенника в Telegram.Ранее стало известно, как проверить телефон на слежку и что сделать, если "что-то вредоносное к вам прокралось".Дарья Клименко