Добавить новость
ru24.net
Все новости
Декабрь
2024
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27
28
29
30
31

ИИ способен создавать тысячи вредоносов с низкой вероятностью обнаружения

Эксперты Palo Alto Networks в ходе исследований выяснили, что большие языковые модели (LLM) могут быть использованы для массовой генерации новых вариантов вредоносного JavaScript-кода, что значительно затрудняет их обнаружение. В рамках эксперимента исследователи использовали LLM для переписывания существующего кода и добились создания 10 000 новых версий без изменения их функционала.

«Хотя с помощью LLM сложно создать вредоносное ПО с нуля, преступники могут легко использовать их для переписывания или обфускации существующего вредоносного кода, что в итоге затруднит его обнаружение», — пишут исследователи.

Вредоносный код был преобразован с помощью методов, таких как переименование переменных, вставка случайных строк, удаление пробелов и полная реимплементация кода. Эти изменения не только усложняли анализ, но и снижали вероятность выявления таких скриптов системами машинного обучения.

Согласно исследованию, модели вроде Innocent Until Proven Guilty и PhishingJS ошибочно классифицировали переработанный код как безвредный в 88% случаев. Более того, загруженные на платформу VirusTotal, такие скрипты также обманули анализаторы, избегая обнаружения.

Одним из преимуществ использования LLM для обфускации является то, что переписанный код выглядит более естественно, чем при применении стандартных инструментов вроде obfuscator.io. Это делает его ещё сложнее для отслеживания.

Эксперты предупреждают, что подобные подходы могут стать инструментом хакеров для массового производства новых видов малвари. Однако эти же технологии могут быть использованы и для улучшения защиты. Например, LLM можно применять для генерации обучающих данных, которые помогут усовершенствовать алгоритмы классификации вредоносного ПО.

Среди других угроз выделяются новые атаки на системы искусственного интеллекта. Например, исследователи из Северной Каролины разработали метод TPUXtract, который позволяет с высокой точностью красть конфигурации моделей машинного обучения с использованием аппаратных процессоров TPU. Эти данные затем могут использоваться для воссоздания моделей или атак на их инфраструктуру.

Развитие генеративного ИИ открывает как возможности, так и новые риски. Масштабное создание вариантов вредоносного ПО и обман систем защиты становятся реальностью, что требует внедрения новых методов обнаружения и защиты. Исследования подчёркивают необходимость совместной работы специалистов для противодействия угрозам кибербезопасности.




Moscow.media
Частные объявления сегодня





Rss.plus




Спорт в России и мире

Новости спорта


Новости тенниса
Елена Рыбакина

Елена Рыбакина за час с лишним разобралась с соперницей






Осужденный в России на 15 лет американец собирал сведения для Пентагона

Прокуратура Москвы: женщины чаще мужчин попадают в сети телефонных мошенников

Мужчин из Москвы заинтересовала процедура по наращиваю плеч

Пьяный мужчина устроил дебош на борту самолета во время рейса Москва — Паттайя