IT-эксперт Ульянов заявил, что серьезные модели ИИ безопасны для систем обороны
Руководитель аналитического центра Zecurion Владимир Ульянов заявил, что серьезные модели ИИ безопасны для оборонных систем. Об этом сообщает Ридус.
Таким образом он прокомментировал информацию, что военное министерство США намерено предоставить доступ к своей сети ряду популярных открытых моделей искусственного интеллекта.
«Ключевой вопрос здесь – все-таки прозрачность и контролируемость используемых моделей», – отметил собеседник. И подчеркнул, что если речь идет о «серьезных продуктах» наподобие продукции Google и xAI, то их можно счесть безопасными для такой работы.
По его словам, при грамотном аккуратном внедрении инструментов с использованием элементов искусственного интеллекта риски утечки или других угроз существенно сокращаются.
Как ранее писала Общественная служба новостей, IT-эксперт Наталия Иванова назвала профессии, которые находятся под угрозой из-за ИИ.
Руководитель коммуникационного агентства PGR agency Анастасия Бастрыкина заявила, что студентов следует научить работать с ИИ с пользой для себя.
Сообщение IT-эксперт Ульянов заявил, что серьезные модели ИИ безопасны для систем обороны появились сначала на Общественная служба новостей.
