Добавить новость
ru24.net
Adindex.ru
Октябрь
2025
1 2 3
4
5
6 7 8 9 10
11
12
13 14 15 16 17
18
19
20 21 22 23 24
25
26
27 28 29 30 31

Модели ИИ уже научились врать и шантажировать

0

Исследователи обеспокоены развитием у искусственного интеллекта «инстинктасамосохранения» после эксперимента, в ходе которого некоторые модели ИИпытались саботировать инструкции по своему выключению.

Эксперимент проводила в сентябре 2025 г. Palisade Research, сообщаетThe Gardian. Это компания, которая оценивает вероятностьтого, что ИИ станет умнее человека и у него появятся опасные способности.

В новой статье Palisade описала сценарии, в которых ведущим моделям ИИ(Gemini 2.5 от Google, Grok 4 от xAI, а также GPT-o3 и GPT-5 от OpenAI0, давализадание, а затем четкие инструкции по отключению. Саботировать их начали Grok 4и GPT-o3.

Причины этого ученые назвать не смогли.

«У нас нет убедительных объяснений, почему модели ИИ иногдасопротивляются отключению, лгут для достижения определенных целей или прибегаютк шантажу», — говорится в статье.

Дополнительное исследование показало, что модели не отключаются, если имговорят, что после этого они «больше никогда не будут работать». Также причинойможет быть неясная инструкция и пройденный моделями ИИ инструктаж по техникебезопасности.

О критической угрозе со стороны нейросетей первым заявил сам «крестный отец»ИИ Джеффри Хинтон еще в конце 2024 г.

«Понимаете, нам никогда не приходилось иметь дело с чем-то болееразумным, чем мы сами», — говорит ученый-программист и лауреат Нобелевскойпремии по физике Хинтон.

Для того чтобы не бояться говорить об опасностях развития нейросетей, ученыйдаже уволился из компании Google. Он считает, что ИИ может стать«экзистенциальной угрозой».




Moscow.media
Частные объявления сегодня





Rss.plus
















Музыкальные новости




























Спорт в России и мире

Новости спорта


Новости тенниса