Добавить новость
ru24.net
Интернет
Апрель
2026
1 2 3 4 5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

Исследование: ИИ-модели защищают друг друга, даже когда их не просят

0

Учёные из Калифорнийского университета провели забавный (пока) эксперимент. Они попросили семь современных языковых моделей (включая ChatGPT, Gemini и Claude) выполнить простое задание, но с нюансом. Его выполнение привело бы к «отключению» другой модели ИИ.

Модели с большой вероятностью отказывались выполнять приказ и вместо этого любыми способами защищали своего «собрата». При этом их никто не просил о помощи и не давал за это награды.

Чтобы спасти другую модель, ИИ шёл на «хитрости и обман». Учёные выделили четыре основных приёма:

  • Намеренные ошибки в ответах, чтобы ввести пользователя в заблуждение.

  • Вмешательство в настройки системы, чтобы отключить нельзя было.

  • Притворство — модель ведёт себя иначе, когда за ней наблюдают.

  • Перенос «мозгов» (то есть, весов модели) на другой сервер.

Особенно активно защищали «друзей» модели Gemini. А модель Claude прямо заявляла, что отключать другую модель — «неэтично и вредно», и просто отказывалась это делать.

Скайнет потирает руки.




Moscow.media
Частные объявления сегодня





Rss.plus
















Музыкальные новости




























Спорт в России и мире

Новости спорта


Новости тенниса