Российские учёные выявили, что языковые модели «уязвимы» к человеческим эмоциям
Специалисты Института искусственного интеллекта AIRI установили связь между эмоциональным состоянием человека и принимаемыми нейросетями решениями. Оказалось, что эмоциональные переживания в момент общения человека с ИИ, довольно сильно влияет на решения последнего. И здесь речь идёт не только о крохотных нейросетях, но и о больших языковых моделях. Об исследовании рассказала пресс-служба AIRI.
«Результаты исследования могут быть использованы для разработки продвинутых устойчивых мультиагентных систем ИИ, чью эмоциональность можно будет устанавливать для каждой сферы применения отдельно. Бизнес вряд ли оценит ситуацию, в которой ИИ-маркетолог увеличит персональную скидку клиента до 99%, потому тот в процессе обсуждения целенаправленно вызвал в системе глубокое чувство досады и несправедливости», — пояснил руководитель группы «ИИ в промышленности» Института AIRI Илья Макаров, чьи слова приводит пресс-служба вуза.
Открытие было сделано при участии специалистов из Лаборатории искусственного интеллекта Сбера и Института системного программирования РАН, когда изучалось возможное воздействие эмоционального состояние человека на простые по своей конструкции системы искусственного интеллекта, включая такие популярные модели как GPT-4, LLaMA2, Gigachat и OpenChat.
В ходе работы российские учёные пытались установить, сохраняют ли языковые модели эмоциональную предвзятость в данных, которые они используют для самообучения, и как это влияет не принимаемые нейросетями решения. Чтобы решить поставленную задачу, учёные изучали, как ведёт себя искусственный интеллект в экономических играх, когда к нему обращаются на российском и английском языках с сильной эмоциональной составляющей.
Учёные установили, простые языковые модели в экономических играх, например, в «Диктаторе» и «Дилемме заключённого», начали давать необъективные ответы, когда работали с эмоциональными данными. Лучшим образом показали себя большие нейросети, однако и они, как утверждают авторы исследования, начинали вести себя «по-человечески», когда сталкивались с особо сильными эмоциями, включая, гнев.
Если говорить о кооперативных играх, то здесь эмоциональная составляющая снижала желание искусственного интеллекта к сотрудничеству, тогда как страх становился причиной необдуманных решений.