Выделение эмоционального фона из аудио диалога - не из текста(Python)
Пробовал сделать выделение эмоционального фона через aniemore, но там сложности с тем чтобы после каждой фразы проставлять эмоциональный фон, пропускает фразу, хоть они длинной и не меньше 1 сек., или записывает все возможные варианты даже с маленьким весом.
Что нужно:
1) Выделять корректно эмоциональный фон корректно по фразам
2) Какую модель\и будем использовать? И можно ли их дообучить на своём dataset?
Пробовал также openSMILE или pyAudioAnalysis(более старые версии моделей), но тоже не получилось.