Nov, 2022
基于预训练 SSL、ASR、LM 和 SLU 模型的口语理解整合研究
A Study on the Integration of Pre-trained SSL, ASR, LM and SLU Models for Spoken Language Understanding
Yifan Peng, Siddhant Arora, Yosuke Higuchi, Yushi Ueda, Sujay Kumar...
TL;DR本研究旨在探索使用预训练策略增强口语理解任务性能,通过自监督的语音和语言模型在 SLU 测评基准上进行实验,发现预训练模型可于低资源环境中提升结果,其中以预训练的语言和语音模型分别在情感分析和命名实体识别任务上效果最突出。