Oct, 2020

自监督语音和语言模型预训练的半监督口语理解

TL;DR本文提出了一种基于半监督学习的、使用预先训练的端到端自动语音识别(E2E ASR)和自监督语言模型(如BERT)进行微调的通用语义理解框架,该框架可从转录或未转录的语音中直接学习语义来解决一些SLU模型中的问题,如ASR错误、意图预测而不是词槽预测以及在大量训练数据不足的情况下训练。实验结果表明,该框架对于语义理解可以与使用Oracle文本作为输入的模型相媲美,具有良好的环境噪声鲁棒性,并且在训练集有限的情况下也能达到较好的效果。