Jun, 2021
N-Best ASR Transformer: 使用多个ASR假设提高SLU性能
N-Best ASR Transformer: Enhancing SLU Performance using Multiple ASR
Hypotheses
TL;DR使用自动语音识别提供的多个文本替代方案,采用简化的表述方式,通过 transformer 模型 BERT 和 XLM-RoBERTa 对 N-best 替代方案的连接作为输人,提高了 Spoken Language Understanding 系统的性能。