May, 2023

联合 CTC 损失和自监督预训练声学编码器的端到端口语理解

TL;DR本研究通过利用自我监督的声学编码器,提取文本嵌入,结合联合 CTC 和 SLU 损失的方法,实现了语音理解任务的话语级 SLU 模型,并在 DSTC2 数据集上比 SOTA 对话行为分类模型提高 4%绝对值,在 SLURP 数据集上比 SOTA SLU 模型提高 1.3%绝对值。