Jun, 2022

高效准确的非自回归多轮口语理解模型:捕捉显著的历史信息

TL;DR本文提出了一种名为 SHA-LRT 的新型多轮对话 Spoken Language Understanding 模型,它通过历史 - 注意机制从历史话语中捕获显著的历史信息,并使用中间状态引导最终预测,有效提高了多轮对话中语言理解的性能,并在单轮 SLU 任务上表现良好。