ACLSep, 2021

使用 Transformer 模型进行大规模自然语言理解系统的错误检测

TL;DR本研究提出了使用 Transformer 模型检测大规模会话助手中的领域分类错误,采用 RoBERTa 模型的话语编码结合生产系统生成的 N 个最佳假设。在使用少量人工标注的语音的多任务设置下,我们的方法检测一个占大型会话 AI 系统流量的 < 0.5% 的域的误分类,达到了 30% 的 F1 分数,表现优于基线的双向长短时记忆模型 16.9% 以及独立 RoBERTa 模型 4.8%,并通过合并多个模型进一步提高了 2.2% 至 32.2%。