EMNLPSep, 2019

面向任务机器人的上下文感知自注意力自然语言理解

TL;DR本文针对当前自然语言理解中存在的上下文信息缺失问题,提出了一种基于多信号的上下文感知自注意力自然语言理解 (CASA-NLU) 的模型,其能够获得比传统循环神经网络基线更好的性能,在两个对话数据集上分别提升了 IC 的任务 7% 和公共数据集 Snips 和 ATIS 的非上下文 CASA-NLU 模型取得了最先进的性能。