ACLJun, 2019

神经对话系统有效利用对话历史吗?实证研究

TL;DR本文研究了神经生成模型在对话系统中对历史对话的敏感性,并通过实验证明在测试时的上下文人为干扰(例如缺失或重排序发言,混淆词语等)对常用的递归和基于 Transformer 的 seq2seq 模型的影响很小,在开源其代码的同时,本文所提供的测试评估工具将为未来的对话系统改进提供参考。