Sep, 2018

使用分布式约束在神经对话模型中生成更有趣的回复

TL;DR提出了一种简单而有效的方法,在生成会话等输出多样化任务时引入分布式约束的辅助信息,通过利用语法、主题模型和语义相似性来生成更具内容丰富性的响应,实验证明这种方法可以生成精细的响应,且不牺牲可信度。