Nov, 2019

使用不可能性训练减少不一致对话的发生

TL;DR本文使用扩展的反似然损失函数及正则化方法解决了生成式对话模型中含复制文本、重复、高频词汇和逻辑缺陷等问题,并通过采集数据并应用反似然来提高逻辑一致性,实现了具有更强推理能力的生成式对话模型,我们还在多项对话任务中验证了所提出的方法的有效性。