本文介绍了一种基于最新的神经网络连续学习技术的领域无关的神经对话模型,同时提出了一种新颖的神经连续学习算法,能够以数据-效率的方式跨越不同任务积累技能,在客户支持领域通过从合成对话或人类之间的对话到人-计算机对话的连续技能转移来验证方法的功效。
Dec, 2017
该论文提出了一种采用先验和后验知识分布来实现知识选择的端到端神经模型,以更好地将适当的知识整合到响应生成中。
Feb, 2019
本研究提出一个评估聊天机器人响应的系统,利用明确的反馈机制改进神经响应图生成模型,从而获得更具连续性和参与度的响应。
Apr, 2019
本文回顾了近期关于神经网络方法在开放领域对话系统中解决语义、一致性和互动性挑战的工作,以实现与用户建立长期连结并满足人类沟通、情感和社会归属需求。
May, 2019
本文研究了神经生成模型在对话系统中对历史对话的敏感性,并通过实验证明在测试时的上下文人为干扰(例如缺失或重排序发言,混淆词语等)对常用的递归和基于Transformer的seq2seq模型的影响很小,在开源其代码的同时,本文所提供的测试评估工具将为未来的对话系统改进提供参考。
Jun, 2019
本文介绍了神经助手:一种基于神经网络模型的任务导向对话系统,该系统采用了外部知识源,并联合生成文本响应和行动预测,以消除信念状态注释的需要,并实现更高的事实准确性和语言生成性能。
Oct, 2019
通过使用预训练语言模型,我们尝试研究知识相关对话生成的相关性,发现在使用仅包含少量知识对话的细调过程中,预训练语言模型可以超越需要外部知识的最先进的模型,在自动评估和人类判断方面表现更好。
Nov, 2020
通过引入BERTScore提高证据质量,构建retrieval-generation训练框架,利用信息丰富但杂乱无章的对话数据,能使模型生成更好的响应,甚至比扩大培训集带来更好的性能提升。
Jan, 2022
本文综述了一些新的神经架构,并探讨了将其应用到更加基本的对话特点,例如情绪,对话行为和协同建构。基于社会科学文献,本文的作者相信对话最基本、最核心的特征是其由两个或多个交流者在时间上共同建构。
Mar, 2022
探讨了基于强大语言模型的开放领域会话系统,从语言学角度解释了Grice的合作会话标准,并从使得贡献适切的角度系统化了相关文献:神经会话模型必须流畅、信息丰富、一致、连贯,并遵循社会规范。为了确保这些优势,近期的方法尝试通过干预数据、训练模式或解码等方面来控制底层语言模型,我们按照这些类别和干预点讨论了有前途的尝试,并为未来的研究提出了新的方向。
Aug, 2023