多方响应生成与关系解缠
本文介绍了使用 Conversational Semantic Relationship RNN 模型解决多轮对话中相关性和差异性的挑战,模型包含三个层级:言语层面、对话层面和发言层面,能够识别全局背景和主题信息,并提高了响应的连贯性和多样性。
Jun, 2019
本文提出了一个基于生成对抗网络的两步框架,通过自编码学习语句的有意义表征,并学习将输入映射到响应表征上,最终将其解码为响应句子,经定量和定性评估证明相对于现有的最先进方法,该模型生成的响应更具流畅性、相关性和多样性。
Nov, 2019
本篇论文介绍了一种新颖的响应生成系统,它可以在大量非结构化的 Twitter 会话上进行端到端的训练。该系统使用神经网络架构来解决在将上下文信息集成到经典统计模型中出现的稀疏性问题,从而允许系统考虑以前的对话话语。我们的动态上下文生成模型相对于基于上下文和非上下文敏感的机器翻译和信息检索基准具有一致的提高。
Jun, 2015
该研究提出了一种新型的响应生成模型,使用一种强化学习算法以考虑一个响应集合,同时生成多个不同的响应,实验证明相比各种最先进的生成模型,我们模型生成的多个响应具有更高的质量和更大的多样性。
Nov, 2018
本文提出了一种名为 ' 深度图随机过程(DGP)' 的贝叶斯非参数深度学习方法,通过该方法,可以生成无限数量的概率图表达感知,进而提供一种方法来处理语音模型中的感知图表征和关系。结果表明,该方法在自动语音识别和声学模型领域中具有很好的效果和优势。
Jul, 2020
提出了一种基于异构图神经网络的多方会话响应生成模型,通过建模话语和交互者的语义信息及设计不同类型的元关系来处理多方对话中的结构信息,实验证明其在 Ubuntu Internet Relay Chat(IRC)通道基准测试上优于其他基线模型。
Mar, 2022
为了模拟多方会话中话语之间的依存关系,我们提出了一个基于依存分析结果的简单通用框架,其中包括一种相对依存编码(ReDE)的方法,并阐述了如何通过修改自注意力的计算方式在 Transformers 中实现它。在四个多方会话基准测试中的实验结果表明,这种框架成功提升了两种基于 Transformer 的语言模型的整体性能,并且与最先进的方法相比具有相当甚至更好的性能。
Feb, 2023
本文提出了一种基于图形结构神经网络的对话建模方法,其中核心是可以沿着图形结构对话建模信息流的基于图形的编码器,实验结果表明,与现有的基于序列的模型相比,GSN 有显著的优势。
May, 2019