DLGNet:基于 Transformer 的对话回复生成模型
本文介绍了 DialoGPT,一种大型的、可调整的神经对话响应生成模型,它在 Reddit 上 2005 年至 2017 年的时间跨度内提取的 1.47 亿条对话样本上进行训练。在单轮对话设置中,DialoGPT 能够达到接近人类的性能水平,能够生成比强基线系统更相关、更富有内涵和更具上下文一致性的响应。该预训练模型和训练流程已公开发布,以促进神经响应生成研究和更智能的开放域对话系统的开发。
Nov, 2019
本研究提出了基于 Transformer 的多轮对话响应生成模型,采用新颖的检索机制,结合 k 最近邻搜索,基于 Google 发布的 Taskmaster-1 数据集和真实的客户服务呼叫中心数据集进行评估,结果优于强基线模型。
May, 2021
该研究探讨了基于深度神经网络的自动生成响应的模型,着重讨论了结构松散的任务,如基于单词级别的对话响应生成,并提出了基于生成的编码器 - 解码器神经网络架构的新模型,以增强对话的长期历史纪录、建模对话中的不确定性和歧义性、生成具有高级组合结构的响应。
Nov, 2016
本文提出了基于 GPT-2 微调多领域 MetaLWOz 数据集的混合生成 - 检索模型,具有稳健、多样的响应生成能力,在领域自适应任务中取得了最优结果,并在适应未见过的 MultiWOZ 数据集时表现出竞争力的泛化性能。
Mar, 2020
使用生成模型在大型对话语料库上构建开放域对话系统的任务得到了研究,这里我们扩展了分层递归编码器 - 解码器神经网络到对话领域,并证明了该模型与最先进的神经语言模型和后退 n-gram 模型有竞争力,我们进一步探讨了该方法及类似方法的局限性,再展示了如何通过从更大的问答匹配语料库和预训练的词嵌入中引导学习以提高其性能。
Jul, 2015
本研究提出了一种使用多模态转换网络(MTN)来编码和整合不同模态信息的视频对话系统。在对话生成过程中,我们提出了一个训练程序来模拟标记级解码,从而提高了生成响应的质量。我们在 DSTC7 上获得了最优秀的表现,并且我们的模型具有很好的泛化性能。
Jul, 2019
本文提出了一种基于 GPT-2 模型的框架,将视频与文本表示结合成连续、有结构的序列,并利用其 fine-tuning 能力来解决视频对话中的挑战,从而在 Audio-Visual Scene-Aware Dialogues 基准测试中取得了显著的改进。
Jun, 2020
本文提出了 DialogBERT,这是一种新型的对话响应生成模型,通过使用分层 Transformer 架构和两个训练目标,包括掩码语调回归和分布式语调顺序排名来提高先前基于 PLM 的对话模型,在三个多轮对话数据集上进行实验证明,相比于 BART 和 DialoGPT,DialogBERT 在定量评估方面表现出色,并且在人类评估中证明,DialogBERT 比基线模型生成的响应更连贯、信息量更大,并更加接近人类表现。
Dec, 2020
本文旨在通过引入额外的输入模式来捕捉多轮对话中的其他属性 (例如说话人身份、位置、子主题等), 来扩展基于人物的 Seq2Seq 神经网络对话模型,同时修改了现有的 hredGAN 架构。通过比较在多轮对话语料库 (如 Big Bang Theory 和 Friends 的电视剧系列和 Ubuntu 对话语料库的客户服务交互数据集) 上的表现,我们证明了 resulting persona hredGAN ($phredGAN$) 在当这些外部属性的情况下比现有的基于人物的 Seq2Seq 和 hredGAN 模型更优秀,表现出更好的对话生成效果和表达一致性。
Apr, 2019
提出了一种名为 BiDeN 的通用对话编码器,用于捕捉对话的时间特征,将预训练语言模型用于编码对话记录是不够充分的,实验证明 BiDeN 在不同的下游任务中都表现出了卓越的效果。
Apr, 2022