- AfriWOZ: 利用跨语言可传递性生成低资源非洲语言对话的语料库
本文介绍了针对非洲语言首次提供的高质量对话数据集,并通过深度单语模型 DialoGPT 和 BlenderBot 以及基准模型 seq2seq 对其进行建模,利用重叠度进行效果分析,同时通过人类评估方法验证其有效性,发现深度单语模型可以学习 - ACL基于知识的对话生成:解耦模板重写
本研究提出了一种基于 knowledge-grounded 的对话生成模型,称为 Disentangled Template Rewriting(DTR)模型,它能够生成符合预期风格的对话,且整个框架是可学习的,并在两个基准测试中得到了显著 - VScript: 可控制的视觉化演示脚本生成
VScript 是一种可控的管线工具,采用分层结构和创新方法实现电影剧本的自动化生成,可以按照分类和输入的起始词方便地掌控生成剧本的主题发展,此方法在剧本自动生成方面成果优于先前的实验,并且可以在电影风格控制上最大程度的满足用户的需求。
- AAAI对话生成中的重复抑制
本文研究基于上下文感知分类器的对话生成方法,通过对重复性的控制,提高了人工生成文本的质量和真实性。
- ACL基于统一知识表示的知识驱动对话生成
PLUG 是一个预训练的语言模型,可以将异构知识源同化为一个统一的知识表示,从而提高知识引导型对话生成任务的泛化能力。该模型可以通过少量的训练样本实现不同下游知识引导型对话生成任务的泛化,且在零样本和少样本场景中表现显著优异。
- ACLPLATO-XL: 探索对话生成的大规模预训练
采用统一 transformer 架构和多方知觉预训练,PLATO-XL 超越其他方法在社交媒体上进行中英文闲聊,同时在基于知识的对话和任务导向的会话等多个会话任务上获得令人满意的结果,证实其作为会话人工智能的基础模型的潜力。
- EMNLP知识增强微调:更好地处理对话生成中的未知实体
本篇论文提出了通过外部知识库训练对话系统,解决无法预测未知实体的问题,具有良好的实验效果。
- ACL对话不是平面的:建模对话内容中动态信息流
本文提出了 DialoFlow 模型,引入了动态流机制来模拟上下文的流动,并设计 3 个训练目标来捕捉大规模预训练中每个话语带来的语义影响,实验表明,DialoFlow 在对话生成任务中优于 DialoGPT。我们还提出 Flow 评分,这 - ICMLBANG:大规模预训练实现自回归与非自回归生成的桥梁
该论文提出了 BANG,这是一种用于预训练模型的新方法,能够同时支持自回归生成、非自回归生成和半自回归生成,显著改善了问题生成和对话生成的性能。
- OpenViDial:一个包含视觉背景的大规模开放域对话数据集
本文提出了一个大规模多模态对话数据集 OpenViDial,并基于该数据集提出了一族多种编码器 - 解码器模型,使用了文本和视觉上下文。结果表明,多模态特征的整合可以显著提高对话生成的质量,是实现大规模多模态对话学习的重要一步。
- EMNLP利用多个输入源的预训练语言模型进行对话生成
本文使用预训练语言模型 GPT2,探讨了在条件来自多个输入源的对话生成任务中,如何使用适当的多重注意力信息融合方法以提高与对话历史相关性的一致性。
- EMNLP基于结构化元学习的少见句子功能对话生成
本文介绍了一种使用结构化元学习方法,提高对不常见句子功能的对话生成的表现, 结果显示,使用 SML 可以提高生成的回复的信息量和相关性,并且可以生成符合目标句子功能的回复。
- 多轮对话生成中的主题相关性建模
本文提出了一种基于 Biterm Topic Model(BTM)的对话生成模型 STAR-BTM 来解决多轮对话中话题漂移的问题,并在中文客服数据和英文 Ubuntu 对话数据上进行了实验,结果表明 STAR-BTM 在度量和人工评估方面 - 通过多级对比学习增强对话生成
本文提出了一种多层对比学习模型,用于模拟回复的细粒度质量。通过设计一个排名感知校准网络和关键词知识推断组件,提高响应的相关性和多样性。实验结果表明,与基线模型相比,该模型能够生成更相关且多样化的回复。
- 基于预训练 Transformer 自然语言模型的开放领域对话生成的实证研究
本研究使用预训练模式和微调模式对基于 Transformer 的语言模型进行实证研究,探讨其在开放域对话生成任务中的性能表现和多样性,发现各种变形策略对生成结果都有不同程度的影响。
- AAAI文本和视频的桥梁:用于视频音频场景感知对话的通用多模态 Transformer
该研究提出了一种通用的多模态转换器,并引入了多任务学习的方法,以解决视频聊天中的音视频场景感知对话生成任务,并将自然语言生成预训练模型扩展到多模态对话生成任务。我们的系统在该挑战中取得了最佳表现。
- AAAI通过知识库问答提高知识感知对话生成
本文提出了一种新的知识感知对话生成模型,称为 TransDG,该模型将知识库问答(KBQA)任务的问题表示和知识匹配能力转移到生成对话的内在理解和事实知识选择中。我们采用了一种响应引导注意力和多步解码策略的方法,以引导模型集中于生成相关的特 - ACLPLATO:基于离散潜变量的预训练对话生成模型
本文提出了基于预训练模型的对话生成框架,采用灵活的注意力机制和离散的潜在变量,解决了响应生成中存在的一对多映射问题,并设计了两种互补的任务对话响应生成和潜在动作识别。实验结果表明,该框架在三个公开数据集上验证了其优越性。
- AAAI领域无关的实值特异性预测
本文提出了一种基于无监督域适应的句子特定性预测系统,旨在为不可用标注数据的领域输出更加精细的实值特定性评分,并通过控制后验分布来校准预测的值,该框架在三个不同领域的推广效果较好,并展示了它在提高对话生成系统的质量和信息量方面的潜力。
- 神经对话生成中的半监督显式状态跟踪
本文提出了一种基于神经网络的半监督显式对话状态跟踪器(SEDST),并利用 CopyFlowNet 表示一个显式的对话状态,并引入后验正则化策略进行间接监督。实验表明,我们的模型在任务导向和非任务导向的对话数据集上均取得了明显的优势。