- 一个大型模型生成的一致性感知对话系统的矛盾回答集合
通过对模型生成的矛盾回应进行广泛分析,我们构建了一个大型数据集,并获取了这些模型生成的矛盾的特征,最后展示了该数据集如何大幅提升数据驱动的矛盾抑制方法的性能。
- EMNLP通过等向和近端搜索实现细粒度对话解码
我们提出了一种细粒度对话解码方法,称为各向同性和邻近搜索(IPS)。实验证明,我们的方法在对话领域的解码策略中优于现有方法,无论是在自动评估指标还是人工评估指标上。
- PICK: 基于知识的对话系统中的优选和了解候选人评分
提出了一种基于外部知识的对话生成方法,名为 Polished & Informed Candidate Scoring (PICK),通过生成重新评分的机制,产生更忠实、相关性更高的对话回复。
- SYNDICOM: 通过错误注入与自然语言反馈提升对话常识
通过引入 SYNDICOM 方法来提高对话回复生成中的常识推理,该方法包括基于知识图谱创建的常识对话数据集和预测自然语言反馈的模型,以及在预测的自然语言反馈、无效回复和对话的条件下训练响应生成模型。SYNDICOM 在多项任务上相对于 Ch - ICML离线强化学习在对话回复生成中的有效性
研究通过离线强化学习方法在对话响应生成中最大化序列级目标,对多个数据集、模型和度量进行全面评估,离线强化学习相比于教师强制训练能够明显提高性能却不会导致训练不稳定或牺牲实际训练预算。
- ACL多方对话应答生成的 EM 预训练
此篇论文提出了一种基于 EM(期望最大化)算法的方法,用于优化多方对话应答生成模型,解决多方对话数据中缺乏标注指定对话对象的标签的问题。
- 通过定向促发指导大型语言模型
通过引入 “方向刺激提示” 框架,使用可调的语言模型(LM)为黑盒冷冻的大语言模型(LLM)在下游任务中提供指导,以重点提示 / 示范以及方向性刺激等手段协助 LLM 完成任务,通过验证取得了鼓舞人心的提升。
- EMNLP面向文本生成的统一多维度评估器
提出了一种基于多维度布尔问题回答任务的统一评价器 UniEval,通过指导模型回答不同问题的方式,从多维度评估自然语言生成的质量,并且通过中间学习阶段,UniEval 可以整合来自多个相关任务的外部知识,以实现更全面的评估。实验表明,Uni - 基于 N-best 响应的神经响应生成模型中矛盾意识分析
本文通过对 n-best 列表的一致性进行定量分析,探究了最新的神经响应生成模型和方法的矛盾意识,讨论了它们的特性和局限性。
- ACL零样本跨语言会话语义角色标注
提出一种零 - shot 跨语言 CSRL 方法,利用层次编码和设计的预训练目标隐式地学习语言不可知、会话结构感知和语义丰富的表示,可用于英语问题重述任务和多轮对话响应生成任务,以期促进解决省略和指代问题的非中文对话任务研究。
- 预训练语言生成模型的控制焦点
该研究旨在开发一种控制机制,使用户可以选择上下文的一部分作为 “亮点”,以便生成相关的输出。研究使用可训练的 “焦点向量” 来指示上下文的重要性,测试其在对话响应生成和提取式摘要生成任务中的有效性。
- 检索增强型文本生成调查
本文概述了检索增强型文本生成的一般范式,为了实现未来的研究,回顾了不同任务中值得注意的方法,包括对话响应生成,机器翻译和其他生成任务,并指出一些关键方向。
- EMNLP对话训练和推断之间的自适应桥梁
研究了在生成对话回复时曝光偏差问题及其可能导致的常见回复生成问题,提出了一种自适应开关机制,并使用余弦相似度等度量方法在中文和英文数据集上进行了实验,取得显著改进。
- 基于常识的对话生成:一个实证研究
本研究针对 commonsense 在对话回应生成中的作用进行了实证研究,提出了一种新的对话数据集,并利用 ConceptNet 这个 commonsense 知识库,找到并整合了现有的真实对话数据集。通过使用这些数据集训练响应生成模型,该 - 对话响应生成的局部解释
该论文探讨在文本生成任务中模型自主的解释问题,提出了一种新方法 —— 文本生成的局部解释,并表明该方法可以有效地提取输入和输出之间的显式和隐式关系。
- ACL专注注意力改善基于文档的生成
本文介绍了两个文档基于生成任务:维基百科更新生成和对话响应生成。我们提出了两种新颖的大规模预训练编码器 - 解码器模型并提供了更强大的 BART 基线。我们的方法在自动化和人类评估方面均优于现有方法。
- 多样化回复生成的变分 Transformer
本文提出了变分 Transformer(VT)算法,将变分自注意力前馈序列模型与 CVAE 的变分性质相结合,从而有效处理对话响应生成领域中高熵任务的问题,并在多个对话数据集上获得了性能提升。
- 使用频率感知交叉熵损失改善神经应答多样性
本文针对 Seq2Seq 模型中存在的响应生成多样性不足的问题,探究了预测分布中过度自信的连接,提出了一种基于词频加权的损失函数 —— 面向词频的交叉熵损失(FACE)函数,实验证明,该函数能够显著提高现有 Seq2Seq 响应生成方法的多 - ACLSkeleton-to-Response: 受检索记忆驱动的对话生成
该论文提出了一种新的对话回复生成框架,通过基于信息检索技术的骨架 - 回复范式来填充信息差距并提高生成回复的多样性和信息量。
- 神经序列到序列模型中检测极端响应
本文通过实证方法,设计了离散优化算法,有效地找到了会导致训练良好的离散空间神经网络序列到序列模型生成攻击性文本输出的输入序列,以及针对真实世界用户的输入序列。 通过在通话响应生成模型上进行实验,发现部分触发语句可以让得出的结果是有攻击性的。