- PairEval:使用配对比较进行开放域对话评价
提出了一种基于对话响应之间的比较评估的对话评估度量方法 PairEval,该度量方法比基准度量方法更具鲁棒性,并且与人类判断的相关性更高。
- 低资源开放领域对话生成的可控且多样化的数据增强
利用大规模语言模型 (LLM) 进行以摘要为基础的对话增强 (SDA) 以提高语义多样性和控制能力,通过生成高质量和多样化的对话数据来增强开放领域对话模型的性能。
- 基于 LLM 的多轮对话系统的最新进展综述
本研究综述了基于大型语言模型 (LLMs) 的多轮对话系统的研究进展,包括适应 LLMs 到下游任务的方法,最近在多轮对话系统中的 LLM-based 开放领域对话 (ODD) 和任务导向对话 (TOD) 系统的进展,并且讨论了 LLMs - 一个适用于开放领域对话生成的实证贝叶斯框架
提出了基于经验贝叶斯(BODEB)框架的贝叶斯开放域对话代理,通过利用预训练参数来构建贝叶斯开放域对话代理,并在多样性和连贯性方面取得了较好的结果。
- ACL无导数权重空间集成
最新研究表明,在两个专门的语言模型的权重之间进行插值可以以多任务学习无法实现的方式在任务之间转移知识。然而,极少有人探索过在两个以上模型之间进行插值,每个模型具有不同的知识库。本文介绍了一种称为 DFWE(Derivative Free W - 多任务学习在开放域对话系统中的实证研究
研究使用辅助任务对自回归模型进行改进,提高其在开放域对话生成中的长期语境处理和一致性维护,结果在小型和中型的 GPT-2 模型上表明引入新的辅助任务虽然有所改进,但仍有发展空间。
- 基于分支协作的异构学习对话生成
使用对话属性的双重群协作知识蒸馏,降低分支之间的同质性问题,并在两个公共领域的对话数据集中实现了超越先前工作的表现。
- CTRLStruct: 开放域回复生成的对话结构学习
本文提出了一种新的对话结构学习框架 CTRLStruct,该框架利用双向变压器编码对话文章,进一步通过对比学习任务训练来提高表示力,利用无标签信息有效地探索主题级对话集群及其转换,形成对话结构图,最终将该图结合到对话模型中进行生成,以实现更 - EMNLP多轮开放域对话系统中的历史感知层次变压器
本文提出了历史感知的分层 Transformer - 多轮开放域对话系统,能够利用历史交互信息与时下言语背景生成基于上下文且相关性强的对话回应,并在大规模多轮对话数据集上取得了优异的表现结果。
- CRINGE 丢失:学习不需要建模的语言
使用 CRINGE 方法进行语言模型训练来减轻使用金标准和正例数据训练模型的问题,实验表明该方法对于安全生成、避免矛盾和开放域对话等任务均有效。
- 基于 ConceptNet 的 DialoGPT 在对话响应生成中的通识理解与推理
为了让对话代理具有常识推理的能力,将外部知识注入预训练的对话模型以建立基本的常识;提出 “双向学习” 方法实现常识知识与语句对之间的双向关系,并利用该集成常识的能力以改进开放域对话响应生成,结果表明 “常识适配器” 融合有助于 DialoG - ACL通过文档语义图增强基于信息场景的对话知识选择
本研究提出了一种将对话模型中的背景知识文档自动转换为文档语义图以对其进行知识选择,并联合应用多任务学习来改善句级和概念级知识选择的方法,并通过实验证明其在诸如 HollE 和 WoW 等领域的知识选择任务和端对端响应生成任务上均优于基于句子 - 开放域对话中的多句知识选择
提出对话知识选择的新框架和数据集,用于评估现有方法的不足之处,并通过神经重排序模型改进评估结果,出色地完成了对话回复
- COLING从沙子中筛选更多的金子:利用有噪声的自我检索生成优化开放域对话训练
通过引入 BERTScore 提高证据质量,构建 retrieval-generation 训练框架,利用信息丰富但杂乱无章的对话数据,能使模型生成更好的响应,甚至比扩大培训集带来更好的性能提升。
- 将面向任务和开放域对话融合于对话代理中
本文介绍了把目标导向式对话任务(TOD)系统和非目标导向闲聊式对话系统(ODD)结合起来的难题,并基于流行的 TOD 数据集 MultiWOZ 构建一个包含两种对话模式交替的新数据集 FusedChat,提供一种更具挑战性的基准测试,以测试 - 面向表达性互联网模因通信:一种新的多模态对话数据集和基准
本研究提出了一个新的任务 MOD,该任务需要模型能够理解多模态元素和其背后的情感,为此建立了一个大规模的开放域多模态对话数据集,其中包含约 45K 个对话和 606K 个话语,平均每个话语都包含 4 个互联网模因,并用相应的情感进行了注释。 - OTTers:针对开放领域对话的一轮主题转换
本研究旨在探索开放域对话中 “一轮话题转换任务” 的实现方式,收集人类完成该任务的数据,在此基础上,通过应用现有的文本生成模型,评估它们在这个任务上的表现效果。
- COLING对开放领域对话系统进行可配置评估指标的解构与重构
我们提出了一种灵活的度量方法,并通过组合可管理的质量、将质量分成三组,并将每个方面的指标合成为一个指标,得到了名为 USL-H 的度量方法,证明了 USL-H score 与人工评价具有良好的相关性和可配置性。
- ACL说话者敏感性响应评估模型
该研究提出了一种基于相邻对话的自动评估模型,利用未标注对话语料库中的说话者定义不同级别的类似上下文,使用推特对话语料库进行实验,表明与其他现有评估指标相比,该模型具有更高的人类标注得分相关性。并展示了在无需额外训练的情况下,将该模型应用于电 - ACL利用非对话文本丰富对话生成
本文提出了一种新的方法,通过利用非对话文本来丰富对话生成,我们通过迭代反向翻译等技术有效地将非对话文本集成进模型中,在不降低与上下文相关性的情况下,生成的回复显著更具多样性。