选择融合作为零样本对话状态跟踪的知识
本论文提出了 TransferQA,一个可转移的生成式问答模型,它通过文本到文本转换框架无缝地结合了抽取式问答和多选式问答,有效地处理了零 - shot DST 任务中的分类和非分类插槽,并介绍了两种构建无法回答的问题的有效方法,即负面问题抽样和上下文截断。经过实验证明,在 MultiWoz 上,我们的方法显著改善了现有的零 - shot 和少 - shot 结果,与 Schema-Guided Dialogue 数据集上的全面训练基线相比,我们的方法在未知领域中表现出更好的泛化能力。
Sep, 2021
研究了一种基于生成型问答和条件语言模型的不需要本体的 Dialog State Tracking 方法,具有较好的领域迁移效果。
Jan, 2021
本文提出了一种简单有效的 “划分、攻克和合并” 解决方案,明确解开已知数据的语义,并利用专家的混合机制来提高零 - shot DST 性能和鲁棒性。 在 T5-Adapter 上对 MultiWOZ2.1 进行的大量实验表明,该架构显着且持续地提高了零 - shot 性能,在没有外部知识的情况下,只需 10M 可训练参数,实现了 SOTA。
Jun, 2023
本文提出了一种领域无关的抽取式问答方法用于对话状态跟踪,通过训练一个分类器来预测多个领域的出现情况,将复杂的领域信息进行分离并在活动领域提取跨域问题答案,在多个数据集上达成了优秀的零 - shot 转移模型表现。
Apr, 2022
本文提出一种基于问题回答的多领域对话状态跟踪方法(DSTQA),并利用动态演化的知识图谱显式地学习(领域、槽)对之间的关系,相较于最新的模型在 MultiWOZ 2.0 和 2.1 数据集上有 5.80%和 12.21%的相对改进,且在领域适应设置中始终优于最先进的模型。
Nov, 2019
我们将零样本对话状态跟踪转化为少样本对话状态跟踪,通过联合和自我训练方法利用目标域中的无标签数据。该方法通过辅助任务生成槽类型作为主要任务的逆提示,在联合训练期间创建槽值。这两个任务之间的循环一致性使得能够生成和选择未知目标域中的高质量样本,以进行后续的微调。此方法还有助于自动标签创建,从而优化对话状态跟踪模型的训练和微调。我们在零样本场景中的大型语言模型上展示了该方法的有效性,在 MultiWOZ 的所有领域中,平均联合目标准确率提高了 8%。
Oct, 2023
通过增加使用合成数据生成技术来提高零 - shot 对话状态追踪(DST)准确性的多样性的训练数据,本研究证明了可实现的巨大收益。该研究通过使用一种新颖的全自动数据生成方法来创建合成的零 - shot DST 训练资源,克服了当前 DST 训练资源在应用领域和槽类型方面的严重限制,该方法生成全新的应用领域以及具备银标注和槽描述的对话。该方法用于创建 D0T 数据集以训练零 - shot DST 模型,该数据集涵盖了 1000 多个领域。在 MultiWOZ 基准测试中进行的实验表明,使用多样化合成数据训练模型可以改善 + 6.7% 的联合目标准确率,达到与更大模型相竞争的结果。
May, 2024
本文提出了一种新的架构,利用多粒度的注意力机制来更稳健地编码对话历史和槽的语义,用于实现准确的跨域对话状态跟踪,并在 MultiWoZ 2.1 数据集上将联合目标准确率提高了 5%(绝对值),并在零 - shot 设置下比现有最先进技术提高至多 2%(绝对值)。
Feb, 2020
本文提出了 RefPyDST,在零和少样本学习中通过将 DST 作为 Python 编程任务明确地建模语言交替参考,通过检索一组相关性更强的例子来提高性能,并在解码期间引入一种新颖的重新加权方法以获取更精确的对话状态预测,从而在 MultiWOZ 上实现了最新的多域联合目标准确性。
Jul, 2023
本论文提出了一种多层次融合对话状态跟踪(DST)网络,通过建模每个对话轮次的交互,实现从以往对话历史和当前对话上下文中抽取对话状态信息,进行预测和融合,加强对当前对话状态的跟踪和理解,实验结果表明该模型在 MultiWOZ 2.0 和 MultiWOZ 2.1 数据集上取得了当前领先的 55.03% 和 59.07% 联合灵敏度值。
Jul, 2021