SF-DST: 少样本自喂式陈述理解对话状态跟踪及其辅助任务
我们探讨了基于任务导向的对话系统的对话信念状态跟踪(DST)问题。通过以 Prompt 为基础进行少样本学习,我们证明了 Prompt-based 方法在 DST 的 Few-shot 学习中具有潜在的潜力,并提供了未来改进的方向。
Apr, 2022
研究了一种基于生成型问答和条件语言模型的不需要本体的 Dialog State Tracking 方法,具有较好的领域迁移效果。
Jan, 2021
本文提出基于语言模型的少样本对话状态追踪方法,将对话状态追踪问题重新表述为对话摘要问题,并使用合成的对话摘要训练模型。经实验证明,该方法在跨领域和多领域设置下的效果都优于以往方法,并提升训练和推理速度。
Mar, 2022
本文提出了一种新的架构,利用多粒度的注意力机制来更稳健地编码对话历史和槽的语义,用于实现准确的跨域对话状态跟踪,并在 MultiWoZ 2.1 数据集上将联合目标准确率提高了 5%(绝对值),并在零 - shot 设置下比现有最先进技术提高至多 2%(绝对值)。
Feb, 2020
本论文提出了 TransferQA,一个可转移的生成式问答模型,它通过文本到文本转换框架无缝地结合了抽取式问答和多选式问答,有效地处理了零 - shot DST 任务中的分类和非分类插槽,并介绍了两种构建无法回答的问题的有效方法,即负面问题抽样和上下文截断。经过实验证明,在 MultiWoz 上,我们的方法显著改善了现有的零 - shot 和少 - shot 结果,与 Schema-Guided Dialogue 数据集上的全面训练基线相比,我们的方法在未知领域中表现出更好的泛化能力。
Sep, 2021
本文提出了一种名为 CSS 的少样本对话状态追踪 (DST) 框架,其将自我训练和自我监督学习方法相结合,并将 DST 任务的未标记数据并入到自我训练迭代中。同时使用对比自我监督方法来学习更好的表示,该方法通过 dropout 操作扩充数据来训练模型。在 MultiWOZ 数据集上的实验结果表明,我们提出的 CSS 在几个少样本场景下具有竞争力的性能。
Oct, 2022
利用机器阅读理解(RC)方法在对话状态跟踪中,针对模型架构和数据集两个方面进行改进并应用到多种领域,实现了很好的跨领域通用性,并在少数据情形下(few-shot scenarios)表现出了更好的性能,即便在零状态跟踪数据下(zero-shot scenarios),也在 MultiWOZ 2.1 数据集中表现出很高的性能。
Apr, 2020
通过设计双提示学习框架,利用预训练语言模型的语言理解和生成能力,将对话状态跟踪任务高效地转化为一项语言建模任务,提高了低资源情况下对话状态跟踪的效率。实验证明,该方法优于现有的少样本学习方法,并且可生成未见过的槽位。
Jan, 2022
本研究提出 CoFunDST,使用域不可知的 QA 数据集培训,通过 T5 预训练语言模型基于候选选项直接生成零样本对话状态。与现有的零样本 DST 方法相比,在 MultiWOZ 2.1 的大多数领域中,我们的模型具有更好的联合目标准确性。
Feb, 2023
本文介绍了 DSTC 8 轨道 4:基于模式的对话状态跟踪的方法以及测试结果。我们提出了一种端到端的 DST 系统,该系统包括针对非分类插槽的 MRC 模型和对于分类插槽的 Wide & Deep 模型。通过实验,证明我们的方法在测试数据集中得到了优异的性能。
Dec, 2019