具有示例值的强韧的零样本跨领域隙槽填充
本文提出了一种基于深度学习的方法,利用多任务学习中的槽位描述来快速启动新领域的语义解析模型,解决了对话系统领域扩展问题,同时消除了手动注释数据或显式模式对齐的需求,并在多个领域的实验中展现出显著的槽位填充性能优化。
Jul, 2017
在本文中,我们提出了一种新的少样本学习任务——少样本意图分类和槽填充,以在超低资源场景中研究和提高意图分类和槽填充模型的性能,并通过定义 ATS、TOP 和 Snips 三个公共数据集的少样本分割来建立少样本意图分类和槽填充基准。我们表明,既有的元学习算法(MAML)和原型网络算法在这个基准上优于 fine-tuning 基线。同时,预训练的语言模型(例如 ELMo 和 BERT)与这些小样本算法相结合,可以进一步提高模型在此任务上的性能。
Apr, 2020
本文提出了一种用于跨域槽填充的『粗到细』方法,通过检测令牌是否是槽实体来学习槽实体的一般模式,然后预测槽实体的具体类型,并通过基于话语模板的表示正则化来提高适应鲁棒性。实验结果表明,该模型在槽填充和命名实体识别任务上显著优于现有方法,并具有更好的跨域适应性能。
Apr, 2020
提出了一种新的零射击槽填充神经模型LEONA,通过利用语言特征、命名实体识别提示、预训练语言模型的上下文嵌入,从而获得领域无关的上下文感知表示,通过三步骤 fine-tunes 产生独立于槽的标签,并使用可推广的上下文感知语句-槽相似特征将其上下文化以产生每个单词的针对特定槽的预测,总体而言,在 SNIPS、ATIS、MultiWOZ 和 SGD 数据集上,从未见过的领域平均表现优于 SOTA 模型 17.52%、22.15%、17.42% 和 17.95%
Jan, 2021
本论文提出一种增强型随机生成方法,利用自我注意力编码器对对话和插槽进行编码,然后以自回归的方式生成插槽值,并融入信息捕捉模板,实现跨领域知识转移,实验证明该方法在多领域体系下显著提高了当前的零样本跨领域任务对话状态跟踪技术。
May, 2021
通过零样本学习的方法,实现了目的性对话系统中的意向分类和槽位标注任务。研究表明,将意向和槽位之间的依赖关系建模,以及通过神经网络将单词和句子转换成嵌入空间,是提高任务准确性的关键因素。
Nov, 2022
这篇论文提出了一个名为SCot的自我监督协同训练框架,它需要零个领域内手动标记的训练例子,并且通过引入三个阶段来最小化性能差距,证明了在开放域槽填充中可行性,通过使用伪标签和自我监督强化三个阶段的性能,SCot在SGD和MultiWoZ数据集上的性能比现有的模型分别提高了45.57%和37.56%。
Mar, 2023
零-shot 跨领域槽填充的生成式零-shot提示学习框架,通过反向提示策略区分不同槽类型以避免多重预测问题,以及通过训练更少的提示参数来提高性能,证明了我们提出的框架的有效性,尤其是在未见过的槽上有巨大的提升(+13.44% F1)。
Jul, 2023
在任务导向的对话场景中,跨领域零样本槽填充在利用源领域知识学习高泛化能力模型的同时,在未标注数据的未知目标领域中起到至关重要的作用。然而,现有最先进的零样本槽填充方法在目标领域中的泛化能力有限,只对已见槽显示有效的知识转移,在未见槽上表现不佳。为了缓解这一问题,我们提出了一种新颖的分层对比学习框架(HiCL)用于零样本槽填充。具体而言,我们提出了一种基于高斯分布嵌入的粗细粒度对比学习方法,以学习语句标记之间的广义深层语义关系,通过优化之间和之内的标记分布距离。这促使HiCL在训练阶段泛化到未见的槽类型上。此外,我们提出了一种新的迭代标签集语义推断方法,可以不偏不倚地分别评估在先前的零样本槽填充评估方法中与它们的对应槽类型相纠缠的未见槽类型的性能。对四个数据集的广泛经验性实验证明,所提出的方法的性能与当前最先进的零样本槽填充方法相当甚至更好。
Oct, 2023