基于语音知识的有限标注数据生成式槽位填充
本文提出了一种使用 hard negatives 和强健的训练程序增强检索生成模型而进行零样本槽填充的新方法,该方法在 T-REx 和 zsRE 槽填充数据集上都有较大的改进,并在 KILT 排行榜上排名首位。此外,通过零 / 少样本学习的组合,我们在 TACRED 数据集的新变体上演示了我们系统的适应能力,并发布了源代码和预训练模型。
Aug, 2021
提出了一种新的零射击槽填充神经模型 LEONA,通过利用语言特征、命名实体识别提示、预训练语言模型的上下文嵌入,从而获得领域无关的上下文感知表示,通过三步骤 fine-tunes 产生独立于槽的标签,并使用可推广的上下文感知语句 - 槽相似特征将其上下文化以产生每个单词的针对特定槽的预测,总体而言,在 SNIPS、ATIS、MultiWOZ 和 SGD 数据集上,从未见过的领域平均表现优于 SOTA 模型 17.52%、22.15%、17.42% 和 17.95%
Jan, 2021
本文提出了一种生成式方法,名为 GenKS,用于在基于对话历史的语境下选择适当的知识片段,该方法通过序列到序列模型生成标识符来选择片段,捕捉片段之间的内部知识交互,并通过超链接机制显式地建模对话 - 知识交互,同时在三个基准数据集上进行实验并证明 GenKS 在知识选择和响应生成方面取得了最佳结果。
Apr, 2023
该研究探讨了大型语言模型在具有噪声 ASR 转录的槽位填充中的潜在应用,通过上下文学习和任务特定的微调,提出了专门的提示设计和微调方法来提高大型语言模型在具有噪声 ASR 转录的槽位填充中的鲁棒性。此外,还提出了一种线性化知识注入方案,将动态外部知识整合到大型语言模型中。在 SLURP 上进行了实验,评估了各种大型语言模型的性能,包括 GPT-3.5-turbo、GPT-4、LLaMA-13B 和 Vicuna-13B(v1.1 和 v1.5),以及不同的 ASR 错误率。在有限数据设置中,使用所提出的微调方法和 LKI 方案,LLaMA-13B 相对于强 Flan-T5-base 基线系统实现了绝对 8.3%的 SLU-F1 改进。
Nov, 2023
提出一种基于检索的方法,以加强 TOD 系统中的知识选择,并结合半监督学习进行潜变量模型,该模型可以与知识检索器一起利用有标签和无标签的对话数据。实验证明,该方法在有标签和半监督设置下均优于传统的数据库查询方法。
May, 2023
在面对数据量缺乏的多领域任务型对话系统中,本文提出一种结合了槽位值示例及其描述信息的学习方法,从而得到可在不同领域中迁移的槽位语义表示,并在两个多领域数据集上实现了比最先进方法更好的效果表现。
Jun, 2019
在任务导向的对话场景中,跨领域零样本槽填充在利用源领域知识学习高泛化能力模型的同时,在未标注数据的未知目标领域中起到至关重要的作用。然而,现有最先进的零样本槽填充方法在目标领域中的泛化能力有限,只对已见槽显示有效的知识转移,在未见槽上表现不佳。为了缓解这一问题,我们提出了一种新颖的分层对比学习框架(HiCL)用于零样本槽填充。具体而言,我们提出了一种基于高斯分布嵌入的粗细粒度对比学习方法,以学习语句标记之间的广义深层语义关系,通过优化之间和之内的标记分布距离。这促使 HiCL 在训练阶段泛化到未见的槽类型上。此外,我们提出了一种新的迭代标签集语义推断方法,可以不偏不倚地分别评估在先前的零样本槽填充评估方法中与它们的对应槽类型相纠缠的未见槽类型的性能。对四个数据集的广泛经验性实验证明,所提出的方法的性能与当前最先进的零样本槽填充方法相当甚至更好。
Oct, 2023
本文提出 Cluster-to-Cluster generation framework for Data Augmentation 以增加语音理解中的 training data,有助于提高 slot filling F-scores。
Dec, 2020
本文提出一种使用预训练和迁移学习处理数据生成文本任务的方法,该方法包括知识驱动的预训练模型和针对各种任务生成文本的微调模型,其在少样本情况下性能优异,验证了其强大的泛化能力。
Oct, 2020
本文提出了一种基于深度学习的方法,利用多任务学习中的槽位描述来快速启动新领域的语义解析模型,解决了对话系统领域扩展问题,同时消除了手动注释数据或显式模式对齐的需求,并在多个领域的实验中展现出显著的槽位填充性能优化。
Jul, 2017