- EMNLP一种显式联合和监督对比学习框架,用于少样本意图分类和槽位填充
本文提出了一种新颖的显式联合和监督对比学习框架,实现了少样本意图分类和词槽填充,通过构建 episode,允许不平衡的数据集。实验证明,该框架在三个公共数据集上都表现出色。
- EMNLP通过基于原型对比学习和标签混淆构建至目标领域的桥梁:重探零样本学习在槽填充中的应用
本文提出了一种基于原型对比学习和动态标签混淆策略的零样本槽位填充方法,能够有效地解决现有方法在目标领域中无法实现有效知识转移,无法处理目标领域中未知槽位的问题。实验结果表明,本文提出的方法在未知槽位方面取得了显著改进,并在槽位填充任务中创造 - ACL一种增强的基于跨度分解的少样本序列标注方法
本文提出了一种名为 ESD 的增强型跨度分解方法,将少样本序列标注问题视为跨度级别的匹配问题,取得了在 FewNERD 和 SNIPS 等两个常见的 FSLL 测试集上最优结果,并在嵌套和嘈杂的标记场景中表现出更高的鲁棒性。
- 半监督少样本意图分类与槽位填充
本文研究如何将对比学习和无监督数据增强应用于少样本学习,以改进自然语言理解中的意图分类和槽位填充任务。在标准的 IC/SF 基准测试中,我们的半监督方法通过在原有监督元学习技术中引入对比损失和数据增强方法,表现出优异的性能,特别是在少样本 - EMNLP零样本槽位填充的强健检索增强生成
本文提出了一种使用 hard negatives 和强健的训练程序增强检索生成模型而进行零样本槽填充的新方法,该方法在 T-REx 和 zsRE 槽填充数据集上都有较大的改进,并在 KILT 排行榜上排名首位。此外,通过零 / 少样本学习的 - 使用 BERT 的明确槽位 - 意图映射用于联合多意图检测和槽位填充
本文提出了一个基于 BERT 的多意图自然语言理解框架 SLIM,可以共同学习多意图检测和插槽填充,并引入显式的槽 - 意图分类器以学习槽和意图之间的多对一映射,实验结果表明,相对于现有技术,SLIM 在多意图 NLU 方面具有优越性,并且 - GenSF:生成型预训练模型和槽位填充的同时适应
通过修改预训练模型和下游任务的表达方式来实现它们之间的强耦合而不牺牲可扩展性,本论文提出了一种基于生成式预训练开放域对话模型的槽填充方法(GenSF),在零样本和小样本学习上取得了最先进的效果。
- ACLGL-GIN: 快速准确的非自回归模型用于联合多意图检测和槽位填充
本研究提出了一种非自回归模型,名为 Global-Locally Graph Interaction Network (GL-GIN),用于联合多个意图检测和槽位填充,并在两个公共数据集上取得了最先进的结果,并快了 11.5 倍。
- ACL用于任务型对话系统中发现未知槽类型的新型槽位检测基准
该论文提出了一种新的任务 ——NSD,即 Novel Slot Detection,旨在通过在域训练数据发现未知或超出域的槽类型来增强对话系统的能力,并且构建了两个公共 NSD 数据集,提出了几个强有力的 NSD 基线,并建立了未来工作的基 - ACL学习桥接度量空间:少样本联合学习意图检测和槽位填充
本文研究了针对对话语言理解的 few-shot 联合学习,提出了一种基于相似度的 few-shot 学习方案 ConProm, 能够从少量样例捕捉任务关系并联合学习多个任务。在 Snips 和 FewJoint 两个公开数据集上的实验结果表 - ACL利用检索到的样本进行少样本意图分类和槽填充
本文探讨了如何在缺乏足够资源的情况下,通过基于检索的方法完成少量样本学习并用于意图分类和填槽任务。我们提出了一种基于跨度级别检索的方法,通过一种新颖的批次 - softmax 目标函数,在相似的具有相同标签的跨度之间学习上下文化表示。我们的 - 越南文意图检测和槽填充
本文提出了以越南语为主题的第一个公共意图检测和插槽填充数据集,同时提出了一种联合模型用于意图检测和插槽填充,并通过将意图上下文信息显式地纳入插槽填充中来扩展最新的 JointBERT+CRF 模型,实验结果表明,所提出的模型明显优于 Joi - 自然语言理解中联合意图检测和槽位填充模型调查
本文综述了自然语言理解中重要的两个任务:目的意图分类和词槽填充。特别是联合模型已经成为达到最佳性能的方法,并揭示了两个任务之间的强关系。文章描述了意图分类和词槽填充在趋势、方法、问题、数据集、评估指标、性能、共享任务等方面的研究,其中包括不 - 基于语言丰富和上下文感知的零样本槽位填充
提出了一种新的零射击槽填充神经模型 LEONA,通过利用语言特征、命名实体识别提示、预训练语言模型的上下文嵌入,从而获得领域无关的上下文感知表示,通过三步骤 fine-tunes 产生独立于槽的标签,并使用可推广的上下文感知语句 - 槽相似 - ACL隐私政策的意图分类和槽填充
本文提出 PolicyIE 数据集,对比两种基准神经方法处理语义意图分类和信息填充。结果表明序列到序列(Seq2Seq)模型在信息填充任务上优于序列标注方法。
- AAAI在 Transformer 编码器中编码语法知识以进行意图检测和槽填充
本文提出了一种基于 Transformer 编码器的架构,用于意图检测和槽填充,并将句法知识编码到 Transformer 编码器中,通过多任务学习联合训练来预测每个标记的句法分析祖先和词性标注。实验结果表明,与之前最好的模型相比,我们的模 - AAAIC2C-GenDA: 面向槽填充的群集间生成数据增强方法
本文提出 Cluster-to-Cluster generation framework for Data Augmentation 以增加语音理解中的 training data,有助于提高 slot filling F-scores。
- COLING任务导向对话系统中基于神经网络的槽位填充和意图分类新方法综述
本文重点考察了基于神经网络的研究,围绕自然语言理解在对话系统中的应用,着重研究了两个核心问题:slot filling 和 intent classification,并介绍了三种神经网络架构:独立模型、联合模型和迁移学习模型。提出了当前研 - 用于联合槽填充和意图检测的交互式 Transformer
本研究将 Co-Interactive Transformer 模型应用于意图检测和填槽的交互学习任务,通过构建双向联接,考虑两个相关任务的交叉影响,并在 SNIPS 和 ATIS 数据集上获得了最先进的性能表现,成功捕获了相互交互的知识。
- EMNLPSlotRefine: 一种快速非自回归模型,用于联合意图检测和槽位填充
本文提出了一种名为 SlotRefine 的新型非自回归模型,用于联合意图检测和槽填充,在此同时,设计了一种新颖的两挡迭代机制来解决非自回归模型的条件独立性问题,实验结果表明,我们的模型在槽填充任务中表现出了显著优异的表现,并且解码速度显著