对话语言理解的零射击自适应转移
本文提出了一种基于深度学习的方法,利用多任务学习中的槽位描述来快速启动新领域的语义解析模型,解决了对话系统领域扩展问题,同时消除了手动注释数据或显式模式对齐的需求,并在多个领域的实验中展现出显著的槽位填充性能优化。
Jul, 2017
本文提出一种零样本方法,该方法可以在只在其他源域示例中进行训练的情况下解析看不见领域的话语,并通过词汇对齐分数和全局推理将槽替换为知识库常量,从而解决了当前语义解析器需要昂贵监督并且不能推广到新领域的问题。
Apr, 2018
在面对数据量缺乏的多领域任务型对话系统中,本文提出一种结合了槽位值示例及其描述信息的学习方法,从而得到可在不同领域中迁移的槽位语义表示,并在两个多领域数据集上实现了比最先进方法更好的效果表现。
Jun, 2019
本文提出了一种基于向量投影网络的少样本检测方法,利用上下文词嵌入在每个目标标签向量上的投影作为单词-标签相似性,实现了一种等效的标准化线性模型方法。实验证明,该方法可以明显超越其他变量,在SNIPS和NER测试集的5个样本设置中,我们的方法分别在F1得分上比最强的少样本学习基线高出6.30和13.79分。
Sep, 2020
提出了一种新的零射击槽填充神经模型LEONA,通过利用语言特征、命名实体识别提示、预训练语言模型的上下文嵌入,从而获得领域无关的上下文感知表示,通过三步骤 fine-tunes 产生独立于槽的标签,并使用可推广的上下文感知语句-槽相似特征将其上下文化以产生每个单词的针对特定槽的预测,总体而言,在 SNIPS、ATIS、MultiWOZ 和 SGD 数据集上,从未见过的领域平均表现优于 SOTA 模型 17.52%、22.15%、17.42% 和 17.95%
Jan, 2021
本论文提出一种增强型随机生成方法,利用自我注意力编码器对对话和插槽进行编码,然后以自回归的方式生成插槽值,并融入信息捕捉模板,实现跨领域知识转移,实验证明该方法在多领域体系下显著提高了当前的零样本跨领域任务对话状态跟踪技术。
May, 2021
通过零样本学习的方法,实现了目的性对话系统中的意向分类和槽位标注任务。研究表明,将意向和槽位之间的依赖关系建模,以及通过神经网络将单词和句子转换成嵌入空间,是提高任务准确性的关键因素。
Nov, 2022
本文提出的基于 seq2seq 的模型结构,可以在零样本或少量样本的情况下,通过对新领域的元数据进行编码,自动实现领域自适应的语义解析,并通过在 Wikidata 上预训练以增强概念感知能力,从而在 TOPv2 和 SNIPS 数据集上优于以前的研究成果。
Jan, 2023
Prompter提出了一种使用目标领域槽的描述生成动态前缀的方法,从而使得可以在零样本情况下使用前缀调整。该方法在MultiWOZ和SGD基准测试中均优于以前的方法。
Jun, 2023