- EMNLP基于二值化神经网络的端到端文本分类
本文提出了一种用于意图分类任务的端到端二值化神经网络架构,包括对输入和分类器的二值化。实验结果表明,该架构在三个数据集上实现了具有可比性的结果,并且使用的内存和训练时间相对较少,可以适用于受限的设备。
- ACLSTIL -- 使用 mBART 在 MultiATIS ++ 上进行同时槽填充、翻译、意图分类和语言识别的初始结果
通过将同时槽填充和翻译成单个输出语言(在本例中为英语),可以减少下游系统组件的一部分的单语性,从而降低开发和维护成本。在使用 MultiATIS ++ 数据集对 7 种语言进行微调的多语言 BART 模型(Liu 等人,2020)的结果表明 - Emora: 一个关心你的好奇社交聊天机器人
Emora 是一款基于对人际交谈中体验分享的研究而开发的社交聊天机器人,它通过高度表达自然语言模板、强大的意图分类和本体资源来提供有趣和愉悦的对话体验,并支持以合作的方式理解和学习对方生活经历的对话能力。
- ACL简单就是好!轻量级数据增强用于低资源槽位填充和意图分类
研究发现,轻量级数据扩充可以缓解数据稀缺问题,并有效提高 ATIS 和 SNIPS 数据集中的随机填充性能,通过与预训练 LM 模型相结合,还可以改进 BERT-based 联合意图和插槽填充模型的表现。
- EMNLP跨语言 NLU 的端到端槽位对齐和识别
本文提出了一种新的端到端模型,可以跨语言传递自然语言理解(NLU)系统,同时对目标词槽进行对齐和预测。我们提出了 MultiATIS ++ ,一个跨越四种语言系的九种语言的多语言 NLU 语料库,并使用 MultiATIS++ 对我们的方法 - 给定少量示例的意图和槽位标签分类学习
在本文中,我们提出了一种新的少样本学习任务 —— 少样本意图分类和槽填充,以在超低资源场景中研究和提高意图分类和槽填充模型的性能,并通过定义 ATS、TOP 和 Snips 三个公共数据集的少样本分割来建立少样本意图分类和槽填充基准。我们表 - ACL通过询问信息问题进行交互式分类
研究了自然语言分类中交互的潜力,提出了一种基于限制性的交互形式来进行意图分类,系统通过二进制或多项选择问题来提取额外信息,在提取信息与做出最终分类预测之间进行权衡。通过两个领域的实验证明了交互的优势和平衡请求附加信息与做出最终预测的学习的益 - 无 ASR 语音语言理解的端到端架构
这篇论文探讨了针对 Fluent Speech Commands 数据集的一系列递归架构,用于意图分类,通过结合深度递归架构和标准数据增强,不使用 ASR 级目标或预训练的 ASR 模型即可实现最先进的结果,并且探讨了其对新措辞的普适性,结 - EMNLP少样本意图分类的特征空间数据增强研究
本论文研究了少样本数据集中引入新意图的问题, 提出了利用六种特征空间数据增强方法结合 BERT 监督和无监督学习的方法来提高分类性能的方法。在公共的对话数据集上展现了特征空间数据增强提供了一种有效的方式来改善少样本设置下的意图分类性能,尤其 - EMNLP面向任务机器人的上下文感知自注意力自然语言理解
本文针对当前自然语言理解中存在的上下文信息缺失问题,提出了一种基于多信号的上下文感知自注意力自然语言理解 (CASA-NLU) 的模型,其能够获得比传统循环神经网络基线更好的性能,在两个对话数据集上分别提升了 IC 的任务 7% 和公共数据 - EMNLP意图分类和超出范围预测的评估数据集
该研究旨在通过引入包括超出支持意图范围的查询的新数据集来评估范围内 / 超出范围的分类器及其性能,以更严谨、更真实地评估用于任务驱动对话系统中的文本分类。
- 目标导向对话系统的简单、快速、准确的意图分类和槽位标记
本文探讨了利用自我注意力、卷积和循环模型进行语音理解的各种方法,提出了一种适用于工业环境的 “标签 - 循环” 模型,能够准确快速地进行意图分类和词条标注,同时在 Snips 数据集中实现了 30% 以上的误差降低。
- BERT 用于联合意图分类和槽填充
本文提出了一种基于 BERT 的联合意图分类和槽填充模型,实验证明相对于基于注意力的循环神经网络模型和槽门控模型,在几个公共基准数据集上,我们的模型在意图分类准确性、槽填充 F1 值和句级语义框架精度方面显著提高。
- 适用于小型数据集的子词语义哈希在意图分类中的应用
本文介绍了在意图分类中使用语义哈希作为嵌入的方法,并在三个常用基准测试上实现了最先进的性能。语义哈希是一种尝试克服诸如数据饥饿和词汇表依赖性等挑战,学习强大的文本分类的方法,可以处理拼写错误和小型数据集等问题。
- 利用众包数据进行深度主动学习 – 应用于 Alexa 意图学习
提出了一种使用贝叶斯框架的深度学习模型来主动从定向众包中学习的方法,该方法可以利用低秩结构来学习每个注释者的知识水平,并利用深度学习模型的不确定性和注释者的知识水平来最小化所需的注释和注释者数量。实验表明,与现有技术相比,该框架可以准确地学 - 稀疏注意力神经网络联合训练的序列标记和分类
提出一种利用 LSTM 网络同时学习句子级别分类任务和序列标注任务的模型,通过语义相关性对单词进行加权的稀疏注意力机制,该方法在 ATIS 和 TREC 数据集上表现优于基准模型。