- 基于双编码和阈值重分类的改进型越界意图分类
检测任务导向对话和意图分类中的超范围用户话语是至关重要的。我们提出了一种名为 DETER 的双编码器阈值重新分类的端到端框架,用于解决当前方法在处理异常值的不可预测分布上所面临的困难,并且不需要对数据分布或额外的后处理步骤做出假设。DETE - DarijaBanking:克服摩洛哥阿拉伯语使用者在银行交流中的语言障碍的新资源
该研究提出了一种用于改善摩洛哥客户本地语言中的银行意图分类的新型数据集 DarijaBanking,并介绍了一种名为 BERTouch 的基于 BERT 的语言模型,以实现对 Darija 的意图分类。
- ACL基于对比学习和一致性学习的神经噪声通道模型在口语理解中的应用
基于语音识别的自然语言理解方法和两阶段的对比一致性学习模型能够提高在不同噪声环境下的自动语音识别的鲁棒性。
- 使用状态转换图和大型语言模型模拟任务导向型对话
该研究探讨了 SynTOD,一种用于开发端到端任务导向对话系统的新型合成数据生成方法,该方法能够处理意图分类、槽填充、对话问答和检索增益响应生成等复杂任务,而无需依赖众包或现实世界的数据。实验结果显示,使用受图引导的响应模拟能够显著提高意图 - 法语口语语义理解新任务的 MEDIA 基准评估
通过使用语言理解(SLU)的联合模型进行意图分类和槽位填充是一项关键任务。本文介绍了使用半自动方法获取增强版本的 MEDIA 数据集并利用联合模型对意图分类和槽位填充进行了实验的初步结果。
- 意图分类系统中的领域自适应:一篇综述
对话代理是 NLP 研究人员建立能够与人类自然语言进行交流的智能代理的长期目标。为了协助用户完成任务,这些系统应该能够轻松地从一个领域适应到另一个领域。本研究对意图分类的进展进行了系统回顾,描述了意图分类的难点,研究了领域适应的限制,并提出 - COLINGILLUMINER: 基于指令调整的大型语言模型作为少量样本意图分类器和插槽填充器
通过使用 Instruct-LLMs 模型,我们将意图分类和槽位填充视为语言生成任务,并且相比于现有方法,我们的方法在槽位填充方面表现出色,与 GPT3.5 (175B) 的上下文学习相比,在槽位填充任务中提高了 11.1-32.2 个百分 - LARA:语言适应检索增强多轮意图分类的语言模型
综合实验表明,LARA 在多轮意图分类任务上的性能处于最先进水平,相较于现有方法提高了 3.67% 的平均准确率。
- 您的模型能否区分否定与暗示?揭示意图编码的挑战
通过使用三个任务(意图分类、意图聚类和新颖的三元组任务)来评估意图嵌入模型在语义理解方面的能力,研究使用预训练方法和数据增强来改善意图嵌入模型在实际对话系统中的性能。
- 增强自动化:基于机器学习的用户指令分类
为了增强自动化,本文提出了一种通过引入基于意图的用户指令分类的机器学习技术来增加电气自动化系统的灵活性和适应性的新方法。通过使用机器学习模型对用户指令的意图进行分类,我们的系统能够实现更直观和适应性强的电气电路控制方案,实验证明我们的方法能 - 稳健语言模型的提示扰动一致性学习
大型语言模型对于自然语言处理任务表现出色,但在序列标注任务(如意图分类和槽位填充)中的表现明显落后于判别模型。本文通过 fine-tuning 大型语言模型并使用一种有效的减小性能下降的方法,Prompt Perturbation Cons - 基于生成对抗 Bert 的孟加拉意图分类
该研究介绍了 BNIntent30,这是一个包含 30 个意图类别的全面孟加拉意图分类数据集,该数据集从包含 150 个类别的多样的用户意图的 CLINIC150 数据集中摘录和翻译而来。此外,我们提出了一种新的使用生成对抗 BERT 进行 - 在超低资源环境下创建口语对话系统
自动语音识别(ASR)系统是一项关键技术,用于设计各种应用程序,尤其是智能助手,如 Alexa。本文着重于低资源语言 Flemish 的 Intent 分类任务,通过在语音级别和音素转录级别应用不同的数据增强技术,改进了现有模型的性能。
- 多标签文本分类的上下文学习
利用预训练的密集检索模型,我们在有限样本设置中的常见意图分类数据集上,以及特定情况下的细粒度情感分类中,优于微调性能。通过多个实验,我们分析了模型对于上下文示例和不同模型规模的利用情况,并展示了在不同领域中需要不同程度上下文示例的相似性、类 - 一个意大利意图分类数据集
这篇研究介绍了 ITALIC,这是一个大规模的意向分类语音数据集,旨在为意大利语提供 SLU 模型和特定语言数据集的开发。结果表明:增加规模和语言适应可以提高语音模型的准确性,单语文本模型的结果超过多语言模型,ITALIC 上的语音识别比现 - ACL流式短文本可靠可解释的漂移检测
本研究提出了一种可靠的端到端框架,用于大型任务导向对话系统中模型无关变点检测和解释,并通过模拟对话系统中的客户请求,评估了该方法并展示了其效果。
- 针对零样本和少样本意图分类的预训练意图感知编码器
本研究提出一种使用对比学习和伪标签的方法来预训练文本编码器,旨在提高任务导向对话系统中意图分类的性能。通过在四个意图分类数据集上进行实验,我们的预训练意图感知编码器 (PIE) 模型相比于现有最先进的预训练句子编码器,在 N 路零 / 一次 - TaDSE: 模板感知的对话句子嵌入
通过模板信息,利用自我学习的对比学习框架,构建模板感知的对话句嵌入方法 TaDSE,并通过合成增强数据集增强话语和模板之间的关系,数据实验结果表明 TaDSE 在五项基准数据集上均超越了现有最佳效果,并且意图分类任务的表现较一致。
- ChatGPT 是否能够检测意图?评估大型语言模型在口语理解方面的表现
该研究评估了不同尺寸的预训练语言模型(如 ChatGPT 和 OPT)在多个基准测试上对于口语语言理解(SLU)的影响。结果表明,最大的模型可在各种语言的语料库中使用零或少量注释即可接近于监督模型的意图分类准确性,但在槽填充方面表现不佳,并 - ChatGPT 替代人群准备释义以进行意图分类:更高的多样性和可比较的模型鲁棒性
本文研究了使用 ChatGPT 替代人工工人进行意图分类的复述生成任务,通过基于已有众包研究的数据收集方法,展示了 ChatGPT 创建的复述更为多样化且能够带来更加强健的模型。