该论文提出了一套预训练的意图检测模型,该模型通过训练 wikiHow 上的数据,在多语言场景下实现了最先进的结果,并且在零样本和少样本学习上具有较强的性能,即使只使用 100 个训练样本,在所有数据集上达到了超过 75%的准确率。
Sep, 2020
本文提出了意图发现框架,通过自动聚类类似用户话语并手动注释,再通过对未被聚类映射的话语标记意图标签和标记传播,从原始对话中生成意图训练数据,以有效地解决在聊天机器人开发过程中遇到的用户话语分类问题,并验证了该框架的有效性。
May, 2020
为了促进多语言代码混合对话模型的开发,我们构建了一个包含代码混合对话的目标导向对话数据集,并在其中使用英语 - 印地语、英语 - 孟加拉语、英语 - 古吉拉特语和英语 - 泰米尔语的多语言版本。
Jun, 2018
该文提出了 “开放式意图发现” 任务并提出了双向 LSTM+CRF 模型、自注意力、对抗训练等新方法,在真实数据集上进行实验,证明了该方法的有效性并达到了领先水平。
Apr, 2019
本研究提出了一种用于处理商业任务导向型对话系统中未识别用户语句的端到端管道,包括特定定制聚类算法、新颖的聚类代表提取方法和聚类命名。通过评估这些组件,证明了它们在分析未识别用户请求方面的益处。
Apr, 2022
研究比较不同意图检测方法,显示 Watson Assistant 具有高准确度,能较少使用计算资源和训练数据,并在训练和测试分布不同时表现出较高的鲁棒性。
Dec, 2020
任务导向对话系统中多意图检测面临挑战,我们基于 BlendX 数据集进行了广泛实验,揭示了现有模型在新数据集上的困难,强调了对多意图检测领域的重新审视的必要性。
Mar, 2024
自然语言处理领域的现代机器学习技术可用于自动生成目标导向对话系统的脚本。本文提出了一个研究自动生成目标导向对话系统脚本的通用框架,并描述了一种用于预处理 JSON 格式对话数据集的方法。比较了基于 BERTopic 和潜在狄利克雷分配的两种提取用户意图的方法,并比较了基于逻辑回归和 BERT transformer 模型的两种分类用户语句的算法实现。与其他方法相比,使用 bert-base-uncased 模型的 BERT transformer 方法在精确度(0.80),F1 分数(0.78)和马修斯相关系数(0.74)等三个指标上表现更好。
Dec, 2023
本文提出了一种用于多语言和跨语言口语数据意图检测的系统性研究,对该研究所介绍的一个新资源(MInDS-14)进行了利用,证明使用机器翻译模型和最先进的多语言句子编码器相结合能够在大多数 MInDS-14 所涵盖的目标语言中产生强大的意图检测器,并提供了针对不同维度(如零 - shot 学习与有限 - shot 学习、翻译方向、语音识别的影响)的比较分析。我们认为这项工作是在比以往的工作更广泛的语言范围内开发和评估多语意图检测器的重要一步。
Apr, 2021
使用对比学习策略和修改的吸附法模型,IntenDD 方法通过共享的话语编码骨干来实现任务导向的对话系统中对意图的识别,并在多个任务中实现了显著的性能提升。
Oct, 2023