UniNL: 通过统一邻域学习将表示学习与评分函数对齐,实现 OOD 检测
本文提出了一种 K 最近邻对比学习框架,用于在任务导向式对话系统中发现 OOI,它具有两个阶段:IND 预训练和 OOD 聚类。实验结果表明,该方法在三个基准数据集上取得了超越现有技术的显着改进。
Oct, 2022
本研究旨在解决无法获取 in-domain 数据标签的情况下,从语言模型和表示学习的角度,通过无监督的聚类和对比学习的结合,对 OOD 检测进行更好的数据表示学习,实验证明该方法的性能显著优于基于概率的方法,并且可以与基于标签信息的监督方法竞争。
Mar, 2022
本文提出了一种基于自动编码器和生成对抗网络生成伪 OOD 样本来提高 NLU 中 OOD 检测性能的新模型,同时也演示了未标注数据可以进一步提高这些伪 OOD 数据的有效性。
Sep, 2019
本文提出了一种简单而强大的基于能量的得分函数来检测超领域或未知意图的方法,同时介绍了一种基于能量的边界目标来区分超领域与内部领域,并通过全面的实验和分析证明了该方法有助于解开内部领域和超领域数据的置信度得分分布。
Oct, 2022
本文介绍了通过使用变分自编码器、非监督聚类等方法,解决了任务导向型对话系统中存在的 Out of Scope,Out of Domain 等输入识别问题,以及训练 Intent Detection 模型时的数据集标注问题。在英文和波斯语中的实验结果表明,我们的模型在同时实现 OOD/OOS 意图检测和意图发现方面取得了优异的性能效果,超越了基准线。
Mar, 2023
检测开放环境中机器学习模型的异常样本是至关重要的。通过引入最近邻引导(NNGuide)方法,我们解决了由于边界几何导致的分类器评分过分自信的问题,同时保持了分类器评分的细粒度能力,并在多种设置下,包括 ID 数据自然分布变化的情况下,在 ImageNet 异常检测基准测试中取得了显著的性能提升,达到了 AUROC、FPR95 和 AUPR 指标的最佳结果。
Sep, 2023
该研究提出了一种使用领域正则化模块的方法,仅使用 In-domain 数据培训模型,支持 In-domain 意图分类和 Out-of-domain 检测,并在 4 个数据集上达到了最先进的性能。
Jun, 2021
设计了一种基于度量学习和自适应决策边界的 OOD 检测算法,相较于其他算法,在类别数量较少的情况下显著提高 OOD 性能,保持了 IND 类别的准确性。
Apr, 2022
使用 Transformers,本文提出了一种针对文本型 OOD 检测的新颖变分推断框架(VI-OOD),通过有效利用预训练 Transformers 的表示,最大化联合分布 $p (x, y)$ 的似然度,从而解决了现有 OOD 检测方法中出现的问题。通过对多个文本分类任务的广泛实验,VI-OOD 展示了其高效性和广泛适用性。
Apr, 2024