观察邻居:一种统一的 K 最近邻对比学习框架用于 OOD 意图发现
本文提出了一种统一的邻域学习框架 (UniNL) ,用于检测对话系统中的 OOD 意图,该方法在两个基准数据集上的实验证明了其有效性。
Oct, 2022
本研究旨在解决无法获取 in-domain 数据标签的情况下,从语言模型和表示学习的角度,通过无监督的聚类和对比学习的结合,对 OOD 检测进行更好的数据表示学习,实验证明该方法的性能显著优于基于概率的方法,并且可以与基于标签信息的监督方法竞争。
Mar, 2022
提出了一种新的任务 —— 广义意图发现(GID),旨在将传统的领域内意图分类器扩展到包括领域外意图在内的开放世界意图集。为未来的工作提出了基于管道和端对端两种框架,并构建了三个不同应用场景的公共数据集,通过详尽实验和定性分析,为未来 GID 研究提供了新的指导。
Sep, 2022
本文提出了一种基于自动编码器和生成对抗网络生成伪 OOD 样本来提高 NLU 中 OOD 检测性能的新模型,同时也演示了未标注数据可以进一步提高这些伪 OOD 数据的有效性。
Sep, 2019
本文介绍了一种利用对比性训练来提高机器学习系统检测异常数据输入的方法,通过引入和使用混淆对数概率得分来量化数据集的内离散度,作者证明了这种方法在 “近 OOD” 类的性能较先前方法有所提高。
Jul, 2020
本文介绍了通过使用变分自编码器、非监督聚类等方法,解决了任务导向型对话系统中存在的 Out of Scope,Out of Domain 等输入识别问题,以及训练 Intent Detection 模型时的数据集标注问题。在英文和波斯语中的实验结果表明,我们的模型在同时实现 OOD/OOS 意图检测和意图发现方面取得了优异的性能效果,超越了基准线。
Mar, 2023
使用 SupCon 训练从训练分布中识别外分布样本是机器学习模型安全部署中的重要问题。我们在这项工作中运用强大的 SupCon 学习表征,并提出了一种全面的方法来学习对 OOD 数据稳健的分类器。我们通过增加两个对比项来扩展 SupCon 损失,第一个项将辅助 OOD 表征与 ID 表征分开,而不对辅助数据的相似性产生任何约束。第二个项将 OOD 特征远离现有类原型,并将 ID 表征推近其对应的类原型。当辅助 OOD 数据不可用时,我们提出了特征混合技术来高效生成伪 OOD 特征。我们的解决方案简单高效,作为闭集监督对比表征学习的自然扩展。我们在常见基准测试中与不同的 OOD 检测方法进行了比较,并展示了最先进的结果。
Oct, 2023
设计了一种基于度量学习和自适应决策边界的 OOD 检测算法,相较于其他算法,在类别数量较少的情况下显著提高 OOD 性能,保持了 IND 类别的准确性。
Apr, 2022
该论文提出了一种基于对比学习的框架,旨在有效地进行 out-of-distribution 检测,利用预训练的语言模型吸收丰富的信息,并在意图分类和异常检测等数据集中取得了显著的效果。
Oct, 2022