检测语义异常
深度神经网络在各种技术和服务中得到越来越广泛的应用,但其容易受到来自训练集不同分布的样本的干扰,而常见的解决方法是使深度神经网络具备检测这种样本的能力。本文提出了一种基于 ImageNet 和 Places365 的全面评估标准,根据与训练集的语义相似性,将个别类别分为内部分布和外部分布,通过不同的技术确定哪些类别应被视为内部分布,得到具备不同性质的评估标准。不同的 ODD 检测技术在不同的评估标准下的实验结果表明,它们的有效性取决于所选择的评估标准,而基于置信度的技术在接近 ODD 样本上可能优于基于分类器的技术。
Apr, 2024
本文提出了一个名为 OpenOOD 的统一的、结构化的代码库,该库实现了超过 30 种 ODD 检测方法,并在最近提出的一般化 OOD 检测框架下提供了全面的基准。作者通过对这些方法的全面比较发现,过去几年中,该领域取得了显著进展,其中预处理方法和正交后处理方法显示出很强的潜力。
Oct, 2022
本文提出了一种名为 ObsNet 的 OOD 检测体系结构,通过基于局部对抗攻击(LAA)的专用训练方案,实现了在速度和精度方面得到表现的最佳方法,解决了当前方法在实际应用中速度和精度快慢两难的问题。
Aug, 2021
通过广泛的实验,我们展示了当前的 ODD 检测器对于协变量转移比语义转移更为敏感,并且最新的 ODD 检测算法对于语义转移的检测效果微乎其微。我们的数据集和分析为指导未来的 ODD 检测器设计提供了重要见解。
Oct, 2023
本文着重介绍了现有方法在处理 NLP 中 OOD 检测时的局限性,对八种常见的 OOD 检测方法进行了评估并分析了其存在的问题,发现现有方法对于各类型分布偏移的检测敏感性不够,在领域内文本中存在令人困惑的测试场景,而需要开发更有效的 OOD 检测方法,本文为未来的研究提供了一个良好的、定义明确的基础。
Jul, 2023
本研究介绍了 OpenOOD v1.5,它是 OpenOOD v1 的显著改进,旨在确保精确、标准化和用户友好的 Out-of-Distribution 检测方法评估。OpenOOD v1.5 将其评估能力扩展到大规模数据集,研究全谱 Out-of-Distribution 检测,并引入了在线排行榜和易于使用的评估器等新功能,从而为 OOD 检测研究提供更加稳健和全面的评估基准。
Jun, 2023
本文提出了一个更广泛的框架来研究模型针对特定因素(如未知类别、协变量变化等) 检测 out-of-distribution(OOD)问题,该框架能够检测出一个训练好的机器学习模型无法正确预测的测试样例,而是否拒绝该测试样例取决于模型本身,该文提供了大量分析和见解,用以改进和理解在不受控制的环境中的 OOD 检测。
Apr, 2023
自主车辆需要准确理解其环境以安全导航。通过识别未知物体,特别是那些在训练过程中不存在的野生动物,以防止严重事故的发生非常重要。虽然语义分割方法在异常物体的识别方面取得了重大进展,但全面理解场景动态需要分割单个物体,因此实例分割至关重要。然而,由于缺乏专门的基准测试,这一领域的发展一直滞后。为了填补这一空白,我们将最常使用的异常分割基准测试扩展到实例分割任务。我们对异常实例分割方法的评估表明,这个挑战仍然是一个未解决的问题。可以在该网站和竞赛页面找到基准网址:[insert URL]。
Jun, 2024
本文通过在不同的数据集上使用深度学习的方法,实现了以城市街道场景为基础的图像识别模型对于不同场景下的物体进行准确分类和目标检测,并且通过对于特征向量的提取和降维,成功实现了基于图像碎片的图像检索和分割。
May, 2020