拒绝选项模型包含的分布外检测
本文旨在识别常见的目标,以及识别不同 OOD 检测方法的隐含评分函数。我们展示了许多方法在共享学习方式下表现相似,二进制区分器达到与异常暴露相似的 OOD 检测性能,还展示了置信度损失具有在理论上最优得分函数不同但与训练和测试 out-distribution 相同时的函数相似的隐含评分函数,从实践中发现,这些方法训练方式一致时都表现相似。
Jun, 2022
通过与专家反馈相结合的数学理论模型,我们提出了一种能够在动态应用中满足假阳性率约束同时最小化人工反馈的离群样本检测框架。同时,该框架可以与任何用于量化离群不确定性的评分函数一起使用,并在合成和基准离群数据集上经验证实,能够将假阳性率维持在最多 5%的同时最大化真阳性率。
Apr, 2024
基于预训练网络的提出高斯分布,通过权重参数抽样区分正常数据和超出分布的数据,证明我们的贝叶斯目标检测器在 BDD100k 和 VOC 数据集上的训练,并在 COCO2017 数据集上的评估中通过降低 FPR95 分数最多 8.19%和增加 AUROC 分数最多 13.94%来实现了令人满意的超出分布的辨别性能。
Oct, 2023
本文提出了一种基于野外混合数据的新颖框架,旨在改进在野外部署的机器学习模型的 OOD 检测能力,通过最大化 OOD 检测率并设定 ID 数据的分类误差和 ID 示例的 OOD 错误率的约束条件的学习目标,有效地解决了这个问题,并在常见的 OOD 检测任务中获得了优异的性能。
Feb, 2022
本文提出了一个更广泛的框架来研究模型针对特定因素(如未知类别、协变量变化等) 检测 out-of-distribution(OOD)问题,该框架能够检测出一个训练好的机器学习模型无法正确预测的测试样例,而是否拒绝该测试样例取决于模型本身,该文提供了大量分析和见解,用以改进和理解在不受控制的环境中的 OOD 检测。
Apr, 2023
本文提出了一种基于贝叶斯模型和 Monte-Carlo Dropout 技术的 OOD 检测框架,能够有效减少训练集和测试集分布的不匹配所导致的不确定性,从而提高 OOD 的 F1 得分。
Sep, 2022
机器学习中,识别推理数据是否超出模型的预期输入分布对于给出预测的上下文至关重要。我们的研究针对基于表示或基于逻辑方法的超出分布检测方法,并提出了用于特征嵌入降维的表示方法和解决了一个问题的基于逻辑方法。我们在 OpenOODv1.5 基准框架上验证了我们方法的有效性,结果显示性能显著提升,并达到了最新的技术水平。
Jan, 2024
研究讨论了关于基于基因组序列的细菌识别的 out-of-distribution (OOD) inputs 问题,提出了用于深度生成模型的似然比方法来纠正背景统计数据偏差,并在 genomics 数据集上进行了实验。结果表明,我们的方法在 OOD 检测方面取得了最好的性能,并且我们证明了该方法的广泛适用性。
Jun, 2019
本文提出了一个 OOD 代理框架,统一了许多最近提出的基于似然比的方法,并指出似然比是一种原则性的 OOD 检测方法,而不是简单的方法修正。此外,还讨论了领域区分和语义之间的关系。
Oct, 2022