最大化域内外分布样本表示差距的探索
基于预训练网络的提出高斯分布,通过权重参数抽样区分正常数据和超出分布的数据,证明我们的贝叶斯目标检测器在 BDD100k 和 VOC 数据集上的训练,并在 COCO2017 数据集上的评估中通过降低 FPR95 分数最多 8.19%和增加 AUROC 分数最多 13.94%来实现了令人满意的超出分布的辨别性能。
Oct, 2023
我们提出了一种基于假设的方法来确定新样本是属于训练集范围内还是超出范围,在黑盒系统中,通过深度神经网络 (DNN) 计算超出范围 (Out-of-Distribution, OoD) 的隐含回应,并将 OoD 检测问题形式化为不同组的隐含回应之间的假设检验。我们将这种方法应用于一个训练好的深度学习模型,用以检测未知的细菌样本,并展示了其在 InD 和 OoD 隐含回应之间揭示了可解释的差异。该方法对于系统性的新颖性检测和基于子标签训练的分类器的明智决策具有重要意义。
Mar, 2024
该研究提出了一种名为 Prior Networks(PNs)的框架来模型化分类任务中的数据和分布不确定性,并在 MNIST 数据集上实现了对 OOD 样本的识别和误分类的检测,与之前的方法相比,PNs 具有更好的表现。
Feb, 2018
本文中,我们通过研究生成 “有效” 的 OOD 样本的复杂性,分析了调整之前的方法的可行性。我们提出了一种使用流形学习网络(例如变分自编码器)生成这些样本的新算法,然后训练一个 $n+1$ 分类器来检测 OOD,其中第 $n+1$ 类代表 OOD 样本。我们在 MNIST 和 Fashion-MNIST 数据集上将我们的方法与几种最近的基于分类器的 OOD 检测器进行了比较,实验表明我们的方法总体上表现更好。
Oct, 2019
本文提出了一种基于贝叶斯模型和 Monte-Carlo Dropout 技术的 OOD 检测框架,能够有效减少训练集和测试集分布的不匹配所导致的不确定性,从而提高 OOD 的 F1 得分。
Sep, 2022
本研究提出了一种改进基于像素 softmax 熵的方法的两步流程,通过引入第二个训练目标,最大化对不同数据集的 softmax 熵,并利用手工创造的 Metric 从 softmax 概率得出透明的后处理步骤来降低误检率,从而提高深度神经网络的 OoD 检测性能。
Dec, 2020
本研究旨在探索深度学习模型的不确定性量化方法,并考虑基于贝叶斯推理的模型在 OoD 检测中的表现,结果显示在某些情况下,这种模型略高于传统的深度神经网络,对于对新输入的敏感性的原因进行研究,并对对抗噪声鲁棒性的影响进行了研究。
Sep, 2020