走向可靠的数据集提纯
该论文介绍了一个新的用于识别分布转移的未监督 OOD 检测器 TRUSTED,它基于变压器架构和数据深度的概念,实现了高效计算和最好的性能,能够有效地提高深度学习在实际应用中对于自然语言处理系统的适用性。
Nov, 2022
通过结合聚类和风险度量的最小化算法,实现数据集精炼,具备对子群体的有效泛化和稳健性,为解决合成数据集在面对低人口密度地区样本时表现优秀的问题提供了理论依据和数值实验验证。
Feb, 2024
我们提出了一种基于假设的方法来确定新样本是属于训练集范围内还是超出范围,在黑盒系统中,通过深度神经网络 (DNN) 计算超出范围 (Out-of-Distribution, OoD) 的隐含回应,并将 OoD 检测问题形式化为不同组的隐含回应之间的假设检验。我们将这种方法应用于一个训练好的深度学习模型,用以检测未知的细菌样本,并展示了其在 InD 和 OoD 隐含回应之间揭示了可解释的差异。该方法对于系统性的新颖性检测和基于子标签训练的分类器的明智决策具有重要意义。
Mar, 2024
该研究论文介绍了一种无论是否有 ID 训练数据都适用的 OOD 知识蒸馏学习框架,利用标准网络中的 OOD 敏感知识创建了一个能够区分 ID 和 OOD 样本的二分类器,并通过将 OOD 样本逐渐改变为 ID 样本同时调整预测置信度的方法,实现了同时合成 ID 和 OOD 样本,从而提高了 OOD 敏感性。通过理论分析给出了二分类器的泛化错误界限,实验证实了所提方法在检测 OOD 样本方面的有效性。
Nov, 2023
深度神经网络在各种技术和服务中得到越来越广泛的应用,但其容易受到来自训练集不同分布的样本的干扰,而常见的解决方法是使深度神经网络具备检测这种样本的能力。本文提出了一种基于 ImageNet 和 Places365 的全面评估标准,根据与训练集的语义相似性,将个别类别分为内部分布和外部分布,通过不同的技术确定哪些类别应被视为内部分布,得到具备不同性质的评估标准。不同的 ODD 检测技术在不同的评估标准下的实验结果表明,它们的有效性取决于所选择的评估标准,而基于置信度的技术在接近 ODD 样本上可能优于基于分类器的技术。
Apr, 2024
该研究提出了一种将深度度量学习和扩散模型结合起来的新方法,用于通过合成数据对于分布外(OOD)进行检测,并证明基于度量学习的损失函数优于 softmax,在生成的 OOD 数据上的训练使得模型在传统 OOD 检测指标上表现优于强基线模型。
May, 2024
利用 Wasserstein 分数的生成对抗训练模型,结合预测不确定性和模型正则化,提高了异常样本检测的准确性,并在计算机视觉数据集上表现出卓越的泛化能力。
Oct, 2023
研究使用机器学习技术的安全关键系统需要可靠的不确定性评估。本研究发现,深度神经网络在处理分布外数据时可能会产生过度自信的预测。本研究提出了一种具有保护分布外数据和高准确度的分类器,并提供所有实验代码。
Jun, 2021
研究机器学习中如何确定训练分布和 ODD(Out-Of-Distribution)样本的检测机制,提出了一种基于 l2 范数的无需特定组件或训练的 ODD 鲁棒性证明的新方法以及改进了检测 ODD 攻击技巧的现有技术,在 CIFAR10 / 100 平均 OOD 检测度量方面相对于之前的方法有约 13%/ 5%的提高,并在分布内样本上提供高水平的认证和敌对鲁棒性。
Mar, 2023
本文提出了一种数据集蒸馏的方法,通过集成剪断损失和梯度惩罚来调整专家轨迹参数的变化速率,并提出代表性初始化、均衡内环损失和权重摄动等增强策略,以解决现有方法在训练大型机器学习模型时存在的问题。实验结果表明,该方法在各种规模、大小和分辨率的数据集上明显优于之前的方法。
Oct, 2023