- 基于神经坍缩的特征分离追求外域检测
本文通过神经坍缩(Neural Collapse)的特性来界定问题,并提出了一种称为 OrthLoss 的简单而有效的损失函数,将 OOD 数据的特征束缚在与 ID 特征的主要子空间正交的一个子空间中,从而通过不同的维度分离 ID 和 OO - DINO-SD 解决方案:2024 年 ICRA RoboDepth 挑战赛冠军
DINO-SD 是一种新颖的周围环视深度估计模型,可以用于自动驾驶中的深度图获取,具有强鲁棒性,在 2024 年 ICRA RoboDepth 挑战赛的第四项赛道上取得了最佳表现。
- DEEM:扩散模型作为大型语言模型对图像感知的眼睛
通过使用扩散模型的生成反馈来提高模型的鲁棒性,减少视觉幻觉,并且不需要额外的训练模块和更少的训练参数,DEEM 优于其他交替内容生成模型。
- 利用大规模预训练模型进行无需训练的深度伪造语音识别
通过使用大规模预训练模型,将音频深度伪造检测问题转化为说话人验证框架,利用被测声音样本和所声称身份的声音间的不匹配暴露假音频,实现了对广义能力的全面泛化。实验表明,基于预训练模型的检测器在内部数据上与监督方法不相上下,在外部数据上则大幅超越 - 离群数据:对抗样本的熟悉 —— 综述
深度神经网络在现实应用中会遇到来自分布失真和对抗性攻击的数据,本综述聚焦于这两个领域的交叉研究,探讨如何通过鲁棒的分布失真检测和统一的鲁棒性进行对抗性攻击和对分布失真数据的健壮处理。
- 提高人脸识别模型在未知数据上的公平性分类
通过在多个数据集的脸部图像中同时训练,我们研究了异常数据量模型的性能,观察到 Outlier Exposure 方法可以提高模型的准确性和其他度量指标,并通过引入可训练的权重参数以及重新加权不同类别标签的重要性来增强模型的表现。同时,我们还 - 领域泛化通过元学习:一项调查
深度神经网络在人工智能领域带来了革命性的进展,但面对分布转移时常常缺乏性能。传统神经网络假设训练和测试数据服从同一分布,然而实际应用中这一假设经常被违反。元学习作为一种有前景的方法,通过获取可传递的知识来快速适应各种任务,从而消除了从头学习 - 逐步接受未知:迈向可靠的现实世界稀疏训练
稀疏训练是一种在实际应用中资源高效的深度神经网络方法,然而,本研究揭示了稀疏训练加剧了对未知样本的不可靠性,通过提出一种新的对未知样本敏感的稀疏训练方法,我们改进了模型的准确性和可靠性,有效降低了面对未知样本时的模型自信度。
- 似然异常检测悖论的几何解释
概率估计的深度生成模型在处理复杂数据集时,尽管给较简单来源的数据分配了较高的概率值,但却没有生成这些数据,这个矛盾仍然没有得到解释,因此概率估计的 OOD 检测不可信。我们的研究观察到,当高概率区域中包含的概率质量最小时,这些区域将不会生成 - SegICL: 一个用于增强医学影像分割的通用上下文学习框架
通过 In-Context Learning (ICL) 实现的 SegICL 是一种新颖的方法,它能够在无需训练或微调的情况下,利用文本引导分割和上下文学习来应对在分布之外的数据模态和任务上的新分割任务。实验结果表明,SegICL 能够有 - SCOD: 从启发式到理论
在存在外部样本时面临选择性分类问题的可靠预测模型的设计,我们提出了三个关键贡献。首先,我们证明最优的 SCOD 策略采用了贝叶斯分类器用于分布内数据和一个在二维空间表示为随机线性分类器的选择器,利用了分布内分类器的条件风险和分布内外数据的似 - 训练早期对于超出分布泛化的影响
研究早期神经网络训练对神经网络在分布内任务上的性能有显著影响,但对于神经网络在分布外任务上的泛化性能的影响尚未得到充分研究。本研究使用渐进解冻(即逐渐解冻训练参数)的方法调查学习动态和神经网络训练早期的分布外泛化关系,发现渐进解冻对分布内结 - 利用统计技术在视觉模型中检测异常或超出分布的数据
机器学习系统中的越界数据和异常输入是当前的漏洞,往往导致系统做出错误的预测。本文评估了 Benford's 法则作为一种用于量化真实输入和受损输入之间差异的方法。我们相信在许多情况下,它可以用作检测异常数据点和标识越界数据的过滤器。我们希望 - WWW图形概括的合作分类与合理化
通过多样化训练分布、提取关键因子和知识蒸馏等方式,本文提出了一种协作分类和合理化方法(C2R),在图像分类任务中有效解决了图神经网络在面对分布外数据时的泛化问题。
- AAAI如何解决超出分布检测的维度诅咒?
机器学习模型在野外部署时可能会受到未知类别的离群数据的挑战。最近对 OOD 检测的进展依赖于距离度量,以区分相对于内部分布数据而言相对较远的样本。尽管有前景,但基于距离的方法可能受到维度灾难问题的困扰,从而限制了在高维特征空间中的功效。为解 - 发现高影响力的捷径推理:一种自动无模板方法
通过使用超出分布数据的方法,我们提出了一种识别快速推理的新方法,该方法不仅可以量化快速推理的严重程度,还不需要假设触发快速推理的令牌类型。我们在自然语言推理和情感分析方面的实验中成功地发现了之前研究中已知和未知的快速推理。
- 超越顶级一致性:使用差异来预测分布转移下的性能
模型泛化性和预测分布在数据的广泛应用中至关重要,本研究通过基于 Hellinger 距离、Jensen-Shannon 和 Kullback-Leibler 散度的模型差异概念,发现散度得分相对于最高 1 的概念在测试误差估计和检测率上提供 - 使用正确性判别器预测泛化性能
通过训练鉴别器来预测 NLP 模型在未见过的可能不同分布的数据上的准确性,从而得到一个上下界,无需使用未见过数据的真实标签。通过多个任务的实验证明了真实准确性在预测的上下界之间,并且这些上下界非常接近。
- 预防在点估计判别神经网络中对远离数据的任意高自信度
通过在神经网络输出中添加额外类别的逻辑回归值,我们解决了过度自信并提高对边界测试数据的性能表现。
- 基于满射正则化流的不确定性量化和外样本检测
通过使用满射规范化流方法,在深度神经网络模型中计算单次前向传播,可可靠地识别来自分布之外的数据集。该方法基于深度不确定性量化和正则化流中的最新进展,应用于合成数据集并与其他模型进行比较,表明满射流模型是可靠区分分布内外数据的关键组成部分。