通过锐度实现鲁棒的离分布泛化界限
我们的研究探讨了分布偏移程度的更加微妙的评估设置,我们发现模型的稳健性在不同程度的分布偏移下可能相当脆弱和不一致,因此在从有限范围下的评估中得出结论时应更加谨慎。此外,我们观察到大规模预训练模型(如 CLIP)对于新颖下游任务的微小分布偏移也很敏感。这表明,尽管预训练表示可以帮助提高内分布性能,但在某些 OOD 场景中可能对泛化性能产生最小甚至负面影响,如果不正确使用。鉴于这些发现,我们鼓励未来的研究在可能的情况下进行更广泛范围的评估。
Oct, 2023
本文第一次尝试对 OOD 问题的可学习性和扩张函数进行严格和量化的定义,并引入了一个新的扩张函数概念来量化不变特征的方差程度,进而证明了 OOD 泛化误差界,实验证明我们的模型选择标准相比基线有显著优势。
Jun, 2021
在本研究中,我们发现了一个反直觉的现象:在涉及目标任务的样本数量增加之前,由于少量的来自未知分布数据的样本,可以提高任务的泛化性能,但随着样本数量的增加,泛化误差达到阈值后会逐渐下降;我们采用合成数据集上的 Fisher's Linear Discriminant 和计算机视觉基准数据集(如 MNIST、CIFAR-10、CINIC-10、PACS 和 DomainNet)上的深度神经网络来证明这一现象;在我们知道哪些样本是未知分布的理想情况下,我们可以使用适当加权的目标和外部风险的目标函数来利用这些非单调趋势,但其实际效用有限,此外,当我们不知道哪些样本是未知分布时,数据增强、超参数优化和预训练等常用策略仍然无法保证目标泛化误差不会随着未知分布样本数量的增加而下降。
Aug, 2022
语义领域间异常检测方法同时解决多个分布转变,并通过提出的领域泛化和异常检测正则化策略,在三个领域泛化基准测试中展示了其对于异常检测性能的卓越表现以及相当的 InD 分类准确度。
Sep, 2023
在研究中,我们调查了训练数据的增加对测试数据中的泛化错误的影响,并将未观察到的数据分布定义为训练领域的凸包外的数据,提出了一种基于这一定义的新型泛化界限,并探索了数据增强和预训练等策略以解决这个问题,最后我们还提出了一种在源领域中的强化学习选择算法,能够比基线方法提供更好的性能。
Dec, 2023
现有研究在提高对抗鲁棒性方面取得了很大进展,但通常只在与训练数据相同分布的数据上进行测试,即内分布(ID)测试。然而,如何在输入分布转移(即出分布(OOD)测试)下实现这种鲁棒性的泛化仍不清楚。因此,我们提出了一个名为 OODRobustBench 的基准来全面评估 OOD 对抗鲁棒性,使用 23 种数据集级的转移(即输入分布中的自然转移)和 6 种威胁级的转移(即未知的对抗威胁模型)。OODRobustBench 用于评估 706 个稳健模型,使用 60.7K 个对抗性评估。这个大规模分析显示:1)对抗鲁棒性在 OOD 泛化问题上存在严重问题;2)ID 鲁棒性与 OOD 鲁棒性在许多分布转移下呈正线性相关,这使得可以从 ID 鲁棒性预测 OOD 鲁棒性。基于这一点,我们能够预测现有强化训练方案的 OOD 鲁棒性的上限。研究结果表明,实现 OOD 鲁棒性需要设计超出传统方法的新方法。最后,我们发现额外数据、数据增强、先进的模型架构和特定的正则化方法可以提高 OOD 鲁棒性。值得注意的是,与基准相比,发现的训练方案在威胁转移下表现出明显更高的鲁棒性,同时保持高的 ID 鲁棒性,为多攻击和未知攻击的鲁棒性提供新的有希望的解决方案。
Oct, 2023
通过引入图学习不变领域生成(GLIDER)的新框架,本文在节点级别的属性分布和拓扑结构分布的共同分布转变的情境下,实现了优于基准方法的节点级别 OOD 广义化跨域模型。
Mar, 2024
提出了 SharpDRO 方法来解决分布稀疏和含有噪声的训练集,并考虑了最坏情况下的选择过程,理论上收敛并在三个数据集上实现了良好的性能。
Mar, 2023