自适应训练:超越经验风险最小化
这项研究提出了一个修订的方法来在完全无偏见的情况下进行训练和验证无偏见模型,通过采用预训练的自监督模型可靠地提取偏见信息,并与我们的验证准则结合使用逻辑调整训练损失函数。我们的实证分析证明了我们的方法克服了所发现的挑战,始终提高了鲁棒准确性,达到与或优于依赖偏见标签进行验证的最先进方法的性能。
Oct, 2023
本文针对系统域转移下的计算机视觉模型,提出了熵最小化和伪标记等自学习技术的应用,通过大量实验展示了显著的改进效果和实用性。同时,本文还提出了一个新的分类数据集 ImageNet-D,对于自适应算法来说具有一定的挑战性。
Apr, 2021
本文提出了对于概率鲁棒学习方法的新的几何观点,针对其原始公式存在的细微缺陷,引入了一族概率非局部周长函数,通过新颖的松弛方法证明了解的存在性,并研究了所引入的周长的性质与局部极限。
May, 2023
我們提出了一種有效且強健的對抗訓練 (ERAT) 框架,能夠同時處理兩類污染 (即數據和標籤),而不需要事先了解其具體信息。我們通過混合對抗訓練和基於類平衡樣本選擇的半監督學習提高了模型對雙重污染的韌性。大量實驗證明了我們提出的 ERAT 框架的優越性。
May, 2024
通过理论和实验,我们证明了半监督学习可以显著提高对抗性鲁棒性,实验结果表明在 CIFAR-10 上使用 500k 未标记图像,使用自我训练方法可以超过最先进的对抗性鲁棒的准确度。在 SVHN 上,使用模型自身的额外的训练集可以提高 4 至 10 个百分点,与使用额外标签的提高量相差不大。
May, 2019
在此研究中,我们提出了一种基于自适应认证半径训练的新方法,旨在在保持高标准准确性的同时,提高模型的鲁棒性和准确性,从而推进现有准确性与鲁棒性的权衡。我们在 MNIST、CIFAR-10 和 TinyImageNet 数据集上验证了该方法的有效性,尤其在 CIFAR-10 和 TinyImageNet 上,与基准方法相比,我们的方法在相同标准准确性水平下能够提供高达两倍的鲁棒性。
Jul, 2023
本研究通过对线性回归中对最优线性预测器进行噪声扰动的方法,准确描述了数据增广对于标准误差的影响,并证明了最近提出的鲁棒自学习估计器(RST)可以在不损失标准误差的情况下提高鲁棒误差。经验证,使用不同的对抗训练方法进行 RST 可以改善 CIFAR-10 数据集上的标准误差和鲁棒误差。
Feb, 2020
提出一种通过生成软标签辅助来增强对抗训练模型的方法 Annealing Self-Distillation Rectification (ADR),该方法显著改善了模型的鲁棒性并且易于与其他对抗训练技术进行无缝集成。
May, 2023