Jun, 2024

缩小差距: 对健壮和标准泛化的 Rademacher 复杂性

TL;DR对深度神经网络进行对抗性示例训练通常导致对测试时的对抗数据泛化能力差,本论文通过Rademacher复杂度研究了这个问题,提出了上确界对于匹配标准设置中的最优上确界的DNN的对抗Rademacher复杂度,通过计算对抗函数类的覆盖数来解决核心挑战,并引入了一种新的覆盖数变体,称为“均匀覆盖数”,以有效地填补稳健和标准泛化中的Rademacher复杂度差距。