关键词adversarially robust learning
搜索结果 - 3
- 关于健壮性 PAC 学习的可计算性
对抗性强健学习的计算要求进行了研究,引入了鲁棒可计算的 CPAC 学习问题,并提供了一些简单的充分条件。同时,展示了该框架的一些令人惊讶的效果,即对于鲁棒 CPAC 可学习性而言,并不需要鲁棒损失是可计算的。引入了可计算鲁棒破碎维度这一新维 - 将对抗性鲁棒学习降至非鲁棒 PAC 学习
通过将对抗性鲁棒学习简化到标准的 PAC 学习问题,即仅使用黑盒非鲁棒性学习器学习鲁棒性预测器的学习复杂度,我们提供了一个降低学习复杂度的方法,并证明了其数学上的正确性。同时,我们也给出了一个必要的下界。
- 对抗鲁棒性泛化需要更多数据
本文研究在简单自然数据模型中,对抗鲁棒学习的样本复杂度可以显著大于标准学习,这个差距是信息理论的,且与训练算法或模型家族无关。作者做了一些实验来证实这个结果。我们可以假设训练鲁棒分类器的困难,至少部分来自这种固有的更大的样本复杂度。