本文探讨了一种适用于分类器在对抗样本上放弃输出任何类别 (即通过放弃输出任何类别来实现对抗鲁棒性) 的情况下的对抗鲁棒性问题,提出了一种新的带有放弃选项的对抗鲁棒性目标函数,并提出了一个基于该目标函数的基准,最后提出了一种 Combined Abstention Robustness Learning (CARL) 方法来实现分类器及其应该放弃输出的输入空间的区域的联合学习。通过对 PGD 和 DeepFool 等攻击的评估,得出使用 CARL 训练的分类器比基准分类器更精确、更鲁棒、更有效。
Nov, 2019
我们研究了多类别分类中的学习与弃权的关键框架,介绍了一系列新的理论和算法结果,提出了几个新的代理损失函数家族,并分析了单阶段和两阶段学习设置的保证和应用,证明了我们的代理损失的优越性,并展示了广泛适用的两阶段弃权算法的卓越性能。
Oct, 2023
我们介绍了一种新的排名框架,其中学习器可以以有限的代价 $c$ 放弃对某些预测的判断,并对这个框架进行了广泛的理论分析,包括一系列 $f$- 一致性边界,达到了此领域的最新理论保证水平,我们进一步提出,这种新的放弃策略在使用常见的等连续假设空间时显得尤为重要,我们还报告了实验结果,证明了带放弃策略的排名方法的有效性。
Jul, 2023
本研究通过在模型输入中添加专门的弃权类别,并在未经筛选的数据集中训练深度神经网络,建立有效分类器以识别无法归类的数据,并在图像和文本分类等领域上取得了良好表现。
May, 2021
使用一种新的损失函数来训练深度神经网络进行分类并进行避免错标操作,使 DNN 在困惑的样本上避免误差,并在非避免的样本上继续学习和提高分类性能,并证明其在不同类型的标签噪声下的强大实用性
May, 2019
研究在未知扰动集合情况下,通过与攻击者的交互或访问攻击预测器来学习对抗性示例下的鲁棒性预测器问题,并考虑不同交互模型,对预测器假设类的 VC 和 Littlestone 维度进行样本复杂度上界,以及所需交互或成功攻击次数的上下界,无需对扰动集合进行任何假设。
Feb, 2021
通过将放弃预测视为缺失数据,本文提出了一种新的方法和角度来评估和比较弃权分类器,并借助观察因果推断的工具,开发了非参数和双重保守估计方法来有效地估计该数量。
May, 2023
在机器学习应用中,我们提出了一种风险规避的训练模型的方法,它通过优化在最难的样本上的表现来提高模型的稳定性和可预测性,关键是利用分布式随机优化算法和结构化行列式点过程进行大规模的学习任务。
Oct, 2019
本文探讨了两种机器学习模型用于生成视频未来帧预测的方法,并将它们相结合得到更真实、多样性更好的预测结果。
Apr, 2018
针对误差关键的机器学习应用中存在的可能放弃预测(或选择性预测)的问题,本研究在非参数异方差回归问题上提出了一种通过对给定点上的条件方差值进行假设检验的放弃过程。与已有方法不同,提出的方法不仅考虑方差本身的值,还考虑相应方差预测器的不确定性。我们对得出的估计器的风险证明了非渐进界限,并展示了多个不同的收敛模式。理论分析通过一系列的模拟和真实世界数据实验进行了说明。
Sep, 2023