- CVPR针对领域偏移场景的后验不确定性校准
本文探讨了深度神经网络中不确定性校准问题,并提出了一种针对域偏移的后处理校准方法,其通过对验证集的样本进行扰动,可大幅提高模型的校准性能。
- AAAI单步对抗训练中的灾难性过拟合理解
本文研究了如何防止在单步对抗训练中出现的 “灾难性过拟合” 的问题,并提出了一种简单的方法,不仅可以预防此问题,而且能够在单步对抗训练中防止多步对抗攻击。
- ICML关于标准和鲁棒高斯过程赌博优化的下限
本文研究在 Reproducing Kernel Hilbert Space(RKHS)中具有有界范数的函数的黑盒优化问题的算法无关下限,并提供了在标准噪声和各类扰动下的决策边界。
- 快速可微的剪裁感知归一化和重新调整
通过一种快速可微的算法,可以找到在向量裁剪后所需的最佳缩放量,从而有效地减小干扰并重新调整向量。
- ICML使用归一化流进行黑盒对抗样本生成
提出一种基于正则化流的新型黑盒对抗攻击方式,该方法通过对预先训练的流式模型基本分布进行搜索,生成的对手更加接近原始数据。同时,该研究还展示了该方法相对于已知黑盒对抗攻击方法的竞争性能。
- ICLR使用 Voronoi-Epsilon 对抗者测量对抗鲁棒性
研究采用 Voronoi-epsilon 对抗者来构建对抗样本,平衡扰动的两个概念,以克服传统对抗准确性定义中准确性和对抗准确性之间的权衡,并证明在此对抗者上,最近邻分类器是对抗性最强的分类器之一。
- EMNLP自然扰动使问答更具鲁棒性
本文提出一种用人工产生的自然扰动而不是机器规则扰动,通过极小化现有数据集的扰动来使得机器学习模型对小的输入改变不敏感。在 BoolQ 数据集上的实验表明,使用自然扰动能够提高模型的鲁棒性和泛化能力,同时保持原有的高性能。
- ICML神经网络高斯过程的有限尺寸修正
研究使用高斯过程模拟神经网络的兴趣越来越浓厚,本研究针对具有单隐藏层的大规模有限完全连接网络展示了输出在初始化时的高斯分布,同时发现该扰动的尺度与神经网络单元的数量成反比例关系,高阶项逐渐衰减,进而回复到 Edgeworth 扩展的形式;最 - ICCV通过中间层攻击增强对抗样本的可传递性
介绍了一种名为 ILA 的攻击方法,它可以利用源模型的中间层信息对现有的对抗样本进行微调,从而提高黑盒攻击的成功率。
- 快速自适应边界攻击生成最小扭曲的对抗样本
本文提出了一种新的基于 $l_p$-norms 的白盒对抗攻击方法,通过最小化扰动的大小来改变特定输入的类别,这个方法具有几何直观性,是一种性能优越的攻击方法,比专门针对一个 $l_p$-norm 的攻击方法具有更好的鲁棒性,并且可以解决梯 - 通过重连对图卷积网络进行攻击
本文提出了一种针对图神经网络的对抗攻击方法,通过图重连的操作,使用强化学习生成对于目标模型影响较小的扰动,并在真实图数据集上进行实验及分析,证明该方法的有效性。
- 不完美群体信息下的均等准确率后处理
本文研究了在只有保护属性的不完美信息的情况下,公平干预是否仍然可行。我们特别研究了 Hardt 等人(2016)的等化几率后处理方法,证明了在属性扰动的情况下,只要符合我们所确定的条件,即使运行等化几率,分类器的偏差也会降低。我们还研究了所 - 基于梯度下降的对抗训练在可分数据上的归纳偏置
本文研究围绕梯度下降的对抗训练方法,探讨了其具有鲁棒性的理论性质,特别是其归纳偏差。发现使用对抗扰动训练的分类器以更快的速率收敛,而且具有更大的鲁棒性,这为对抗训练的鲁棒性提供了理论支持。
- 稳健分类中的计算限制和双赢结果
本文研究了在学习稳健分类器时统计 / 计算权衡的问题,证明了 对于一些分类任务,即使存在计算不受限制的稳健分类器,也不可能得到高效的稳健分类器,而这与计算数论中一些重要的开放问题密切相关。
- 快速几何扰动对抗人脸
本研究探索了几何扰动对人脸识别系统的影响,并提出了一种快速的地标操纵方法,生成的对抗性人脸具有极高的成功率,并且极其健壮,对最新的防御方法也具有攻击能力,代码链接在文中。
- 梯度掩码导致 CLEVER 高估对抗扰动的大小
本报告提出的 CLEVER 评分方法虽可估计出较低的对抗扰动阈值,但其受攻击方法的常见问题 —— 梯度掩盖 —— 的影响而过高估计扰动大小,未能解决攻击方法所面临的关键问题。
- 适应性拉普拉斯机制:深度学习中的差分隐私保护
本文提出了一种新颖的机制来保护深度神经网络的差分隐私,其中包括对神经元的仿射变换、损失函数的扰动方法,并在特征与输出间加入更多 / 更少的噪声。理论分析和实验结果证明该机制相对于现有解决方案具有更高的有效性。
- 近乎正交可分解对称张量的连续秩一近似
文章表明,即使存在扰动,使用连续的秩一近似方法仍然可以强有力地恢复下层张量的对称规范分解,当扰动误差足够小时,近似误差不会随迭代次数累积,并且提供了数值结果来支持该理论发现。
- 深度网络的简单黑盒对抗扰动
研究表明,即使没有内部知识,对深度卷积神经网络进行黑盒攻击并制造对抗性样本是可行的,这暴露了深度神经网络的弱点,为设计安全的网络提供了检验。
- 加速扩散
该论文讨论了一类扰动扩散过程的收敛速度问题,证明了引入一个额外的漂移可以加速收敛。