图像分布和任务对敌对鲁棒性的影响
通过采用置信区间与较少样本的统计估计方法,我们提供了一种新的方法来解决随机平滑中的计算负担,从而在标准方法中获得相同的统计保证。同时我们提出了一个随机版本的 Clopper-Pearson 置信区间,证明了这种方法的效果明显更好。
Jun, 2024
我们研究了深度神经网络在分类任务中的对抗性鲁棒性,通过矩阵理论解释了深度神经网络对分类的对抗性脆弱性,理论结果表明输入维度增加时,神经网络的对抗性鲁棒性会降低,并且其鲁棒性只能达到最佳鲁棒性的 1/√d。这一矩阵理论解释与以前的信息理论基于特征压缩的解释相一致。
Jun, 2024
最近对于对抗鲁棒性的研究依赖于丰富的训练数据,然而在现实生活中,由于安全和隐私问题,训练数据往往会被保持私密,而只有预训练权重对公众可见。因此我们对无数据对抗鲁棒性这一关键问题进行了研究,提出了 DataFreeShield 方法从数据生成和生成数据的对抗性训练两个角度解决该问题,并通过广泛的验证实验展示 DataFreeShield 优于基准方法,证明了该方法为对抗鲁棒性问题提供了首个完全无数据依赖性的解决方案。
Jun, 2024
我们提出了一种方法来评估图像分类人工神经网络的对抗鲁棒性,该方法利用 t-SNE 技术进行视觉检验,并且通过比较干净和扰动后的嵌入来确定网络中的弱点。通过对比两种不同的人类设计和神经进化设计的神经网络在 CIFAR-10 数据集上的分析,我们发现清晰和扰动表示之间的差异在特征提取层中就开始出现,并且影响后续的分类过程,这些结果得到了 t-SNE 图的视觉分析的支持。
Jun, 2024
图神经网络 (GNNs) 的脆弱性研究,通过系统性地考虑图数据模式、模型特定因素和对抗样本的传递性,揭示了对抗攻击对 GNN 的影响,从而为提高 GNN 的对抗鲁棒性提供了相关的准则和原则。
Jun, 2024
AI agents vulnerable to prompt injection attacks are evaluated for adversarial robustness using the AgentDojo framework, which includes realistic tasks, security test cases, and attack and defense paradigms, highlighting the need for new design principles to ensure reliable and robust performance.
Jun, 2024
我们提出了一种新颖的自监督对抗训练方法,通过利用视图合成以增强单眼深度估计模型对真实世界攻击的对抗鲁棒性,而无需真实深度的地面真值。我们的方法在两个代表性的单眼深度估计网络上进行实验证明,相比于特别设计用于单眼深度估计的监督学习和对比学习方法,具有更好的鲁棒性,对良性性能影响最小。
Jun, 2024
深度状态空间模型(SSMs)面临着真实世界部署中的对抗性扰动(APs)所带来的严重安全挑战。本研究评估了 SSMs 的不同结构变种在对抗训练(AT)中的对抗鲁棒性(AR)表现,并发现引入注意力机制对于 SSMs 在 AT 中具有更好的稳健性和泛化性之间的权衡,并提出了一种简单而有效的自适应缩放(AdS)机制以解决引入 RO 问题的困境。
Jun, 2024
在此论文中,我们进行了首个大规模的中性基准实验,重点关注单事件、右删失、低维度生存数据。我们对 18 种模型进行了评估,涵盖经典统计方法和常见的机器学习方法,并使用 32 个公开可用的数据集。通过性能评估,我们发现在低维度、右删失数据的标准生存分析环境中,Cox 比例风险模型仍然是足够简单和强大的方法。
Jun, 2024