关键词adversarial robustness
搜索结果 - 345
- 教师 - 学生环境中的密集式霍普菲尔德网络
Dense Hopfield 网络在特征到原型的转换和对抗性鲁棒性方面具有特色。本研究通过研究无监督学习问题中教师 - 学生设置的 p-body Hopfield 网络的相图,在模式检索方面揭示了类似于原型学习和特征学习区域的铁磁相。我们发 - ICML在存在敌对参与者的情况下,基于数据驱动的子抽样
通过对使用深度学习模型进行自动调制识别和子采样的自动调制识别系统进行对抗攻击的分析,揭示了子采样本身对对抗攻击具有有效的威慑作用,并找到了在对分类器和子采样器都预计会进行对抗攻击时最高效的子采样策略。
- AAAILRS: 通过利普希茨正则化提升敌对迁移性
提出了一种新颖的基于 Lipschitz 规正化的模拟模型(LRS)方法,用于转移性黑盒攻击中,通过改进模型参数以获得更好的攻击效果和转移性。研究还揭示了模拟模型的内在属性与转移性之间的关联,包括更小的局部 Lipschitz 常数、更平滑 - 对抗迁移学习中的初始化问题
在这项研究中,我们深入研究了迁移学习中的对抗鲁棒性,并揭示了初始化的关键作用,包括预训练模型和线性头部。我们发现对抗鲁棒的预训练模型的必要性,并通过线性探测发现它能在某些数据集上优于全面微调和其他方法。基于此,我们提出了 Robust Li - (可证明的)群等变任务中的对抗鲁棒性:图形,点云,分子等
机器学习模型的稳健性不仅需要考虑输入微扰对其预测的影响,还要考虑任务的等变性。本研究首次提出了适用于等变性任务的对抗稳健性概念,并证明了通过选择符合任务等变性的模型和进行传统的对抗稳健性认证可以实现可证稳健性。此外,本研究还通过等变性保持随 - 自动驾驶中激光雷达 - 相机融合模型的对抗鲁棒性探索
本研究评估了 LiDAR - 相机融合模型在 3D 物体检测中的对抗鲁棒性。我们介绍了一种攻击技术,在汽车上简单添加一定数量的物理限制的对抗点后,可以使车辆在融合模型中无法检测到。实验结果表明,即使在图像数据通道没有变化的情况下,通过操纵 - 受去极化噪声影响的量子神经网络:探索白盒攻击和防御
利用量子力学的独特性质,量子机器学习(QML)在传统系统到达极限时承诺实现计算突破和丰富视角。然而,类似于经典机器学习,QML 也无法免受敌对攻击。量子敌对机器学习在凸显面对敌对性特征向量时的 QML 模型的弱点方面发挥了重要作用。在深入研 - 对抗性鲁棒基于记忆的持续学习器
对记忆型持续学习算法的对抗鲁棒性进行研究,提出了一种新的对抗鲁棒记忆型持续学习方法,通过调整数据的逻辑值来减轻敌对样本导致的过去信息遗忘,并通过梯度选择机制克服有限存储数据导致的梯度混淆,实验结果表明该方法在对抗数据上取得高达 8.13% - 这张图片有几只独角兽?一项用于视觉语言模型的安全评估基准
该研究聚焦于 Vision LLMs(VLLMs)在视觉推理中的潜力,从评估性能转移到引入了全面的安全评估套件,包括分布外泛化和对抗鲁棒性。
- 模型压缩与对抗鲁棒性的关系:当前证据综述
增加模型容量是增强深度学习网络对抗性鲁棒性的已知方法之一,而剪枝和量化等压缩技术则可以减小网络的大小同时保持准确性。本研究总结了现有证据并讨论了观察到的效果可能的解释。
- 稳健的图神经网络通过无偏聚合
通过对代表性鲁棒性图神经网络的鲁棒性分析,我们提供了一个统一的鲁棒估计视角以了解它们的鲁棒性和局限性。我们通过估计偏差的新颖分析来设计了一个鲁棒而无偏的图信号估计器,并开发了一个高效的拟牛顿迭代加权最小二乘算法来解决估计问题,在图神经网络中 - 训练健壮且具有通用性的量子模型
本文研究了基于 Lipschitz 界限的量子机器学习中的对抗鲁棒性和泛化性质,导出了适用于具有可训练编码的量子模型的定制参数相关的 Lipschitz 界限,并展示了数据编码的范数对于抵抗输入数据扰动的鲁棒性具有关键影响。此外,我们导出了 - 走向强大而准确的视觉提示
我们研究了视觉提示在强大源模型下的性能表现,并提出了一种名为 Prompt Boundary Loose (PBL) 的新技术来有效减轻在标准准确性上的次优结果,同时使用强大模型作为源模型不会丧失(甚至明显改善)其对抗性鲁棒性。在多个数据集 - 通过转化实现对抗性鲁棒性的尖峰神经网络
我们提出了一种通过 ANN-to-SNN 转换算法实现对深度 SNN 的鲁棒性训练的方法,该方法在后转换的鲁棒微调阶段,通过对 SNN 的层内发射阈值和突触连接权重进行敌对优化,以保持从预训练 ANN 传递的鲁棒性增益,实现了扩展性的鲁棒 - ACL测量对抗数据集
在广泛应用于各个领域的 AI 系统的时代,确保对抗性鲁棒性变得越来越重要,以维护安全性并防止不可取的错误。本研究对描述 NLP 任务中文本实例的现有可量化指标进行了系统调查,并选择了几个当前的对抗效应数据集,比较了原始数据与对抗样本之间的分 - 检测防御:光流中对抗性贴图攻击的空洞承诺
当放置在任意场景位置时,敌对补丁削弱了光流预测的可靠性,因此对现实世界的运动检测及其下游应用构成了现实威胁。我们对目前可用的 ILP 和 LGS 防御策略进行了全面研究,探究其对最新光流方法的质量和稳健性的副作用。然而,当前使用的检测和移除 - 多尺度扩散去噪平滑
通过多尺度平滑和扩散模型,本论文研究了平滑方法的准确性和认证鲁棒性之间的平衡,以实现对大规模模型的对抗性稳健性。
- OODRobustBench:基于分布偏移的对抗鲁棒性评估与分析
现有研究在提高对抗鲁棒性方面取得了很大进展,但通常只在与训练数据相同分布的数据上进行测试,即内分布(ID)测试。然而,如何在输入分布转移(即出分布(OOD)测试)下实现这种鲁棒性的泛化仍不清楚。因此,我们提出了一个名为 OODRobustB - 任意分割物体遭受通用对抗扰动
研究了如何使用自我监督对比学习来生成一种基于锚定样本的普适性对抗扰动,以攻击 Segment Anything Model(SAM)。验证了该方法的有效性并探讨了正负样本在生成 UAP 时的作用。
- IRAD:隐式表征驱动的图像重采样抵抗对抗攻击
我们介绍了一种对抗性攻击的新方法,即图像重采样。通过图像重采样,我们可以在减轻对抗扰动的影响的同时保留关键的语义信息,从而在对抗性攻击防御方面具有固有的优势。我们提出了一种使用隐式表示驱动的图像重采样方法来克服基本方法的一些限制,并通过广泛