- RIDA:一种针对不完整图的稳健攻击框架
图神经网络 (GNNs) 在数据科学中至关重要,但对对抗攻击越来越容易受到攻击。为了帮助研究者开发更强大的 GNN 模型,着眼于设计强大的攻击模型作为基准和指导参考非常重要。在对抗攻击中,基于灰盒的污染攻击因其有效性和较少的约束而显著。这些 - 通过变形多边形贴片对单目深度估计进行物理对抗攻击
通过物理建模的方法,利用一种名为 Attack with Shape-Varying Patches (ASP) 的框架进行对单目深度估计进行攻击,提出了各种不同的遮罩形状,包括四边形、矩形和圆形遮罩,以增强攻击的灵活性和效率,并通过引入新 - S-E 管道:一种基于视觉变换器(ViT)的针对医学图像的抗对抗攻击的弹性分类管道
提出了一种新的图像分类流程,使用多个预处理步骤来减少对关键特征的输入扰动,从而减少敌对攻击的影响。实验证明该方法对于 ViT-b32 模型能减少 72.22% 的敌对攻击影响,对于 ViT-l32 模型能减少 86.58% 的敌对攻击影响。
- 综合梯度的代数对抗性攻击
在这项研究中,我们提出了代数对抗性示例,并研究了能够为综合梯度生成对抗性示例的条件,代数对抗性示例为对抗性示例提供了一个数学可行的方法。
- Sim-CLIP:无监督孪生对抗微调用于强大且语义丰富的视觉 - 语言模型
提出了 Sim-CLIP,一种无监督的对抗性微调方法,增强了广泛使用的 CLIP 视觉编码器对抗攻击的能力,同时保持了语义的丰富性和特异性。
- 大型语言模型中可解释的人工对抗提示攻击
对大规模语言模型进行漏洞测试的先前研究主要集中在注入荒谬提示,这些提示在手动或自动审核中很容易被检测出来。然而,对注入人类可理解的恶意提示进行探索的研究仍然有限。本研究中,我们探讨了通过情境驱动的上下文重写将荒谬的后缀攻击转化为有意义的提示 - CVPRPG-Attack:一种面向自动驾驶视觉基础模型的精准引导对抗攻击框架
自主驾驶系统中广泛采用视觉基础模型,但这些模型容易受到对抗攻击,影响自动驾驶车辆的可靠性和安全性。为了解决这个挑战,我们提出了一种新颖的精确引导的对抗攻击框架,将精确掩蔽扰动攻击 (PMP-Attack) 和欺骗性文本补丁攻击 (DTP-A - 基于局部特征掩码的鲁棒卷积神经网络超越 Dropout
本研究介绍了一种创新的局部特征屏蔽(LFM)策略,旨在加强卷积神经网络(CNNs)在对抗攻击和强大泛化能力之间的表现。实证结果表明,LFM 的无缝集成为深度学习范式中的泛化和对抗鲁棒性提供了显著的改进,并促进了鲁棒神经网络结构的发展。
- 分布鲁棒性和对抗性逻辑回归的交叉瓦砂块
通过使用辅助数据集,例如合成数据集、外部数据集或域外数据集,我们研究了对抗攻击下逻辑回归的分布鲁棒化问题,并展示该方法相对于基准方法在真实数据集上的持续优势。
- 证明 - 验证游戏提高 LLM 输出的可读性
通过使用可读性逐渐训练小验证器以提高大型语言模型(LLMs)的可读性和输出,以便在解决小学数学问题时提供清晰且易于检查的推理,这是一种增加对 LLMs 输出的信心的方法。
- 交叉任务攻击:基于注意力转移的自监督生成框架
提出了一种使用共同关注和反关注图来生成跨任务敌对扰动的自监督跨任务攻击框架 (CTA),其通过将样本的注意区域从共同关注图转移到反关注图,生成跨任务扰动。对多个视觉任务进行了广泛的实验,实验结果证实了所提出设计对于对抗攻击的有效性。
- 基于大型语言模型的图学习:对模型鲁棒性的深入研究
探索大型语言模型在图上的抵抗对抗攻击能力,并发现相较于浅层模型,大型语言模型作为增强器和预测器在结构和文本攻击方面都表现出更强的稳健性。
- 松弛图变换器用于对抗攻击
对基于图的神经网络(GNNs)存在的脆弱性进行研究,发现基于位置编码和特殊注意机制的图变换网络(GT)也容易受到对抗性攻击,本研究针对具有不同位置编码的三种 GT 架构提出了第一个自适应攻击方法,并评估了对不同攻击的鲁棒性,结果显示其脆弱性 - 对表格数据上敌对攻击的隐蔽性研究:实证分析
针对表格数据的对抗性攻击存在许多挑战,因此需要应对这些挑战并评估攻击效果的标准化指标,同时还需要引入稀疏性度量以控制特征扰动的数量。
- 变分随机平滑:面向样本级拟抗扰动性
该论文提出了一种新的变分框架,通过引入噪声级别选择器,在每个输入上使用适当的噪声级别,从而实现对抗性攻击的提升。实验结果表明,我们的基于样本的平滑方法在经验上具有更强的鲁棒性。我们还提供并分析了我们的样本平滑方法的认证鲁棒性。
- 走向对抗性强大的视觉语言模型:设计选择和提示格式技术的洞察
机视语言模型在研究和实际应用中取得了突破,但其对抗性攻击的鲁棒性至关重要。本研究系统地研究了模型设计选择对机视语言模型在图像攻击方面的抗打击能力的影响。此外,我们引入了新颖且经济的方法通过提示格式来增强鲁棒性。通过改写问题和建议可能的对抗性 - SENTINEL: 使用胶囊神经网络保护室内定位免受对抗攻击
SENTINEL 是一个嵌入式机器学习框架,利用改进的胶囊神经网络来增强室内定位解决方案的抵抗能力,并解决 Wi-Fi 接收信号强度、室内定位、机器学习、对抗攻击和嵌入式机器学习框架等问题。
- ECCV可转移的三维对抗形状补全使用扩散模型
利用扩散模型生成高质量的对抗性点云,通过对形状完成进行对抗性引导,该方法在黑盒模型和防御措施中超过了现有的对抗性攻击方法,为评估各种 3D 点云分类模型的鲁棒性建立了新的基准线。
- TAPI: 针对代码 LLMs 的目标特定和对抗性提示注入
此研究提出了一种新的攻击范式,即面向目标和对抗性提示注入(TAPI),针对代码导向的大型语言模型(Code LLMs)。TAPI 在外部源代码中生成包含恶意指令信息的不可读注释,并将其隐藏为触发器。当用户利用 Code LLMs 完成包含触 - 深度对抗防御多级 - Lp 攻击
本文介绍了一种名为高效鲁棒模型连通性(EMRC)的计算高效的多级 lp 防御方法,旨在增强深度学习模型对多种 lp 范数攻击的鲁棒性,并通过实验证明该方法在各种攻击中相对于 AT-l∞、E-AT 和 MSD 更具性能优势。