- CosalPure: 基于群体图像学习鲁棒共同显著性检测的概念
通过学习共显对象的概念,并利用该概念来净化对抗扰动,本文提出了一种新的增强鲁棒性的框架,可以显著提高共显对象检测方法的鲁棒性。
- 视觉 - 语言模型上的少样本对抗性提示学习
通过限制数据和提供对抗文本监督,提出了一种少样本对抗提示框架,该框架在提高对抗鲁棒性方面表现出卓越的能力,并在仅使用 1%的训练数据时,达到了与最先进的零样本对抗鲁棒性相匹配的水平。
- LocalStyleFool: 区域视频风格转移攻击使用分段模型
提出了 LocalStyleFool 这种基于局部风格转换的黑盒视频对抗攻击方法,通过对视频中的不同区域进行风格转换的扰动来提高每帧和每帧之间的真实性,并通过 Segment Anything Model (SAM) 的细致分割来提高高分辨 - ICLR图像胜于千言:视觉语言模型间的提示对抗传递
提出了一种名为 CroPA 的方法,通过使用可学习的提示来对抗误导性的对手图片,从而显著提高了对不同提示的对手样本的传递能力。
- 使用特征多样性对抗攻击变形器
提出了一种用于 Vision Transformer 模型的无标签白盒攻击方法,该方法在各种黑盒模型之间表现出较强的迁移性,包括大多数 Vision Transformer 变体、CNN 和 MLP,甚至是针对其他模态开发的模型。攻击的灵感 - 物理信号的对抗扰动
我们研究了基于计算机视觉的信号分类器对输入的敌对扰动的脆弱性,其中信号和扰动受到物理约束。通过求解 PDE 约束优化问题,我们构建了干扰信号使得即使对接收信号的谱图进行的扰动几乎不可察觉,探测器仍会误将源分类。尽管此类问题可能涉及数百万个决 - AAAI图神经网络的简单而又相对有效的防御方法
图神经网络(GNN)是处理图结构数据的主要方法,但存在对小的对抗性扰动脆弱性的问题。本文介绍了一种新的防御方法 NoisyGNNs,它通过在模型架构中引入噪声来提高 GNN 的鲁棒性。通过理论分析和实证评估,揭示了噪声注入和 GNN 鲁棒性 - 变分和机器学习逆问题方法的稳健性和探索性研究综述
本文概述了目前采用变分方法和机器学习解决成像反问题的方法。重点关注点估计器及其对抗扰动的鲁棒性,并通过数值实验的结果验证了不同方法的鲁棒性和理论保证的实证。此外,还探讨了显式引导数据一致解子空间来满足特定语义或纹理属性的研究。
- ICLR学习对抗性扰动的理论理解
理论框架揭示了扰动中包含了足够的类别特征以实现泛化,并且学习扰动的决策边界与标准样本的决策边界在大部分区域上相一致。
- 使用自由空间分割模型提高室内机器人导航的鲁棒性对抗对策
在室内机器人导航中,我们通过分割模型在 RGB 图像中识别自由空间来提高导航精度。然而,深度学习模型容易受到对抗性攻击的影响,给其真实世界的应用带来了巨大挑战。本研究中,我们在神经网络的隐藏层中发现了漏洞,并引入了一种实用的方法来加强传统的 - 学习最小方差特征通过标签增强
我们分析了标签增强方法在模型训练中的作用,证明了采用标签增强的线性模型仅仅学习数据中的最小方差特征,而标准训练则能够学习到更高方差的特征。我们的结果表明,与标准训练相比,标签平滑和 Mixup 在对抗性扰动下对训练数据的鲁棒性较差。通过对合 - EMNLP隐匿论文代写:AI 生成学生论文检测的对抗性评估
构建了 AIG-ASAP 数据集,利用文本扰动方法生成高质量的学生论文,评估当前 AIGC 检测器在该数据集上的性能,发现现有检测器容易受到自动对抗攻击的规避,强调需要更准确、更稳健的方法来检测教育领域中的 AI 生成学生论文。
- 基于平衡传播训练的能量模型的鲁棒性如何?
通过对 CIFAR-10 和 CIFAR-100 数据集的实验,我们的工作首次探索了 EBMs 对自然损坏和对抗攻击的稳健性,结果表明 EBMs 在白盒攻击、黑盒攻击和自然扰动方面的稳健性与经过对抗训练的 DNNs 相当,而无需牺牲清晰度准 - 保结构的物理信息神经网络:具有能量或李雅普诺夫结构
提出了一种结构保持的物理导向神经网络 (PINNs) 方法,通过设计结构保持的损失函数和利用系统的李雅普诺夫结构来提高 PINNs 的性能,从而改进了 PINNs 对偏微分方程的数值精度,并提高了模型对图像数据中对抗扰动的鲁棒性。
- ARBiBench: 评估二值化神经网络的对抗鲁棒性
该研究论文通过对网络二值化进行全面评估,揭示了二值化神经网络在白盒和黑盒攻击下的鲁棒性表现,以及不同网络之间的相似性和应用前景。
- AAAI双重扰动的无任务持续学习
通过考虑未来样本和注入敌对扰动,我们提出了一种新的 TF-CL 框架,并通过在输入数据和决策过程中注入敌对扰动的方法实现了这一框架,通过采用记忆管理方案和学习率调度进一步提高性能。
- AAAIReRoGCRL:基于表示的目标条件强化学习中的鲁棒性
我们提出了一种新颖的攻击方法和防御机制,分别是半对比表示攻击和对抗性表示策略,用于增强目标导向强化学习算法的对抗鲁棒性。
- 保护性扰动是否可以防止个人数据受稳定扩散的侵害?
在这篇论文中,我们系统评估了使用扰动在实际威胁模型下保护图像的方法,并介绍了一种能够在最大程度上保留原始图像结构的净化方法。实验证明,稳定扩散可以有效地从净化后的图像中学习,并且对各种保护方法具有良好的适应性。
- 通过模型对齐提高对抗性迁移能力
该研究介绍了一种新的模型对齐技术,旨在改善给定源模型生成可转移对抗干扰的能力。通过减小对齐损失来微调源模型的参数,该损失量化了源模型和另一个独立训练的模型(称为观察模型)之间的预测差异。在 ImageNet 数据集上进行的实验表明,与原始源 - 对编码任务中大型语言模型的转移攻击和防御
现代大型语言模型(LLMs)在编码任务中表现出令人印象深刻的能力,如 ChatGPT,改进了以前的神经网络代码模型,例如 code2seq 或 seq2seq,这些模型在执行诸如代码摘要和识别代码漏洞等任务时已经表现出有竞争力的结果。然而,