- 对抗性强化学习中的错误最小化的概率视角
深度强化学习中对抗性噪声的解决方法,包括使用正则化方法和引入 Adversarial Counterfactual Error 目标来提高鲁棒性。实证结果表明该方法在解决对抗 RL 问题上优于当前最先进的方法。
- 干净标签背门攻击的泛化界限和新算法
本文推导出了算法无关的干净标签后门攻击情景中的泛化界限;提出一种新的干净标签后门攻击方法,通过结合对抗性噪音和无差别毒害计算出毒触发器,并在各种情景中展示其有效性。
- CVPR合成数据是否足够?基于合成图像训练模型的稳健性评估
通过提供第一个三类合成克隆模型(即有监督、自监督和多模态)的基准测试,我们发现现有的合成的自监督和多模态克隆模型在多种稳健性指标上与真实图像基线相媲美甚至超越,但合成克隆模型对对抗性噪声和真实世界噪声更加敏感,同时发现同时使用真实数据和合成 - 线性样本复杂度下的单指数模型无偏主动学习
对单指数模型进行主动学习方法的研究,证明了在已知或未知函数情况下,通过统计杠杆得分采样,采集约 O (d) 个样本即可学习出接近最优的单指数模型,且适用于拟合偏微分方程等科学机器学习应用。这种方法无需对数据分布进行假设,在挑战性的对手学习环 - 具有改进效率的可证实稳健拟合预测
该研究提出了一种名为 RSCP + 的新框架,用于在评估中提供可靠的鲁棒性保证,同时提出了两种新的方法 PTT 和 RCT,以减少预测集大小并提供实际的鲁棒性保证。
- CURATRON:大型语言模型鲁棒对齐的完备偏好数据
通过偏好学习与重新校准数值来解决大型语言模型与人类价值观对齐的挑战,特别关注在偏好数据集中处理不完整和损坏数据的问题,并提出了一种鲁棒且完全重新校准数据集数值的新方法,采用保证多项式时间的排名算法,主要针对经典的 Bradley-Terry - 二次型 Littlewood-Offord 问题的弹性
我们研究高维数据的统计弹性,结果提供敌对噪声对二次 Radamecher 混沌的反集中性质的影响估计量,其中 M 是一个固定的(高维)矩阵,ξ 是一个符合射线混合向量。具体而言,我们研究了 ξ 可以承受多少敌对符号翻转而不会 “膨胀”σ 为 - 揭示异常:保护图像分类免受对抗性贴纸攻击
我们提出了一种防御机制,利用聚类技术 DBSCAN 来分离异常图像片段,并通过三阶段流程对敌对噪声进行定位和减轻,进而中和其效果。该防御机制在多个模型和数据集上验证,证明其在对抗性贴片攻击中的有效性,显著提高了准确性。
- FoolSDEdit:将您的编辑巧妙地引导至目标属性感知分布
通过引入对抗噪声来执行有针对性的属性生成对 SDEdit 的有效攻击,同时利用属性感知型目标函数和优化对输入笔触绘画添加的对抗噪声。
- 攻击和重置用于遗忘:通过参数重新初始化对机器遗忘的敌对噪声开发
通过攻击和屏蔽网络参数中的特定信息,我们提出了一种名为 ARU 的新方法,该方法使用精心设计的对抗性噪声生成参数屏蔽,有效地重置某些参数,使其无法再进行学习。通过利用对抗性噪声来制作屏蔽,我们在两个面部机器遗忘基准数据集 MUFAC 和 M - 通过对抗电源迹线的逃避式硬件木马
本文研究硬件安全背景下的机器学习漏洞,主要聚焦在硬件木马、机器学习和侧信道分析,通过设计对抗噪声的方法来绕过机器学习侧信道分析,并提供开放的资源和设计。
- 通过相关杠杆得分抽样改进主动学习
我们展示了如何通过将边际杠杆得分抽样与促进空间覆盖的非独立抽样策略相结合,从而在不知情(对抗性噪声)设置中获得改进的主动学习方法。我们提出了一个简单实现的基于关键抽样算法的方法,并在基于学习的参数化 PDEs 和不确定性量化的问题上进行了测 - ICLR通过非对称负对比和反向注意力实现鲁棒表征学习
深度神经网络容易受到对抗性噪声的攻击。为了解决这个问题,我们提出了一种通用的对抗训练框架来获得稳健的特征表达,通过非对称负对比度和反向注意力来推动不同类别的特征在特征空间中远离,并通过线性分类器参数对特征进行加权以获得类别感知的特征并将相同 - 遥感图像分类和目标检测的鲁棒性综合研究:调查和基准评估
该研究是对遥感影像分类和物体检测模型的鲁棒性进行综合研究和基准评估,并提供了数据集资源,通过对不同分类器和探测器的严格评估,找到了关于敌对噪声制备和模型训练的深入认识,并为开发更具弹性和鲁棒性的模型提供指导。
- DeepSeaNet: 利用 EfficientDet 提升水下物体检测
该研究使用现有的水下数据集 Brackish-Dataset,评估了多种目标检测模型(包括 EfficientDet,YOLOv5 等)在含盐度高、可见度低的自然复杂环境下的效果,其中,通过修改 EfficientDet 的机制,实现了对抗 - CVPR通过路径增强方法提高对抗样本的可转移性
本文提出了一种基于路径增强的方法 (PAM) 用于生成对抗样本,通过构建候选增强路径池和利用贪心搜索选择合适的增强路径,同时通过一个语义预测器 (SP) 来避免语义不一致的情况,实验结果表明,与历史方法相比,该方法可以提高超过 4.8% 的 - 基于遗憾的优化方法用于强化学习的鲁棒性
该论文提出一种更为积极的方法改进深度强化学习中的强健性,采用最小化最大后悔作为优化方法,并证明该方法可显著提高性能。
- ICLR模型集成是否必要?通过具有 Lipschitz 正则化值函数的单个模型实现基于模型的强化学习
本论文通过对 Lipschitz 连续性的解释,提供了两种实用的训练机制,通过计算敌对噪声和规范值网络的谱范数来直接规范价值函数的 Lipschitz 条件。实证结果表明,结合我们的机制,具有单个动态模型的基于模型的 RL 算法优于具有概率 - 不止一种鲁棒性:用对抗样本欺骗 Whisper
本文研究了对抗性噪声下自动语音识别模型的鲁棒性。作者通过小幅度输入扰动,即使增加了最高 45 分贝的噪音,可以显著降低模型精度,甚至能够转录出所选目标句子。作者还证明了欺骗模型语言检测器可以极大地降低多语言模型的性能,强调了 adversa - 构建针对边缘模型的闪避攻击:双模型故事
本文介绍了一种新的恶意进攻方法 DIVA,利用了边缘适配技术中原始模型与适配模型输出之间的差异,通过向输入数据添加对抗性噪声来欺骗运行在边缘设备上的适配模型,但对于通常用于验证、调试和重新训练的原始模型却几乎不能被检测出来。与 PGD 相比