- KDDBadSampler: 利用灾难性遗忘的能力於毒化拜占庭强韧联邦学习
通过引入灾难性遗忘,本文解决毒化巴氏鲁思联邦学习的难题,提出了一种仅利用无毒数据(即无毒数据)的攻击方法,通过选择高损失的训练数据进行模型训练,最大化模型的泛化误差,达到攻击的目的。对两个真实数据集的广泛评估证明了我们提出的攻击的有效性和性 - 辛勤工作并不总是有所回报:对神经架构搜索的毒化攻击
通过对神经结构搜索的数据集分布转移进行鲁棒性研究,本文展示了数据污染攻击的可行性,并发现对抗性样本可以有效降低生成优化神经结构的算法的准确性。
- 离线政策评估方法的数据污染攻击
通过利用来自鲁棒统计学的影响函数构建最大化策略价值估计误差的扰动,我们对现有的离线策略评估方法的鲁棒性进行了广泛实验,并发现当受到数据污染攻击时,这些方法很容易生成具有大误差的价值估计,这些发现对使用离线策略评估方法得出的策略价值的可靠性产 - Shadowcast: 视觉语言模型的隐蔽数据污染攻击
这项研究首次揭示了影响视觉 - 语言模型 (VLMs) 脆弱性的数据污染攻击方法,其中毒样本在视觉上与正常图像无法区分,通过误导 VLMs 识别类别标签、构建叙述来生成令人信服但虚假的误导性信息,强调数据质量对于负责任部署 VLMs 的重要 - 扩散模型越强,后门越容易:通过数据投毒实现版权侵权而无需调整微调流程
通过在精选数据集中插入有毒数据,利用多模式大型语言模型和文本引导的图像修复技术,本研究证实了在触发特定提示时,微调扩散模型可以生成受版权保护的内容,从而揭示了现行版权保护策略中潜在的陷阱,强调了对扩散模型滥用的加强审查和预防措施的必要性。
- SSL-OTA:自我监督学习中目标检测的后门威胁揭示
我们提出了一种用于自我监督学习场景下对象检测任务的首个后门攻击方法,名为对象变换攻击(SSL-OTA)。该攻击方法包括两种攻击:数据毒化攻击(NA)和双源混合攻击(DSBA),并且在基准数据集上进行了广泛实验证明了攻击的有效性和实用性,这突 - 走向公平表达的毒性注入
公平机器学习,公平表征学习及数据污染攻击的研究。
- 声纹鉴别中的数据毒化攻击防御
该论文基于深度学习,研究语音身份验证系统的安全性问题,并提出了一种新的防御方法 Guardian,利用卷积神经网络鉴别攻击和正常帐户,准确率为 95%。
- ICLR利用内部分布触发器中毒深度强化学习代理
本文提出了一种新的数据毒化攻击,并将其应用于深度强化学习代理程序。我们的攻击聚焦于所谓的分布触发器,这些触发器是该模型将在其中接受训练和部署的数据分布的本地触发器。我们概述了一种简单的过程,用于嵌入这些及其他触发器在多任务深度强化学习代理中 - 使用基于 Transformer 的模型生成虚假的网络威胁情报
本论文利用 transformers 算法生成虚假的 CTI 文本描述,表明有人可能通过 OSINT 社区或网络传播虚假 CTI,并将其用于数据污染攻击,导致对其他依赖于 AI 的网络安全系统产生负面影响。
- CVPR基于随机平滑的防御策略对数据污染有多强健?
本研究发现了一种对具有证明鲁棒性的分类器构成威胁的数据污染攻击,并提出了一种新型双层优化数据污染攻击,可降低其整个目标类别的平均有保障半径(ACR),以及降低 30%以上的目标类别平均有保障半径(ACR)
- ACL自然语言处理模型中的隐蔽数据毒化攻击
本研究开发了一种新的数据污染攻击方法,能够在训练数据中插入少量样本并控制模型预测结果,其中包含一个特定的强制词,同时提出了三种缓解该攻击的防御策略。
- AAAIBagging 方法抵抗数据污染攻击的内在认证鲁棒性
本文研究了机器学习训练集中存在的数据污染攻击以及集成学习中的 Bootstrap Aggregating 方法可以预防此类攻击。我们证明了 Bagging 可以在随机采样训练集的基础上使用多个基础模型进行学习,并在测试时使用多数表决方法进行 - WWW基于影响函数的数据毒化攻击对 Top-N 推荐系统的影响
本研究利用影响函数解决基于矩阵分解的推荐系统数据污染的问题,并通过优化问题构造一定数量的假用户,随后迫使推荐系统为普通用户推荐特定物品。该方法被证明是高效的,优于现有方法。
- 知识图谱嵌入的数据毒化攻击
该研究探讨知识图谱嵌入技术(KGE)的鲁棒性问题,并提出了一套可以有效操纵知识图谱中任意目标事实确凿性的数据污染攻击策略,从而弥补了现有对于此类攻击缺乏针对性的不足。
- 基于分解的协同过滤算法的数据毒化攻击
介绍了一种针对协同过滤系统的数据污染攻击,并提出了对两种流行的矩阵分解协同过滤算法的有效解决方案,同时在实际数据上测试了所提出算法的有效性和可能的防御策略。