- 面对攻击具有强鲁棒性和高可靠性的学习者
研究了如何在多个角度上面对数据污染攻击实现强大的鲁棒性保证和提供可靠的预测,同时提供算法计算文本类问题的区间,并针对线性分离器提供了真正的多项式时间算法。
- 新闻推荐系统受到内容扰动的有针对性数据污染攻击
本文介绍了一种新型的针对新闻推荐系统的数据攻击方式,通过扰动已浏览新闻的内容来操纵目标新闻的排名,同时提出了曝光风险的概念,并设计了一套基于强化学习的 TDP-CP 框架来减少搜索空间和评估影响。实验结果表明,TDP-CP 可以在有限的曝光 - 人工智能中的毒化攻击与防御:一项调研
本文综述了机器学习分类器训练中的数据污染攻击的安全漏洞,并介绍了几种可行的检测和缓解机制,比较了不同方法的性能以及固有属性,如可靠性、隐私和可解释性。同时,提供了未来研究方向的参考。
- ICML使用确定性有限聚合增强的数据毒化的认证防御
我们提出了一种改进的认证防御技术,称为有限聚合,通过将训练集分成较小的互斥子集,然后将其重复组合,以构建较大的(但不相离)子集来训练基础分类器,从而提高 MNIST,CIFAR-10 和 GTSRB 上的(点对点)认证稳健性,并在保持与 D - 走向多目标统计公平联邦学习
本文针对联邦学习领域中的数据隐私和公平性问题,提出了一种能够满足不同统计公平度量的新方法,并进行实验验证其在满足多个目标方面的有效性和鲁棒性。
- AAAI神经架构搜索中的单次搜索空间污染
本文研究了神经架构搜索算法 Efficient NAS 对数据毒化攻击的鲁棒性,通过注入无效操作到搜索空间中,我们展示了一次性搜索空间毒化方法如何利用 ENAS 控制器中的设计缺陷,降低分类任务中预测性能,只需向搜索空间注入两个毒化操作即可 - ACL通过关系推理模式对知识图谱嵌入进行中毒
本论文研究了如何通过数据污染攻击来破坏知识图谱嵌入模型的链接预测任务,提出了一种基于对称、倒置和组合这样的关系模式为基础的对抗性添加方法来提高模型对诱饵事实的预测结果置信度,实验结果表明,这种方法能够针对四个 KGE 模型和两个公开数据集中 - EMNLP通过实例属性方法对知识图谱嵌入进行对抗攻击
在知识图谱嵌入(KGE)模型的测试时间中,进行数据污染攻击,以导致其故障。使用可解释机器学习中的模型无关实例归因方法来选择对抗删除,并提出一种启发式方法来生成对抗添加。实验表明,此策略可提高 KGE 模型所受攻击的 MRR 退化率,相对于基 - ICML神经结构搜索中的搜索空间污染
本文介绍如何使用神经结构搜索来生成深度学习中的最优结构,并通过实验发现数据注入攻击会导致算法效果下降,进而提出提高算法鲁棒性的挑战。
- 使用抗毒数据进行公平聚类
为了解决聚类算法输出不公平的问题,我们提出了一种使用少量辅助数据来实现中心聚类的群体公平性的方法,将其建模为一个通用的双层优化问题,并分类并解决了两种不同问题设置的优化方法。我们的实验表明,与其他最先进的公平聚类算法相比,我们的算法可以在添 - ICLR利用不兼容聚类作为防范后门污染攻击的方法
提出了一种基于不兼容性属性的新型聚类机制,用于对抗深度神经网络面对的后门攻击,以识别和消除恶意数据,成功将攻击成功率降至低于 1%。
- WWW针对众包系统的数据注入攻击及其防御
本研究着重探讨了众包系统的安全问题,发现数据投毒攻击是一种威胁,通过提出两种防御措施,本研究证实了这种攻击会对数据估计产生影响。
- AAAI通过有限数据验证拯救随机赌博机免受攻击
本文研究带有数据污染攻击的有界奖励情况下的强度攻击模型下的强盗算法,并提出了基于验证的机制以对抗此类攻击。此外,文章提出了 Secure-BARBAR 算法,其在有限验证次数的情况下能够显著降低攻击者造成的损失。
- 深度学习推荐系统中的数据毒化攻击
本研究针对基于深度学习的推荐系统进行了第一次系统性研究,提出了一个注入可控用户的数据污染攻击模型并发现此攻击在小、大规模数据集上都表现出色,同时提出多种优化方法用于解决此非凸整数编程问题。
- MM恶意标注和污染攻击下的主动学习
本文介绍了一种高效的主动学习方法,它结合了敌对再训练技术,可以生成更多的人工标注数据集而不增加标注预算,产生的敌对样本也提供了一种测量模型易受攻击的方式。作者在减小的 CIFAR-10 数据集上对其性能进行了充分评估,得出该方法有效对抗恶意 - AAAI最近邻居对数据恶意植入和后门攻击的认证鲁棒性
利用 kNN 和 rNN 内在的多数投票机制可以提供针对数据污染攻击和后门攻击的保护,并且我们的评估结果表明 kNN 和 rNN 的内在保护机制胜过目前最先进的合格防御。
- 基于随机选择的认证防御数据污染攻击的框架
该论文提出了一种基于随机选择的认证防御体系抵御数据毒化攻击,能通过平均从训练集中抽样的子数据集的分类器预测来实现认证的鲁棒性,该体系允许用户利用训练集和毒化模型的先前知识提高认证准确性,实验表明该方法优于现有技术水平。
- 针对联邦学习系统的数据污染攻击
本文研究了面向联邦学习系统的有针对性的数据毒化攻击,通过对恶意参与者的异常检测和排除,提出了一种有效的防御策略。
- 关于对抗偏差和公正机器学习的鲁棒性
为保证公正性,公平机器学习算法致力于消除不同群体间的行为差异,但是研究表明,在训练数据存在偏差的情况下,将同等的重视不同规模和分布的不同群体,可能会与鲁棒性相冲突,攻击者可以通过对样本和标签的控制来攻击群体公平性机器学习,从而在测试数据上显 - 审计差分隐私机器学习:隐私难道不够隐私?(Auditing Differentially Private Machine Learning: How Private is Private SGD?)
我们使用新的数据污染攻击研究不同 ially Private SGD 的隐私保护是否比其最先进的分析保证更好,并量化实现差异隐私算法提供的隐私保护,以便在分析隐私的工作上实现补充和影响。