- 深度学习后门攻击及其对策:全面综述
此研究总结了深度学习中的后门攻击和应对措施,将攻击表面划分为六种并进行攻击分类,将防御措施归类为四种常见类别,并提出未来研究的重点方向。
- KDD图形上的对抗攻击与防御:一项综述,一项工具和实证研究
该研究论文介绍 Deep Neural Networks 和 Graph Neural Networks 对抗攻击的脆弱性,提出了相关攻击和防御的借鉴,以及一个算法库用于研究对抗攻击和防御。
- Fawkes:保护用户隐私免受未授权深度学习模型侵害
本论文提出了一种名为 Fawkes 的系统,它通过帮助用户在发布照片之前添加不可见的像素级变化(我们称之为 “隐身衣”)来帮助个人防范未经授权的人脸识别模型的侵犯,并在实验中验证其在保护用户隐私方面达到了 95%以上的成功率。
- 软件定义车联网概述:优势、挑战及未来发展方向
本文调查了基于 SDN 的 VANET 架构的设计、功能、利益和挑战,并探讨了这些架构存在的主要安全威胁,提出了不同的应对措施,为确保未来 SDVN 架构中的安全和隐私提供了方向,这是第一个在未来 5G 和 ICN 等下一代网络以及 ITS - 针对深度学习图像分类器的感知质量保持黑盒攻击
该研究论文介绍了如何在低失真路径上发起黑盒攻击,以提高攻击效率和敌对图像的感知质量,并在真实世界系统上进行了实验,验证了该方法在基准分类任务和生物识别及取证等关键应用中的有效性。
- AAAIECGadv: 生成对抗性心电图以误导心律失常分类系统
本文通过两种攻击模型,分析了 DNN 算法在心电诊断系统中的盲点,并呼吁对于相应的反制措施的重视。
- 火线下的可解释深度学习
本文是对解释性深度学习系统安全性探索的首次系统研究,发现现有 IDLS 的脆弱性高,提出了一种新的类对抗攻击 ADV^2,并通过实证研究证明了其具有欺骗性和实名性的可行性。文章发现了预测 - 解释不一致性是导致该脆弱性的根源,并尝试针对此进 - MM深度学习系统的模型重用攻击
本文展示了恶意原始模型对机器学习系统的安全性带来的巨大威胁,并提供了有效、难以检测和易于实现的攻击方法,同时探讨了相应的潜在对策,给出了若干有前途的研究方向。
- 恶意行为软件聚类中毒攻击
针对恶意软件行为聚类算法的恶意注入攻击问题,实验证明开源工具 Malheur 容易受到攻击,提出了可能的对策,需要更安全的聚类算法。
- 对抗攻击与防御:一项调查
文章讨论了不同类型的威胁模型下的敌对攻击,以及近期对抗这些攻击的有效方法和挑战,以提高深度学习算法的鲁棒性。
- 特征选择是否安全抵御针对训练数据的攻击?
本文研究对抗性环境下的机器学习,特别是针对恶意攻击者注入有害数据时,特征选择会否带来益处或副作用的问题,并提供了一种框架来研究流行的特征选择方法的鲁棒性,结果表明特征选择方法在受到攻击下会受到较大影响,强调了需要特定的应对措施。
- MM机器学习操作:回归学习的毒化攻击和对策
该论文系统研究了线性回归模型中的污染攻击和其对策,提出了一个特定于线性回归的理论优化框架,并设计了一种面对污染攻击高度抗干扰的新型防御方法。
- 机器学习中的超参数窃取
本文提出了网络攻击的一种新形式,名为超参数窃取攻击,主要是针对一些流行的机器学习算法,如岭回归、逻辑回归、支持向量机和神经网络。我们评估了我们的攻击在亚马逊机器学习上的有效性,并针对某些机器学习算法总结了新的防御策略。
- Rowhammer 防御墙又倒下一砖
研究提出了新的 Rowhammer 攻击技术和利用原语,介绍了一种称为 opcode flipping 的新开发技术,绕过了最近的隔离机制,该攻击技术可以用来进行云中的协同拒绝服务攻击和个人计算机的特权升级,其攻击能够逃避所有先前针对商品系 - 通过预测 API 窃取机器学习模型
本研究探究了机器学习模型机密性和公共访问之间的紧张关系,针对在线服务(如 BigML 和 Amazon Machine Learning)中的普通模型类,研究了一些简单有效的攻击方法和相应的反攻击策略。
- 4G/LTE 移动通讯系统的隐私和可用性实际攻击
LTE 移动通信网络具有显着的功能优势,但研究发现其协议规范存在漏洞,攻击者可以利用这些漏洞实施多种攻击,作者提出了多种应对方案并建议未来规范引入安全保障机制