- 嵌入攻击项目(工作报告)
Embedding Attack Project 的 MIA 实验结果总结,包括威胁模型、实验设置、实验结果、发现和讨论。当前结果涵盖了对 6 个 AI 模型的两种主要 MIA 策略(基于损失和基于嵌入)的评估,涵盖了从计算机视觉到语言建模 - 联邦学习中的漏洞调查:一种学习算法的视角
该综述论文对恶意攻击的联邦学习进行了全面的研究,从攻击来源和目标的新视角进行分类,并深入剖析了其方法和影响。文章对以数据攻击模型、模型攻击数据、模型与模型攻击以及复合攻击为类型的威胁模型进行了讨论,并提出了各种防御策略及其效果、假设和潜在改 - 朝着更实用的人工智能安全威胁模型
最近的研究发现了人工智能安全领域研究与实践之间存在的差距:学术界研究的威胁并不总是反映了人工智能的实际使用和安全风险。我们的研究是为了描述这种差异的完整程度,并将六种最常研究的人工智能安全攻击威胁模型与实际使用中的人工智能进行匹配。我们发现 - 智能电网安全博弈论综述
本论文研究了基于博弈论的方法来分析智能电网的安全威胁,介绍了不同领域的威胁模型和解决方法,以保证能源管理的顺畅运行。
- 野外模式再載:機器學習對抗訓練數據毒化安全綜述
本文对过去 15 年来关于机器学习中中毒攻击和防御的 100 多篇论文进行了全面的系统化概括和批判性点评,主要关注于视觉应用程序,并讨论了当前的限制和开放性的研究问题。
- ICCV基于自监督嵌入的对抗性攻击快速检测与分类
本文提出了一种使用预训练的自监督编码器嵌入向量的线性模型来检测和分类对抗性攻击的方法 SimCat,并通过对多种攻击类型的实验验证其有效性,同时在适应性攻击下进行了探究,提高了其鲁棒性。
- IJCAIAegis: 针对垂直联邦学习的可信、自动和准确的验证框架
本研究提出了 Aegis,一种值得信赖的自动和准确的验证框架,用于垂直联邦学习的安全验证。它能够检测出 95% 的威胁模型,并在总共 VFL 作业时间的 84%内提供细粒度的验证结果。
- 针对网络入侵检测系统的逼真对抗攻击建模
通过对网络入侵检测系统进行基于机器学习的威胁模拟,发现现有文献中的威胁模型不适用于实际的网络安全情景,因此,有必要加强现有防御系统以及探索更加真实和有效的对抗方式。
- 基于机器学习系统的安全性:在训练和推理期间的攻击和挑战
对机器学习中存在的各种安全威胁、威胁模型及相关挑战进行了简要概述,利用 LeNet 和 VGGNet 对 MNIST 和 GTSRB 等基准进行了安全威胁演示,提出并解决了部分误差影响并较小的攻击方式,并阐述了开发安全措施的相关技术。
- 对抗攻击与防御:一项调查
文章讨论了不同类型的威胁模型下的敌对攻击,以及近期对抗这些攻击的有效方法和挑战,以提高深度学习算法的鲁棒性。
- 物联网区块链技术:研究问题与挑战
本文对物联网网络中现有的区块链协议进行了全面调查,提供了区块链技术在物联网应用领域、威胁模型、分类、安全保障等方面的概述和比较,并重点介绍了未来研究的方向和挑战。
- 野性图案:逆向机器学习崛起十年后
本文综述了过去十年中关于对抗机器学习领域的研究,讨论了目前深度学习算法等机器学习算法的安全性问题,提出了未来研究中的挑战与相应的应对措施和设计。