对航天器的对抗式机器学习威胁
该研究探讨了如何使用对抗性学习通过生成基于 Jacobian 的显著性图攻击的对抗性样本以及探索分类行为,从而攻击监督模型。该分析还包括如何使用对抗性训练来支持监督模型的鲁棒性。随着对抗性样本的出现,两个广泛使用的分类器 —— 随机森林和 J48 的分类性能分别降低了 16 和 20 个百分点,但训练后它们的性能得到提高,证明了它们对这种攻击的鲁棒性。
Apr, 2020
本文提出了一种称为约束对抗机器学习(ConAML)的算法来研究应用于 CPS 中的机器学习的潜在漏洞,并生成满足物理系统固有约束的对抗样本,从而使 ML 模型的性能显著下降。
Mar, 2020
本文阐述了在未来智能交通系统中,机器学习在自动驾驶汽车(CAV)中的应用所带来的各种挑战和潜在的安全问题,特别关注于对 CAV 的敌对性机器学习攻击,并提出了在多种情况下防御对抗攻击的解决方案。
May, 2019
本研究通过分析 89 个真实的机器学习攻击情景,研究机器学习中的威胁特性、识别通用基本应对策略,最终总结出其中的最有针对性的漏洞、攻击手段及其防御方式,以共同为机器学习安全保驾护航。
Jun, 2022
本文研究对抗机器学习的攻击面和对车辆到微电网服务的潜在攻击。我们提出了一种预测性的多阶段灰盒攻击,该攻击可以达到与白盒攻击相当的攻击效果。我们使用推理攻击从智能微电网与 5G gNodeB 之间的通信数据中收集实时数据,训练出目标分类器在边缘处的代理模型,研究了对手能够收集实时数据实例的五种不同情况,并演示了多阶段灰盒攻击能够误导机器学习分类器,使用比白盒攻击少 40%的数据达到类似误导率的攻击效果。
Aug, 2022
现代航天器越来越依赖于机器学习,然而,在太空中的物理设备会受到不同的自然灾害的影响,例如辐射,这可能会阻碍计算设备的正确运行。本文呈现了机器学习模型在太空应用中受到自然现象影响的研究进展,以及开放资源的有效性,从而推动了航天容忍机器学习模型的发展。
May, 2024
人工智能 (AI) 和机器学习 (ML) 在开发新型防御和情报能力方面已变得越来越重要。A2I 攻击旨在欺骗和操纵 AI/ML 模型,因此 AI/ML 模型必须能够抵御这些攻击。A2IWG 旨在通过在美国国防部和情报机构之间建立协作环境,通过新的 A2I/AML 防御手段,推动确保 AI/ML 能力的研究和开发,并针对具体挑战,重点关注 AI 可信鲁棒性,AI 系统安全性和 AI/ML 架构漏洞。
Sep, 2020
人工智能和深度学习技术的迅速发展促进了自动驾驶系统,但是这些系统仍受到来自不同攻击的威胁。此研究调查了可能危及自动驾驶系统的各种攻击,以及相应的最新防御机制,从而提出了一些有前途的研究方向以提高自动驾驶的安全性。
Apr, 2021
机器学习和量子计算的结合有潜力提供更高的准确性和计算效率,并对抗攻击产生更强的鲁棒性。然而,要建立强大的 QAML 工具仍有挑战。本文回顾了 QAML 的最新进展、字典并提出未来的研究方向,以期在量子计算硬件规模扩大和噪声水平降低的情况下实现 QAML 方法的实用性。
Jun, 2023