法律与对抗式机器学习
本文旨在探讨 Adversarial Machine Learning 领域的研究者在攻击机器学习系统时可能存在的合法风险,特别是与计算机欺诈和滥用法案 CFAA 的适用性相关的问题。在分析研究过程中,从模型反转、成员推断、模型窃取、重新编程机器学习系统和污染攻击等方面阐述了问题,并指出该法案适用的相对一致性问题或有望在 2021 年的 Van Buren 诉美国上诉案中得到解决。
Jun, 2020
机器学习系统中的对抗现象给实际应用带来了严重安全威胁,本调查旨在从统一的视角对现有的防御机制进行系统回顾,通过将机器学习系统划分为预训练、训练、后训练、部署和推断等五个阶段,提出明确的分类法,以分析各个防御机制的机制、联系和差异,并激发未来研究开发更先进、全面的防御机制。
Dec, 2023
通过对 28 个组织的采访,我们发现行业从业者缺乏保护、检测和响应机器学习系统攻击的战术和战略工具。此文章旨在从开发者 / ML 工程师和安全事件响应者的角度,阐述了机器学习系统在传统软件安全开发背景下的安全性视图差异,以期鼓励研究人员在对抗 ML 领域中修订和修改软件安全开发生命周期。
Feb, 2020
提出了一个框架以减少训练数据集中不公平的代表性,其中使用两个相互操作的对手功能来提高公平性。首先,通过训练模型防止猜测受保护属性的值,同时限制效用损失,实现模型公平性优化。然后,利用对抗机器学习的规避攻击生成新的被错误分类的例子,并用于第一步模型的重新训练和改进增强模型的公平性。将这两个步骤迭代应用,直到显著提高公平性。
May, 2020
本文主要介绍了机器学习算法在数字经济和人工智能等领域中的广泛应用,特别是在安全关键应用领域中的重要性。同时,文章详细介绍了对抗机器学习攻击的原理、攻击类型及当前各种防御机制的深度分析。
Feb, 2022
本篇论文研究了逆向机器学习的社会影响,发现大多数逆向机器学习研究者的观点和假设会导致他们难以考虑到攻击工具的社会益处和构建工具打破主流秩序。
Jul, 2021
通过对网络入侵检测系统进行基于机器学习的威胁模拟,发现现有文献中的威胁模型不适用于实际的网络安全情景,因此,有必要加强现有防御系统以及探索更加真实和有效的对抗方式。
Jun, 2021
该文章回顾了许多现有的针对机器学习模型的对抗攻击,突出了一些尚未解决的挑战,一些特定领域的约束可能会增加制作对抗样本的难度,也强调了如何将这些理论应用到实践的挑战。
Mar, 2023
本文对机器学习模型在视觉领域中面临的对抗性攻击和防御方法进行了广泛探讨,并讨论了不同攻击和防御方法的优点和缺点。旨在提供广泛的领域覆盖和机械进攻和防御机制的直观理解。
Nov, 2019