通过对网络入侵检测系统进行基于机器学习的威胁模拟,发现现有文献中的威胁模型不适用于实际的网络安全情景,因此,有必要加强现有防御系统以及探索更加真实和有效的对抗方式。
Jun, 2021
本文研究机器学习中的安全和隐私领域,重点探究性会员推断攻击是否会受到对抗性的防御方法的影响,并通过实验验证证明对抗性的防御方法可以增加目标模型的风险。
May, 2019
使用敌对训练和差分隐私训练的组合,本研究探讨了针对同时攻击的防御方法。通过使用成员推断攻击来基准测试 DP-Adv 技术的性能,并实证显示该方法的隐私性与非鲁棒私有模型相当。此外,该研究还强调了在动态训练范式中探索隐私保证的需求。
Jan, 2024
本论文提出了一种用于具有流式输入数据的机器学习模型的实时对抗攻击方案,该方案针对针对性地加入扰动来影响模型输出结果。
ML 在安全性方面存在漏洞,提出威胁模型并对攻击进行分类,探究了模型准确性与抗敌对操作的关系。
Nov, 2016
本文介绍如何通过建立人们更真实可靠的威胁模型,从而更好地保护机器学习在实际应用中的安全性。
Jul, 2018
本研究引入了一个两人对弈的竞赛,用于评估机器学习系统的安全性和鲁棒性,针对非范数约束的对手进行研究。 防御方提交机器学习模型,试图在非对手数据上实现高准确性和覆盖率,并在对抗性输入上没有自信错误。 攻击者试图通过寻找任意的明确输入,在其高置信度下将错误标签分配给模型来破坏防御。 我们提出了一个简单的明确数据集(“鸟或自行车”)作为本竞赛的一部分。 我们希望这个竞赛能够帮助更全面地评估机器学习模型的最坏对抗风险。
Sep, 2018
本文对机器学习模型在视觉领域中面临的对抗性攻击和防御方法进行了广泛探讨,并讨论了不同攻击和防御方法的优点和缺点。旨在提供广泛的领域覆盖和机械进攻和防御机制的直观理解。
Nov, 2019
这篇论文提出了一种新的重建方法,利用扩散模型来保护机器学习分类器免受对抗攻击,而无需对分类器本身进行任何修改。
Sep, 2023
我们的研究论文提出了一种基于动态防御策略和稳定扩散的方法,该方法旨在在不使用对抗性示例的情况下进行 AI 系统的训练,以创建一个更广泛范围攻击下具有内在韧性的系统,从而提供一种更广泛且更强大的针对对抗性攻击的防御。
May, 2024