本文介绍了一种新颖的方法,用于修改和调整最先进的算法以处理不平衡的表格数据,以应对欺诈检测方面的安全挑战,实验结果表明,所提出的修改导致了攻击成功率的提高,并获得的对人类来说不那么易察觉的对抗性示例。
Jan, 2021
对抗攻击是安全中心应用中的主要问题,我们提出了一种新的对抗性训练方法,能够预防攻击对机器学习模型的性能造成较大影响,特别是在信用卡欺诈检测领域。
Jul, 2023
介绍了在工业决策中使用机器学习模型的困境,并提出了使用局部关键特征来检测经典表格数据中的潜在对抗性样本的问题,以避免欺诈。
Sep, 2018
针对深度表格模型的健壮性评估和对抗攻击的研究,提出 CAA 对约束表格深度学习模型进行攻击,构建深度表格模型的健壮性评估基准,为提高深度表格模型在各种对抗攻击场景下的健壮性提供安全实践建议。
Nov, 2023
本文对机器学习模型在视觉领域中面临的对抗性攻击和防御方法进行了广泛探讨,并讨论了不同攻击和防御方法的优点和缺点。旨在提供广泛的领域覆盖和机械进攻和防御机制的直观理解。
Nov, 2019
本文研究机器学习中的安全和隐私领域,重点探究性会员推断攻击是否会受到对抗性的防御方法的影响,并通过实验验证证明对抗性的防御方法可以增加目标模型的风险。
May, 2019
本文提出了利用对抗样本的善意攻击来探索攻击的本质并尝试解决机器学习中的对抗性问题。我们将对抗样本归因于模型和人类之间在使用非语义特征方面的差异,并针对此特性提出了三个方向的创新性应用:对抗图灵测试、拒绝恶意模型应用和对抗数据增强。
Jul, 2021
本论文通过利用听觉掩蔽原理,构造出在听觉上无法察觉的音频对抗样本,取得 100% 的针对性成功率,并且成功地构造出在真实环境噪音扰动下保持有效的针对性音频对抗样本。
Mar, 2019
该研究提出了一种新的对抗样本攻击方法,考虑到人类感知系统并最大化制作的对抗样本的噪声容忍度,实验结果证明了该技术的有效性。
Jan, 2018
该文章回顾了许多现有的针对机器学习模型的对抗攻击,突出了一些尚未解决的挑战,一些特定领域的约束可能会增加制作对抗样本的难度,也强调了如何将这些理论应用到实践的挑战。
Mar, 2023