该研究基于连续时间技术提出了一个理论模型,旨在研究适应性学习算法之间的策略互动。通过揭示算法之间的自发耦合机制,该研究证明了人工智能算法之间存在的勾结现象,并提出了一种足以消除算法间自发耦合的充分条件,以及设计学习鲁棒性策略的机制所必要的回馈机制。
Feb, 2022
本文阐述一种应对数据篡改的策略性学习方法,通过利用游戏论中的纳什均衡和先占主导策略,使数据分析人员可以同时利用多个学习者来有效避免数据篡改的影响。
Jan, 2019
本文介绍如何通过建立人们更真实可靠的威胁模型,从而更好地保护机器学习在实际应用中的安全性。
Jul, 2018
该论文研究了带有多个学习者的对抗性线性回归问题,并通过实验表明,均衡模型相较于传统正则化线性回归,具有更高的鲁棒性。
Jun, 2018
提出了一种新颖的对抗检测和修正方法,利用自动编码器和基于 KL 散度的自定义损失函数实现分类器的预测和重构实例之间的比较,该方法是无监督的、易于训练的,并不需要关于基础攻击的任何知识。在 MNIST 和 Fashion-MNIST 上,检测器几乎完全中和了像 Carlini-Wagner 或 SLIDE 这样的强大攻击,在攻击袭击者可以完全访问分类模型但无法访问防御情况下,对 CIFAR-10 仍然非常有效。我们展示了我们的方法仍然能够检测到对抗性例子,在攻击者对模型和防御都有充分了解的白盒攻击情况下并研究了攻击的鲁棒性。该方法非常灵活,还可以用于检测常见的数据损坏和扰动,从而对模型表现产生负面影响。我们在 CIFAR-10-C 数据集上介绍了这种能力。
Feb, 2020
通过简单的监督式学习实验平台,发现在 CIFAR-10 和 MNIST 数据集中,可以区分使用不同攻击算法、模型和超参数生成的对抗攻击,并介绍了对抗攻击归因的概念。
Jan, 2021
本研究探讨在算法交易系统中,使用对抗性学习技术对输入数据流进行实时操纵的攻击,并评估其在现实市场数据流上的有效性和在白盒和黑盒设置中的影响。我们提出了各种缓解方法并讨论其限制,旨在提醒金融界对自动化学习模型使用所带来的潜在风险,并促进进一步研究。
Oct, 2020
本文主要介绍了机器学习算法在数字经济和人工智能等领域中的广泛应用,特别是在安全关键应用领域中的重要性。同时,文章详细介绍了对抗机器学习攻击的原理、攻击类型及当前各种防御机制的深度分析。
探究基于机器学习的恶意软件检测模型的安全性,使用 Transformers-based 恶意软件检测器进行对抗攻击,提出防御策略,将错误分类率降至一半。
Oct, 2022
本文提出了一个名为 A2 的高效自动攻击者,它能够在训练过程中实时生成最优扰动,并证实其强制扰动能够有效提高不同数据集上各种对抗训练方法的鲁棒性。