针对时间序列预测的攻击
本文研究了机器学习在交通预测模型中的漏洞,提出了一个实用的敌对空间时间攻击框架,该框架通过迭代渐变引导节点显著性方法来识别受害节点的时间相关集,进而设计一种空间时间渐变下降算法来生成有实值的敌对交通状态,并在两个实际数据集上进行了广泛的实验。结果表明,该攻击框架达到了各种先进空间时间预测模型高达 67.8% 的性能降级,同时展示了在我们提议的攻击训练下的算法的鲁棒性的显著提高。
Oct, 2022
本文研究了深度学习在时序数据挖掘中的应用,提出了针对时序数据的敌对攻击机制,并揭示了当前的深度学习时序分类器在面对敌对攻击时的脆弱性,揭示出在食品安全和质量保障等领域中的深刻后果。
Mar, 2019
我们针对神经模型输出概率分布序列的情况,开发了一种更有效的对抗攻击方法。我们解决的关键技术挑战是如何通过蒙特卡罗估计输出序列的联合分布统计量。此外,我们将概率预测的先前工作扩展到贝叶斯设置中,可以对未来观测进行调节。我们证明了这种方法可以在股票市场交易和电力消耗预测等两项关键任务中成功生成具有小输入扰动的攻击。
Mar, 2020
本文提出一种基于 Distilled 模型的对多元时间序列分类模型进行对抗攻击的方法,并在 UEA 和 UCR 数据集上进行验证,结果表明该方法对 18 个数据集上的两个模型的攻击均成功,因此建议未来的研究者将对抗样本纳入训练数据集以提高鲁棒性。
Mar, 2020
本文提出了利用敌对性转换网络(ATN)攻击不同时间序列分类模型的方法,并在多个数据集上展示了攻击的成功。最后,作者建议未来的时间序列分类模型研究者将敌对数据样本纳入训练集以提高模型的鲁棒性和考虑模型的抗干扰能力作为评估指标。
Feb, 2019
本研究研究了七种时间序列模型对于三种对抗攻击的敏感性和使用防御机制的鲁棒性,实验结果表明所有模型均易受攻击,其中尤以 GRU 与 RNN 敏感性较高,LSTM 和 GRU 的防御恢复效果较好,而在攻击效果上,FGSM 超过其它竞争对手,PGD 攻击比其它攻击更难从中恢复。
Jan, 2023
本文提出了一种优化型对抗攻击框架,旨在研究基于数据的轨迹预测系统的对抗鲁棒性。通过模拟实验,展示了该攻击框架可以有效地增加不同度量指标的预测误差,甚至可以导致自动驾驶汽车离开道路或与其他车辆碰撞。同时,本文还探讨并提出了一种对抗训练策略来减轻对抗攻击的影响。
Sep, 2022
深度学习模型中的对抗攻击通过对输入进行微小扰动,从而导致输出发生重大变化。我们的研究重点是这种对抗攻击对序列到序列(seq2seq)模型的影响,特别是机器翻译模型。我们引入了基本的文本扰动启发式算法和更高级的策略,例如基于梯度的攻击,该攻击利用可微分逼近的非可微分翻译度量。通过我们的调查,我们提供了证据表明机器翻译模型对已知最佳对抗攻击显示出鲁棒性,因为输出中的扰动程度与输入中的扰动成正比。然而,在次优方法中,我们的攻击方法优于其他方法,提供了最佳的相对性能。另一个有力的候选方法是基于混合单个字符的攻击。
Sep, 2023