深度学习在多变量时间序列回归中的对抗性样本
本文研究了深度学习在时序数据挖掘中的应用,提出了针对时序数据的敌对攻击机制,并揭示了当前的深度学习时序分类器在面对敌对攻击时的脆弱性,揭示出在食品安全和质量保障等领域中的深刻后果。
Mar, 2019
本文提出一种基于 Distilled 模型的对多元时间序列分类模型进行对抗攻击的方法,并在 UEA 和 UCR 数据集上进行验证,结果表明该方法对 18 个数据集上的两个模型的攻击均成功,因此建议未来的研究者将对抗样本纳入训练数据集以提高鲁棒性。
Mar, 2020
本论文提出了一种新的面向时间序列预测模型的 DA-TAA 攻击方式,通过对模型预测的振幅和方向进行精确打击,增强了攻击的有效性,在实验中对比了有无目标的攻击方式,结果呈现出更高的统计意义,且难以用统计方法检测,这提出了新的挑战和考虑,需要更好的防御措施。
Jan, 2023
提出一种端到端的方法,通过分析不同类型的对抗攻击并提出新的对抗性防御技术,设计对抗性强的预测性维修系统,利用 NASA 的 turbofan 引擎数据集进行评估,表明近似对抗性训练可以显著提高预测性维修模型的鲁棒性,同时提供比现有最先进的预测性维修防御方法多出 3 倍的鲁棒性。
Jan, 2023
本文提出了一种基于变压器自编码器的、使用对抗训练方案进行正则化的人工多变量时间序列信号生成方法,通过 t-SNE 可视化、动态时间扭曲(DTW)和熵评分对生成的信号进行评估,结果表明与卷积网络方法相比,生成的信号与示例数据集的相似性更高。
Jan, 2024
本研究研究了七种时间序列模型对于三种对抗攻击的敏感性和使用防御机制的鲁棒性,实验结果表明所有模型均易受攻击,其中尤以 GRU 与 RNN 敏感性较高,LSTM 和 GRU 的防御恢复效果较好,而在攻击效果上,FGSM 超过其它竞争对手,PGD 攻击比其它攻击更难从中恢复。
Jan, 2023
通过对 Prognostics and Health Management (PHM) 系统进行敌对样本攻击测试,本论文发现 IoT 传感器和 DL 算法都容易受到攻击,这可能导致 PHM 系统出现严重缺陷,从而减少设备的使用寿命。
Sep, 2020
该论文研究了在 ICS 环境下,使用 adversarial examples 技术构建针对 autoregressive IDS 的攻击,以有效地隐藏真实的网络攻击。作者对 Secure Water Treatment 系统进行了实验,仅考虑连续数据的情况下攻击成功率为 2.87/12,包含离散和连续变量的数据的情况下攻击成功率为 3.74/26。
Nov, 2019
本文提出了利用敌对性转换网络(ATN)攻击不同时间序列分类模型的方法,并在多个数据集上展示了攻击的成功。最后,作者建议未来的时间序列分类模型研究者将敌对数据样本纳入训练集以提高模型的鲁棒性和考虑模型的抗干扰能力作为评估指标。
Feb, 2019