本研究探讨了在能力限制内实施黑盒后门攻击的可能性,通过设计后门触发器,攻击者可以在没有参与训练过程或了解目标模型结构的情况下作为图像注释者或供应商从事此类攻击。实验结果表明,我们的方法在黑盒场景中实现了高攻击成功率,并逃过了最先进的后门防御。
Apr, 2023
本文提出了一种新的方法应对数据受限的后门攻击,使用预训练的 CLIP 模型并引入了基于 “干净特征抑制” 和 “污染特征增强” 两大技术来有效地操纵模型的行为,实验表明该方法可显着提高攻击成功率。
Jun, 2023
研究使用深度学习技术检测注入数据度量值的方法,运用卷积神经网络与长短时记忆网络,观察数据测量和网络水平特征以共同学习系统状态,以此有效估算系统变量,实验结果表明,这种深度学习算法可以识别传统状态估计坏数据检测无法检测到的异常。
Aug, 2018
本文提出了一种新的神经网络后门检测和修复方法,经过广泛的实验结果证明了其对文本和图像分类的有效性。该方法是针对机器学习训练数据可能不可信,恶意攻击者可能通过植入精心制作的样本来攻击系统的现实情况,是首个不需要可验证和可信数据集即可检测和修复植入后门的数据的方法。
Nov, 2018
本文主要研究深度学习在无线系统应用中的安全问题,重点探讨了对回归问题的攻击和防御机制,研究对象为多个输入输出系统下行链路的功率分配问题,从白盒和黑盒的攻击角度构建了对抗性扰动攻击,进一步分析了深度神经网络的鲁棒性以及通过对抗训练提高深度学习模型的对抗性能。
Jun, 2022
研究探讨了智能电网中机器学习的安全性问题,发现深度神经网络方法易受对抗性扰动影响,并指出目前机器学习算法在智能电网中面对各种对抗性攻击的弱点,尤其是在故障定位和类型分类方面。
Mar, 2023
本文研究了深度学习在无线电信号分类中的应用和安全性问题,通过白盒和黑盒对抗攻击使模型分类性能显著下降,与传统的干扰攻击相比,这些攻击更加强大。
本研究发现在使用第三方资源训练深度神经网络时容易出现后门威胁,尤其对目标检测等关键应用程序造成威胁。通过无目标特点的简单而有效的毒药后门攻击,我们成功地将后门嵌入目标模型,这可以使模型无法检测到任何与我们的触发模式带有标记的物体。我们在基准数据集上进行了广泛的实验,表明这种方法在数字和现实世界的应用都非常有效,并且对潜在防御手段具有抵御力。
Nov, 2022
该论文提出一种基于黑盒模型的反向工程优化算法,用于检测深度神经网络中嵌入的恶意后门攻击,并通过检测结果进行有效的可靠预测,实验表明其可以有效地应对多种后门攻击。
Mar, 2021
本文提出了一种联邦学习机制,结合混合卷积神经网络体系结构,并利用图形神经网络和 LSTM 层中的本地相关性和数据时间模式,以在分布式设置中灵活且高效地训练 FDIA 检测器,同时保护客户的隐私。