对生物医学图像分割深度学习模型的对抗样本影响
本文探讨了机器学习和深度神经网络在语义分割任务上遭受对抗性干扰的问题,证实了对抗性攻击对该任务也具有显著影响,可以通过不可察觉的对抗性扰动诱导深度神经网络对某一类别像素的错误分类而几乎不影响该类别以外像素的分类。
Mar, 2017
医学深度学习系统可以被巧妙地构造对抗性例子攻击破坏,难以在实际临床设置中应用,本文发现医学深度学习模型对于对抗攻击比对自然图像模型更脆弱,但医学对抗攻击可以通过简单的检测器容易检测出来,这些发现可作为更可解释和安全的医学深度学习系统设计的依据。
Jul, 2019
该研究探讨了深度神经网络中对抗样本的传递性问题,研究发现在语义分割模型中,由于其具有多尺度目标识别的特性,传递性存在限制。提出了一种称之为动态尺度调节的简单而有效的方法来解决该问题。经过大量实验证明,该方法能够实现高效的传递性。
Nov, 2021
本文发现对抗样本可以操纵深度学习系统在三个临床领域,建议医疗机构在部署深度学习系统时注意当前的漏洞,同时促进机器学习社区进一步研究医疗学习系统的领域特征。
Apr, 2018
提出了一种具有良好迁移性和隐蔽性的对抗语义掩码攻击框架 (ASMA),该框架使用了语义掩码来生成具有局部语义区域中的扰动的对抗样本,并通过自适应语义掩码选择策略提高了攻击的迁移性和隐蔽性。与其他对抗攻击方法相比,该方法在公共人脸伪造数据集上具有卓越的性能。
Jun, 2024
对现代语义分割模型的对抗攻击进行了深入评估,发现许多分类任务的观察结果并不能直接转移到更复杂的任务上,同时展示了深层结构模型中的平均场推理、多尺度处理等方法如何自然地实现最近提出的对抗性防御。这些发现有助于未来理解和防御对抗性攻击,并有效评估分割模型的鲁棒性。
Nov, 2017
该研究旨在对 SAM 进行有针对性的对抗攻击,提出了一种仅攻击图像编码器的简单且有效的方法,并提出了一种新的正则化损失以增强不同模型之间的特征传递性,通过增加对随机自然图像的特征占优势来进行黑盒对抗攻击。
Oct, 2023
本文研究深度学习中的对抗样本问题,总结了生成对抗样本的方法,提出了对抗样本的应用分类,并探讨了对抗样本的攻击和防御策略以及面临的挑战和潜在解决方案。
Dec, 2017