深度误排名下可转移、可控及不引人注意的行人再识别对抗攻击
人物再识别(Re-ID)领域受到了深度神经网络的广泛关注,特别是图像分类。本文的焦点在于对 Re-ID 系统进行的对抗攻击,其可能对系统性能构成严重威胁。我们尝试对两种热门 Re-ID 模型(IDE(ResNet-50)和 AlignedReID)应用了两种类型的对抗攻击(P-FGSM 和 Deep Mis-Ranking),并在三个数据集上进行了实验,最佳结果在 Applied to CUHK03 的 AlignedReID 上展示了 Rank-10 度量指标下 3.36% 的降低。我们还尝试通过在推断过程中使用 Dropout 作为一种防御方法。
Sep, 2023
本文提出一种基于多专家的对抗攻击检测方法 (MEAAD),通过检查上下文不一致性来实现对于基于深度神经网络的 ReID 系统的攻击检测,并在 Market1501 和 DukeMTMC-ReID 数据集上进行了实验,在第一个 ReID 的对抗攻击检测方法中被证明可以有效地检测各种攻击,并达到高的 ROC-AUC(超过 97.5%)。
Aug, 2021
通过提出 Adversarial Metric Attack,本研究试图在 Person re-identification 中弥合分类训练和度量分析的差距,发现现有的距离度量方法对于人眼无法察觉的对抗样本十分脆弱,因此在应用于视频监控等领域时需要注意安全性,同时提出训练度量网络以抵御对抗攻击并推进度量学科对抗攻防技术的发展。
Jan, 2019
本文提出一种新的可见 - 红外视频人物再识别方法,从对抗性自攻击防御和时空关系挖掘的新角度解决了跨模态行人身份匹配的问题。同时,通过激活输入样本中包含的干扰信息来引入对抗性干扰,将对抗攻击和防御集成到一个框架中,并提出了一个以空间 - 时间信息引导的特征表示网络来提取更加稳健的特征。在大规模跨模态视频数据集上,该方法表现出了很好的性能。
Jul, 2023
本研究提出了一种名为 advPattern 的新伪装算法,利用此算法可以生成适用于衣服的对抗性伪装纹理,此举可用于冒充他人,躲避人员搜索等等。此外,该研究指出基于深度学习的行人再识别系统易受攻击。
Aug, 2019
本文提出多种深度迁移学习模型解决人物再识别领域中训练数据匮乏的问题,包括设计更适合迁移学习的深度网络架构、开发两阶段微调策略以及提出一种基于协同训练的无监督深度迁移学习模型。实验结果表明,所提出的模型在三个数据集上表现优于当前的深度人物再识别模型,并且我们的无监督模型在 VIPeR 数据集上表现超过大多数有监督模型。
Nov, 2016
为了解决人员重识别中因姿势变化、视角变化、摄像头参数不同等导致的人的视觉外观难以匹配的问题,提出了一个半监督属性学习框架,该框架由三个阶段组成,并使用深度卷积神经网络来预测不同数据集上的深层特征。使用简单的余弦距离作为度量,取得了出乎意料的好效果,在度量学习模块的帮助下,显著优于许多最近的工作。
May, 2016
本文介绍了一种基于简单的深度架构的策略,通过精细地设计架构的每个组件以及有效训练来实现人物重新识别的最佳实践,其能够比复杂的具有补充部件的方法更好地定位和对齐具有识别性的图像区域,并提出了一种类似于隐式注意力机制的训练表示方法。经过在四个基准数据集上的广泛评估,该方法可以比其他复杂方法更好地实现人物重新识别。
Jan, 2018
本研究针对跨模态人物再识别(ReID)模型的安全性进行了首次探索,并提出了一种专门针对跨模态 ReID 的通用扰动攻击。该攻击利用不同模态数据的梯度优化扰动,从而破坏鉴别器并加强模态之间的差异,通过在 RegDB 和 SYSU 两个广泛使用的跨模态数据集上的实验证明了该方法的有效性,并为未来增强跨模态 ReID 系统的鲁棒性提供了见解。
Jan, 2024