基于颜色攻击和联合防御的人物再识别方法
本文提出一种新的可见 - 红外视频人物再识别方法,从对抗性自攻击防御和时空关系挖掘的新角度解决了跨模态行人身份匹配的问题。同时,通过激活输入样本中包含的干扰信息来引入对抗性干扰,将对抗攻击和防御集成到一个框架中,并提出了一个以空间 - 时间信息引导的特征表示网络来提取更加稳健的特征。在大规模跨模态视频数据集上,该方法表现出了很好的性能。
Jul, 2023
人物再识别(Re-ID)领域受到了深度神经网络的广泛关注,特别是图像分类。本文的焦点在于对 Re-ID 系统进行的对抗攻击,其可能对系统性能构成严重威胁。我们尝试对两种热门 Re-ID 模型(IDE(ResNet-50)和 AlignedReID)应用了两种类型的对抗攻击(P-FGSM 和 Deep Mis-Ranking),并在三个数据集上进行了实验,最佳结果在 Applied to CUHK03 的 AlignedReID 上展示了 Rank-10 度量指标下 3.36% 的降低。我们还尝试通过在推断过程中使用 Dropout 作为一种防御方法。
Sep, 2023
本研究针对跨模态人物再识别(ReID)模型的安全性进行了首次探索,并提出了一种专门针对跨模态 ReID 的通用扰动攻击。该攻击利用不同模态数据的梯度优化扰动,从而破坏鉴别器并加强模态之间的差异,通过在 RegDB 和 SYSU 两个广泛使用的跨模态数据集上的实验证明了该方法的有效性,并为未来增强跨模态 ReID 系统的鲁棒性提供了见解。
Jan, 2024
本文使用学习到的失误排名公式对当前表现最佳的人物重新识别模型的不安全性进行检验,提出了一种借助多阶段网络体系结构的反向盒子攻击方法,研究人员在四大重新识别基准上进行了广泛的实验。
Apr, 2020
RGB-D object recognition systems are vulnerable to adversarial examples, and color features contribute to this weakness, making the network more sensitive to perturbations. To address this issue, a defense mechanism is proposed, which improves the performance of RGB-D systems against adversarial examples and exceeds the effectiveness of adversarial training.
Sep, 2023
通过提出 Adversarial Metric Attack,本研究试图在 Person re-identification 中弥合分类训练和度量分析的差距,发现现有的距离度量方法对于人眼无法察觉的对抗样本十分脆弱,因此在应用于视频监控等领域时需要注意安全性,同时提出训练度量网络以抵御对抗攻击并推进度量学科对抗攻防技术的发展。
Jan, 2019
本文提出了一种对现有数字图像篡改定位算法进行真实世界应用安全性评估的对抗性攻击方案,通过基于优化和梯度的敌对示例的白盒和黑盒攻击来揭示这种篡改定位器的可靠性,从而准确预测篡改区域并保持高视觉质量的同时,大大降低了定位精度。
Sep, 2023
本文提出一种基于多专家的对抗攻击检测方法 (MEAAD),通过检查上下文不一致性来实现对于基于深度神经网络的 ReID 系统的攻击检测,并在 Market1501 和 DukeMTMC-ReID 数据集上进行了实验,在第一个 ReID 的对抗攻击检测方法中被证明可以有效地检测各种攻击,并达到高的 ROC-AUC(超过 97.5%)。
Aug, 2021
提出了功能性对抗攻击模型,以用于欺骗机器学习模型的对抗性示例,可以比单个像素扰动更少地干扰输入特征,并结合现有的加法威胁模型,生成强大的威胁模型,其中包括不属于单个模型的扰动。
May, 2019
本研究提出了一种名为 advPattern 的新伪装算法,利用此算法可以生成适用于衣服的对抗性伪装纹理,此举可用于冒充他人,躲避人员搜索等等。此外,该研究指出基于深度学习的行人再识别系统易受攻击。
Aug, 2019