保障视觉感知推荐系统:对抗性图像重建和检测框架
本文提出了一种结合了多数投票机制的实时检测器 VisionGuard*,可用于检测时间序列图像数据中的对抗性物理攻击,通过实验证明其优于设计用于异常数据和数字攻击图像的检测器。
Apr, 2023
该论文研究了基于图像的协同过滤推荐系统中可能存在的视觉攻击,并提出了一种新的视觉攻击模型,该模型可以有效地影响推荐系统中商品的排名,并证明了该攻击模型可以在不了解模型参数的情况下,通过对商品图像进行微小不可察觉的修改,从而提高商品的分数。
Nov, 2020
深度神经网络容易受到各种类型的对抗性样本的攻击,并且现有的对抗性修补方法通常生成的修补具有无意义的噪声或图案,本研究旨在生成真实视觉效果的对抗性修补以欺骗深度神经网络。通过在真实图像的邻域内限制修补的位置,优化位置的不相关性,并采用总变差损失和伽马变换以保留信息,生成的对抗性修补具有卓越的攻击性能,并且可以伪装成物理世界中的涂鸦或标志来欺骗深度模型,给深度神经网络应用带来重大威胁。
Dec, 2023
本文提出通过对图像进行优化来平衡隐私预算和目标任务分析性能的对抗训练框架,并且使用预算模型重启和集成策略来提高对新的黑客模型的保护性。通过使用两个隐私保护行动识别中的实验,该框架在同时维持高目标任务(行动识别)性能之余,成功抑制了隐私侵犯的风险。
Jul, 2018
本研究针对深度生成模型如变分自编码器和生成对抗网络在高复杂度图片样本表现的不足,提出一种图像自适应的修复方案,增强复原的表达能力。在图像超分辨率和压缩感知方面进行了实证表明其优势。
Jun, 2019
本文提出了一个有效的图像增强方法,通过深度图像恢复网络来将离散的对抗噪声样本转换回自然图像流形,从而提高对抗性的鲁棒性,同时提高图像质量和保持干净图像上的性能表现。
Jan, 2019
本文提出了一种名为 VRAP 的新型视觉关系型跨任务对抗补丁生成方法,通过场景图将基于对象识别的欺骗与基于谓词关系的排除相结合,从而破坏推理任务间共享的视觉推理信息,证明了 VRAP 在跨不同视觉推理任务的黑盒传递中具有显着优势。
Apr, 2023
对抗性补丁威胁真实世界中的视觉 AI 模型。基于图像再表面化的总变差(TVR)方法提出了一种模型无关的对抗性补丁防御方法。TVR 能够单独使用或与防御模型相结合,为稳健预测提供多层次的安全保障,无论场景中补丁的数量如何。在 ImageNet-Patch 基准数据集和真实世界物体上验证了 TVR 的能力,证明了其减轻补丁攻击的能力。
Nov, 2023