通过感知度微扰修复学习图像压缩的重构失真
利用自适应JPEG编码器来增强深度神经网络对抗性攻击的鲁棒性,不仅可以保持图像的视觉质量,而且无需更改分类器并且压缩图像可以被非定制的JPEG解码器解压。
Mar, 2018
本文提出一种名为ComDefend的端到端图像压缩模型,用于防御对深度神经网络的对抗攻击,并在MNIST、CIFAR10和ImageNet数据集上的实验表明其有效性,通过维护原始图像的结构信息并利用压缩和重建卷积神经网络转换对抗性图像为干净图像,进而保证分类器的鲁棒性。
Nov, 2018
本文提出了一种新颖的深度对抗学习视频压缩模型,该模型采用一个辅助的对抗性失真目标函数,我们将该目标函数与传统的质量指标如 MS-SSIM 和 PSNR 相比较,发现该对抗目标函数更符合人类感知质量判断标准,实验结果证明该模型能够在极高的压缩率下减少感知失真和重建丢失的细节。
Apr, 2020
本文研究了如何将生成敌对网络与学习压缩相结合,得到一种最先进的生成有损压缩系统,并在归一化层、生成器和鉴别器架构、训练策略以及感知损失方面进行了探究。与之前的工作不同的是,我们实现了在广泛的比特率范围内视觉上令人满意的重建,并且,我们的方法可以应用于高分辨率图像。我们在定量上使用各种感知指标和用户研究来评估我们的方法,研究表明,即使使用超过2倍的比特率,我们的方法也优于以前的方法。
Jun, 2020
一种基于GAN的图像压缩方法,通过采用两阶段的训练和网络插值技术,在极低比特率下重构高质量图像,可以平衡感知质量和保真度之间的权衡且优于现有的基于GAN的图像压缩模型。
Aug, 2020
本文通过白盒和黑盒攻击展示了当输入图像发生微小扰动时,现有的深度学习图像压缩系统容易受到攻击。为此,我们提出了一种新的压缩架构 factorAtn,它结合了注意力模型和因式熵模型,取得了更好的性能表现。
May, 2022
通过基于简单图像转换函数的非训练型防御技术,研究了学习型图像压缩模型在面对对抗攻击时的稳健性,并提出了一种简单但有效的双向压缩算法,可方便地应用于现有的图像压缩模型,并且在保留对干净图像模型的原始失真率性能的同时,无需额外的训练或修改现有模型,更加实用。
Jan, 2024
近期的模型反演攻击算法允许攻击者通过多次查询神经网络并检查其输出来重建网络的私密训练数据。本文开发了一种新型网络架构,利用稀疏编码层来提高对此类攻击的抵御能力。相比于多种最先进的防御方法,我们的稀疏编码网络架构在保持相当或更高分类准确性的同时,能够将最先进的训练数据重构质量降低1.1至18.3倍。此性能优势适用于从CelebA脸部到医学图像和CIFAR-10的5个数据集,以及包括Plug-&-Play攻击在内的各种最先进的基于SGD和GAN的反演攻击。我们提供了一个可用于集群的PyTorch代码库,以推动研究并标准化防御评估。
Mar, 2024