使用深度概率模型,将秘密图像隐藏在某个空间中,生成随机噪声图来使秘密图像难以被检测,实现了多图像隐写和增强模型安全性。
Oct, 2022
在确保数据隐私和保护的时代,我们提出了一种深度隐藏方案,适应性地隐藏富含高级特征的语义图像,通过不可见地集成预定义图像并结合欺骗性扰动隐藏它们,以增强数据的不可学习性和阻止未经授权的数据探索。
Jun, 2024
我们提出了一个端到端的学习图像数据隐藏框架,通过在通用神经压缩器的潜在表示中嵌入和提取秘密信息。通过结合我们提出的消息编码器和解码器以及感知损失函数,我们的方法同时实现了高质量和高比特准确性的图像。与现有技术相比,我们的框架在压缩领域提供了优秀的图像保密性和竞争性的水印鲁棒性,而且嵌入速度加快了 50 倍以上。这些结果展示了组合数据隐藏技术和神经压缩的潜力,并为开发神经压缩技术及其应用提供了新的见解。
Oct, 2023
使用 JPEG 压缩作为分类管道中的预处理步骤,可以在对抗性攻击中起到作用,通过移除高频信号成分从而消除加性扰动。我们还提出了一种基于集合的技术,该技术可以快速构建一个性能良好的 DNN 集成,通过利用 JPEG 压缩来保护模型免受多种类型的对抗性攻击,而不需要了解模型。
May, 2017
针对深度神经网络易受对抗性攻击的问题,本文提出了一种基于特征重构的防御方法,具体来说,通过将每个类别的特征强制限制在一个凸多面体内,使得网络学习到的决策区域更加独特和远离各个类别的边界,提高了网络的鲁棒性,同时在干净图像的分类性能上不会退化。
Apr, 2019
该研究论文研究了深度神经网络的鲁棒性问题,特别是针对对抗样本的攻击。通过探索神经网络的结构,拓扑结构,预处理和训练策略等方面来提高深度神经网络的抗干扰能力,并且通过引入平滑性惩罚来提高其稳健性。
Dec, 2014
深度神经网络易受到万能扰动的攻击,本文提出一种基于万能扰动和密钥控制的数据隐写方法,使用单个万能扰动隐藏多个秘密图像,并通过密钥控制解码器从单个容器图像中提取不同的秘密图像。
Nov, 2023
本文综述了基于深度学习的数据隐藏(深度隐藏)研究的现状及常用架构和应用策略,并从对抗攻击的角度探讨了未来可能的发展方向。
Mar, 2021
利用自适应 JPEG 编码器来增强深度神经网络对抗性攻击的鲁棒性,不仅可以保持图像的视觉质量,而且无需更改分类器并且压缩图像可以被非定制的 JPEG 解码器解压。
Mar, 2018
本文提出了一种新类的对抗样本 ——“语义对抗样本”,即通过对图像进行任意扰动来欺骗模型,但修改后的图像在语义上代表的仍是原始图像,通过构建约束优化问题和基于人类认知系统的形状偏置特性的对抗变换,生成对抗图像的颜色转移极大影响了 Deep neural networks 模型精度。