深度学习模型的隐写容量
通过测试了包括 LR、SVM、MLP、CNN、LSTM、VGG16、DenseNet121、InceptionV3、Xception 和 ACGAN 等模型,研究确定了可替换学习模型参数中的低位数目,以及各模型的层的隐写容量,在大多数情况下,可替换大部分参数位数,并探讨了研究结果的含义和未来研究的可能方向。
Aug, 2023
本文运用深度卷积神经网络和图像隐写术,将安全地嵌入隐藏信息的传统图像隐写术与图像 - 图像隐写术相结合,并成功地将具有巨大负载容量的图像进行隐藏,同时仍然对统计分析具有鲁棒性,通过最小化图像覆盖变化的方法,实现 98.2% 的解码率或 23.57bpp。
Jun, 2018
本文提出一种新方法,在最小化失真的标准下,提高图像隐写术的性能界限。该方法利用隐写分析卷积神经网络框架来理解图像的模型,并在不易被探测的区域进行嵌入以保留模型。实验结果表明,在广泛的低相对负载范围内,与 HUGO、S-UNIWARD 和 HILL 等最先进的隐写分析技术相比,所提出的算法表现优异。
Nov, 2017
我们提出了一种基于深度网络的隐秘传输方法,使用渗透策略将秘密深度网络模型潜入一个伪装的普通学习任务中,并使用渗透策略激活干扰滤波器,以实现深度网络模型的隐蔽通信。
Jul, 2023
本研究探讨了卷积神经网络和全连接神经网络在语音隐写分析中的应用,结果表明相较于传统的 Rich Models(RM)集成分类器(EC)方法,如果 CNN 和 FNN 被很好的参数化,其结果更胜一筹,演示了在 clairvoyant 场景下,CNN 和 FNN 相较于 RM 与 EC 的分类错误率降低 16%以上,并且在封面 - 源不匹配情况下表现自然而强大。
Nov, 2015
这篇综述论文提供了基于深度学习的鲁棒隐写分析方法的全面概述,包括图像、音频和视频等各种类型的鲁棒隐写分析,讨论了最常用的深度学习技术,并探讨了更先进的深度学习技术如深度迁移学习(DTL)和深度强化学习(DRL)在提升隐写分析系统性能方面的应用。同时,文中还系统回顾了该领域最近的研究,包括使用的数据集和评估指标,并对基于 DTL 的隐写分析方法及其在不同数据集上的性能进行了详细分析。整篇综述最终讨论了目前基于深度学习的隐写分析研究的现状、挑战和未来研究方向。
Aug, 2023
这篇论文提出了一种基于卷积神经网络的编码器 - 解码器架构,用于将图像嵌入载体图像作为负载,通过端到端训练来确保最大负载容量和图像质量,并在多个公共数据集(如 MNIST,CIFAR-10,ImageNet,LFW 等)上进行了实证研究,取得了最先进的性能。
Nov, 2017
针对深度神经网络在隐写学中应用面临的网络巨大,如何在公共频道中隐蔽传输的问题,本文提出一种基于模型伪装的新方法,即将秘密神经网络模型伪装成普通的机器学习模型,并用部分优化策略激活并调节子集滤波器来保留其对秘密任务的功能,其余滤波器被激活来伪装整个秘密 DNN 模型成一个普通的机器学习模型。实验表明,该方法优于现有的隐蔽传输方案在秘密 DNN 模型和一般 DNN 模型的隐蔽传输方面。
Feb, 2023
本文介绍了一种增强隐写术的方法,即通过引入一种名为 SA-CNN 的隐写助手卷积神经网络。实验证明,采用 SA-CNN 生产的隐写图像具有更好的抗隐写分析能力,并且能够适应各种盖媒体的不同特征。
Apr, 2023
本研究提出了一种名为 ISGAN 的卷积神经网络结构,使用生成对抗网络,混合损失函数等方法,将灰度图像嵌入到彩色图像的 Y 通道中进行隐蔽,并在接收端精确地提取出秘密图像。实验表明,该方法在数据集 LFW,Pascal VOC2012 和 ImageNet 上达到了最先进水平。
Jul, 2018