神经语言隐写术
本研究提出了一种新的语言隐写方法,利用基于神经语言模型的自适应算术编码对秘密消息进行编码,并在四个数据集上验证了该方法的统计隐蔽性及其比之前的最先进方法在位数 / 单词和 KL 指标方面分别提高了 15.3% 和 38.9%,人类评估表明 51% 的生成的掩护文本可以愚弄窃听者。
Oct, 2020
使用 Python 编写了一个用于推文的隐写码实现,采用插入词以隐藏数字,并使用 n-gram 频率扭曲作为插入检测度量,从而获得一种既形式化又实用的语言隐写方案,允许在编码字密度和隐秘信息的可检测性之间进行权衡。
Dec, 2023
本研究提出了一种基于上下文学习的零样本方法,用于语言隐藏,以更好地实现感知和统计上的不可察觉性,并设计了几个新的度量标准和可复现的语言评估方法来衡量隐藏文本的隐晦性。实验结果表明,该方法产生了比其他任何方法更多的无罪和可理解的隐藏文本。
Mar, 2024
应用人工智能(AI)和深度学习(DL)中的生成对抗网络(GANs)优化传统隐写术方法,通过将加密数据嵌入到另一个媒介中,保护通信免受窥探,并提高对检测的防护,从而维护信息的隐私和完整性,解决当前开放数字通信时代数据安全的核心挑战,并为信息安全领域带来可能的颠覆性改变。
Apr, 2024
本文探讨了在自然语言系统中执行信息隐藏作为实现数据安全和保密的一种手段的自然语言隐写术(NLS)方法,提出了应对隐写文字质量等挑战的改进,以便构建更具弹性的 NLS 模型,并实现自然语言整合安全性的目标。
Mar, 2022
针对深度神经网络在隐写学中应用面临的网络巨大,如何在公共频道中隐蔽传输的问题,本文提出一种基于模型伪装的新方法,即将秘密神经网络模型伪装成普通的机器学习模型,并用部分优化策略激活并调节子集滤波器来保留其对秘密任务的功能,其余滤波器被激活来伪装整个秘密 DNN 模型成一个普通的机器学习模型。实验表明,该方法优于现有的隐蔽传输方案在秘密 DNN 模型和一般 DNN 模型的隐蔽传输方面。
Feb, 2023
本文提出一种名为 ADG 的具有可证明安全性的生成语言隐写方法,该方法使用自适应动态分组的令牌递归嵌入秘密信息以提高安全性。 通过在三个公共语料库上进行广泛实验,证明了 ADG 的不可察觉性并成功生成几乎完美安全的隐写文本。
Jun, 2021
本文提出了一种基于掩码语言模型的语言隐写术,它克服了传统编辑方法的繁琐规则构建,并具有更高的负载能力和更好的安全性能。此方法比生成方法更易于控制安全性和负载能力之间的权衡。
Apr, 2021
通过训练迭代神经网络实现图像隐写术的优化,保持网络数据尽可能接近自然图像流形,从而达到更高的速度和可靠性,且在无需纠错码的情况下可将恢复误差率降至零。
Mar, 2023