基于马尔科夫模型和霍夫曼编码自动生成隐写文本
介绍了一种基于马尔科夫链的文本隐写术,该方法允许在遵循给定马尔科夫模型的自动生成文本中隐藏信息。与其他基于马尔科夫的系统相比,该方法的生成文本更接近原始语言模型。
Sep, 2014
本文提出了一种基于 Block-DCT 的图像隐写术新技术,将每个图像块从时域转换到频域并使用 Huffman 编码,通过更改图像块的 DCT 系数的最低有效位在频率域中嵌入秘密消息 / 图像,实现较高的隐匿性和安全性。
Jun, 2010
本文提出了一个基于掩蔽语言模型的通用框架,将秘密信息嵌入给定的覆盖文本中,嵌入的信息和原始覆盖文本可以从标记文本中完美地恢复。实验结果表明,所提出的方法具有良好的安全性和语义质量,可应用于许多领域,包括信息隐藏和自然语言处理。
Jun, 2022
本文通过对现有的语言隐写系统进行形式化分析和实验证明,这些系统的隐蔽性依赖于对流畅文本的统计特征的隐含假设。基于这些观察,我们提出了一种编码算法,称为 patient-Huffman,具有改进的接近难以察觉的保证。
Jul, 2019
基于大型语言模型用户界面的黑盒生成式文本隐写方法(LLM-Stega)研究了关于大型语言模型的高质量文本生成模糊了人类和机器之间的边界,通过用户界面对 LLM 进行秘密通信。通过构建关键词集合和设计一种新的加密隐写映射算法,提出了一种基于拒绝抽样优化机制来保证秘密信息的准确提取和生成隐写文本丰富语义的 LLM-Stega 方法,全面的实验表明该方法优于当前最先进的方法。
Apr, 2024
本文提出一种名为 ADG 的具有可证明安全性的生成语言隐写方法,该方法使用自适应动态分组的令牌递归嵌入秘密信息以提高安全性。 通过在三个公共语料库上进行广泛实验,证明了 ADG 的不可察觉性并成功生成几乎完美安全的隐写文本。
Jun, 2021
本文探讨了在自然语言系统中执行信息隐藏作为实现数据安全和保密的一种手段的自然语言隐写术(NLS)方法,提出了应对隐写文字质量等挑战的改进,以便构建更具弹性的 NLS 模型,并实现自然语言整合安全性的目标。
Mar, 2022
本文介绍了一种基于 BERT 和一致性编码的自回归语言隐写算法,通过使用一致性编码来弥补块编码的缺点,并通过自回归方式填充掩码位置以提高文本质量,从而取得更好的嵌入负载和系统安全之间的平衡。实验结果表明,相对于相关工作,所提出的工作提高了隐写文本的流畅度,同时保证了安全性,并在一定程度上增加了嵌入负载。
Mar, 2022