重新思考 LLM 和语言隐写分析:高效检测强隐藏隐写
利用大型语言模型(LLM)的 LLsM 方案,通过微调代表语言模型的 LLM LLaMA2,并结合特定信息生成具有特定话语特征的控制性隐写文本,该方案在文本质量、统计分析、话语匹配和反隐写分析等方面优于主流基准,特别是在长篇隐写任务中具备潜在的优势。
Jan, 2024
基于大型语言模型用户界面的黑盒生成式文本隐写方法(LLM-Stega)研究了关于大型语言模型的高质量文本生成模糊了人类和机器之间的边界,通过用户界面对 LLM 进行秘密通信。通过构建关键词集合和设计一种新的加密隐写映射算法,提出了一种基于拒绝抽样优化机制来保证秘密信息的准确提取和生成隐写文本丰富语义的 LLM-Stega 方法,全面的实验表明该方法优于当前最先进的方法。
Apr, 2024
本文介绍了一种基于 BERT 和一致性编码的自回归语言隐写算法,通过使用一致性编码来弥补块编码的缺点,并通过自回归方式填充掩码位置以提高文本质量,从而取得更好的嵌入负载和系统安全之间的平衡。实验结果表明,相对于相关工作,所提出的工作提高了隐写文本的流畅度,同时保证了安全性,并在一定程度上增加了嵌入负载。
Mar, 2022
本研究提出了一种基于上下文学习的零样本方法,用于语言隐藏,以更好地实现感知和统计上的不可察觉性,并设计了几个新的度量标准和可复现的语言评估方法来衡量隐藏文本的隐晦性。实验结果表明,该方法产生了比其他任何方法更多的无罪和可理解的隐藏文本。
Mar, 2024
本文提出一种名为 ADG 的具有可证明安全性的生成语言隐写方法,该方法使用自适应动态分组的令牌递归嵌入秘密信息以提高安全性。 通过在三个公共语料库上进行广泛实验,证明了 ADG 的不可察觉性并成功生成几乎完美安全的隐写文本。
Jun, 2021
本研究提出了一种新的语言隐写方法,通过在两种不同的语言之间枢纽给定文本,应用类似 GLS 的信息编码策略来嵌入秘密数据,从而实现高负载的嵌入,同时保持语义信息的一致性和抵抗语言隐写分析方面表现出卓越的性能。
Mar, 2022
本文提出了一种基于掩码语言模型的语言隐写术,它克服了传统编辑方法的繁琐规则构建,并具有更高的负载能力和更好的安全性能。此方法比生成方法更易于控制安全性和负载能力之间的权衡。
Apr, 2021
为了保护用户隐私,我们设计了一种基于 LSTM 神经网络的语言隐写系统,可以让两个用户在不被攻击者察觉的情况下交换加密信息,并且在 Twitter 和 Enron 邮件数据集上实现了高质量的隐写文本,显著提高了加密位数。
May, 2017
这篇研究论文深入探讨数字保护,特别聚焦于信息隐藏技术。通过引入评估已解码信息的新颖度量标准 “信息准确性”,我们解决了以往研究局限于个别位解码的问题。此外,我们提出了一种适应性通用损失函数 Log-Sum-Exponential(LSE)来增强信息准确性,从而显著改进了最近方法的消息准确性。同时,我们还在我们的框架中引入了一种新的潜在感知编码技术 Approach,利用预训练稳定扩散技术生成先进的隐写图像,实现图像质量和信息恢复之间更好的权衡。通过实验结果,我们展示了新的 LSE 损失和潜在感知编码技术的卓越性能。这种全面的方法在进化评估指标、优化损失函数和创新图像隐藏技术方面迈出了重要一步,旨在实现更强大可靠的信息保护。
Dec, 2023