本文探讨了在自然语言系统中执行信息隐藏作为实现数据安全和保密的一种手段的自然语言隐写术(NLS)方法,提出了应对隐写文字质量等挑战的改进,以便构建更具弹性的 NLS 模型,并实现自然语言整合安全性的目标。
Mar, 2022
本研究提出了一种以语义保持的方式扭曲文本以达到保护个人隐私的方法,实验表明该方法在数据隐私保护以及特定医疗信息管理上有着实际意义.
Jan, 2022
利用神经语言模型和算术编码的隐写术技术,生成真实的语言覆盖句,并与语言模型分布相匹配,同时保护安全性。
Sep, 2019
本文主要研究基于深度学习自然语言处理中的对抗攻击,探讨攻击者如何通过窃取神经网络文本分类器的隐藏表示来获取敏感信息,为解决此问题,文章提出并论证多个防御方案,改进神经表示的隐私保护性能。
Aug, 2018
本研究提出了一种基于上下文学习的零样本方法,用于语言隐藏,以更好地实现感知和统计上的不可察觉性,并设计了几个新的度量标准和可复现的语言评估方法来衡量隐藏文本的隐晦性。实验结果表明,该方法产生了比其他任何方法更多的无罪和可理解的隐藏文本。
Mar, 2024
本文提出了一种隐私保护机制,通过结合机器学习技术和文本处理技术,通过 “词袋” 表示的文档来建模文本文件的隐私。该机制在语义相似性度量方面满足隐私保护,从而在保护文本隐私信息的同时,保留足够的文本内容信息以便进行准确的内容分类任务。
Nov, 2018
使用 Python 编写了一个用于推文的隐写码实现,采用插入词以隐藏数字,并使用 n-gram 频率扭曲作为插入检测度量,从而获得一种既形式化又实用的语言隐写方案,允许在编码字密度和隐秘信息的可检测性之间进行权衡。
Dec, 2023
通过将词表示在双曲空间中以实现文本隐私保护,从而平衡了隐私和实用性之间的权衡,并针对作者归属问题进行了隐私试验,结果在可比的最差情况统计下获得了比欧几里得基线更高的隐私保护。
Oct, 2019
本文提出了一种明确遮蔽作者特征的方法,使训练后的表示对这些属性不变,以便在两个任务中评估,表明这导致所学表示的隐私性增强,以及更强大的模型应对不同的评估条件,包括领域外语料库。
May, 2018
该研究提出了一种文本数据双重隐私保护表示学习框架 (DPText), 可以实现高效保护用户隐私同时保证数据在情感分析和词性标注等任务中有较高实用价值。
Jul, 2019