构建稳健且保护隐私的文本表现
该研究提出了一种文本数据双重隐私保护表示学习框架 (DPText), 可以实现高效保护用户隐私同时保证数据在情感分析和词性标注等任务中有较高实用价值。
Jul, 2019
通过强化学习,我们介绍了一种自动文本隐私保护框架,该框架通过针对大型语言模型进行微调,产生能够在保持准确性、连贯性和隐私性之间达到平衡的重写文本,并在大规模的测试集上进行了全面评估,并成功规避了多种自动化作者识别攻击。
May, 2024
自动从作者的写作风格中脱离其内容是计算语言学中一个长期存在且可能难以逾越的问题。然而,最近可用的带有作者标签的大型文本语料库使得可以通过完全基于数据驱动的方式来学习作者表征,用于作者归属的任务,这个任务似乎更多地依赖于编码写作风格而不是编码内容。然而,成功完成这个替代任务并不能确保这些表征能够捕捉到写作风格,因为作者归属也可能与其他潜在变量(如主题)相关。为了更好地理解这些表征传达的信息性质,特别是验证它们主要是否编码写作风格的假设,我们通过一系列有针对性的实验系统地探查了这些表征。这些实验的结果表明,学习用于替代作者归属预测任务的表征确实对写作风格敏感。因此,可预期作者表征对某些数据转换具有稳健性,例如随时间的主题漂移。此外,我们的发现可能为需要风格表征的下游应用开启大门,如风格转换。
Aug, 2023
提出 PART: 一种对比训练的模型,用于学习作者嵌入,以确定文本的专有权通过评估所述文件的余弦相似性,用于文学作品、匿名博客帖子和公司电子邮件的作者识别的零炮验证,并在可用数据集的不同数据可视化下定性评估表征。
Sep, 2022
本文提出了一种隐私保护机制,通过结合机器学习技术和文本处理技术,通过 “词袋” 表示的文档来建模文本文件的隐私。该机制在语义相似性度量方面满足隐私保护,从而在保护文本隐私信息的同时,保留足够的文本内容信息以便进行准确的内容分类任务。
Nov, 2018
本文调查了一系列流行模型中预训练表示所编码的个人信息的程度,并展示了模型越复杂和数据越多,可能出现数据泄露的正相关性。作者对一种大型多语言数据集上的情感分析特征进行了广泛覆盖的比较和评估,结果表明,隐私保护方法的使用非常重要。作者还发现高度隐私保护的技术(如差分隐私)可能会对模型效用产生严重影响,可以使用混合或度量隐私方法来解决。
Apr, 2022
本论文提出了一种新方法 —— 使用对比学习在预训练语言模型的基础上微调特定作者的表征,以提高文本作者鉴定的准确性,该方法将最新的研究前沿提高至多 6.8%。但是,该方法的性能指标有所牺牲,需要进一步研究解决。
Sep, 2022
通过深度学习模型,特别是包含字符 n-grams 和句法信息的模型,学习的表示方式有望提高跨领域的表示泛化能力,从而选择适当的文体特征在不同场景下实现更准确的作者识别。
Sep, 2023
本文提出了一种使用神经网络方法来模拟人类组合句子过程,将语言特征的不同类别合并到单词的分布式表示中,以同时学习作者文体表示的作者分析方法,提取出每个文档的话题、词汇、句法和字符级别的特征向量,实验结果表明,这种方法在作者特征化和作者验证方面具有优异的性能。
Jun, 2016
本文综述了从数据挖掘的角度出发,针对神经文本生成中的作者归属与模糊化问题开展的最近研究,旨在理解传统作者归属与模糊化方法的局限性并探讨新的研究方向,以解决神经文本撰写人的匿名性与隐私问题。
Oct, 2022