火焰窃贼也是守护者:平衡提示中的可用性与隐私
本文提出了基于响应式调整的隐私保护响应式调整(RAPT)框架,结合本地差分隐私的局部隐私设置,通过 token 重建任务与下游任务一起进行训练,旨在提供针对大型语言模型的隐私保障。实验表明,RAPT 在各种任务上均表现出优秀的性能并针对窃密者提供隐私保障。
May, 2023
本文旨在探究聊天机器人的输入复制和反刍能力,并通过直接指示来遵守HIPAA和GDPR等规定,限制复制,以减少隐私风险。通过概括100名应聘者的求职信,我们发现ChatGPT在57.4%的情况下会保留PII,并发现在不同的人员子群组之间存在非统一的差异,然而,通过指示,我们也发现ChatGPT在输出中能够显著省略PII。
May, 2023
许多公司已开始提供基于大型语言模型(LLM)的服务,如ChatGPT,这不可避免地引起了隐私问题,由于用户的提示暴露给了模型提供者。先前针对使用多方计算(MPC)进行安全推理的研究已被证明在LLM应用中不切实际,因为其耗时且通信密集。虽然轻量级的匿名化技术可以通过替代或掩盖方式保护提示中的私人信息,但却无法恢复在LLM生成的结果中替换的敏感数据。在本文中,我们通过训练一个小型本地模型来扩展匿名化技术的应用场景,以以最小的计算开销解除LLM返回的结果的匿名化。我们引入了HaS框架,其中“H(ide)”和“S(eek)”分别代表其两个核心过程:用于匿名化的隐藏私有实体和用于解匿名化的寻找私有实体。为了定量评估HaS的隐私保护性能,我们提出了黑盒和白盒对抗模型。此外,我们进行了翻译和分类任务的实验以评估HaS的可用性。实验结果表明,HaS框架在隐私保护和实用性之间实现了最优的平衡。
Sep, 2023
使用DP-Prompt及类似ChatGPT的强大语言模型在IMDB数据集上进行实验,发现其能够有效减少de-anonymization攻击成功率,并在与现有方法相比设计更简单的情况下,完全恢复了清洁情感F1分数,同时在对抗静态攻击者和自适应攻击者方面分别实现了46%和26%的减少
Oct, 2023
Prompt2Forget (P2F)是第一个针对大型语言模型的本地隐私挑战的框架,通过教授大型语言模型遗忘信息的方法,实现模型对敏感信息的遗忘性。实验结果表明P2F具有强大的能力,可以模糊大型语言模型的记忆,达到90%的遗忘性,而无需牺牲其效用。这一发现对于隐私保护领域中的大型语言模型有着深远的影响。
Dec, 2023
这篇论文介绍了一种名为PromptCrypt的加密机制,它使用表情符号对用户输入进行加密,保护用户隐私,无论对人类还是LLM自身都无法辨别敏感数据,同时保持模型的性能,实现与直接提示LLM相比,任务准确性可比甚至更优,突出了保护用户隐私而不损害LLMs的功能完整性和性能的加密措施的实用性。
Feb, 2024
预训练语言模型(PLMs)在解决各种自然语言处理(NLP)任务上展现出显著的熟练度。研究人员观察到这些模型的性能和规模之间存在直接关联。最近几年,这些模型的规模明显扩大,研究人员因此采用了大型语言模型(LLMs)这一术语来描述规模较大的PLMs。增加的规模伴随着一种称为上下文学习(ICL)的特殊能力,它代表了一种专门的提示形式。这使得LLMs能够通过展示演示例子的方式在保持模型参数冻结的同时,为特定的下游任务提供利用。尽管有趣,但隐私问题成为其广泛使用的主要障碍。多个研究已经考察了与ICL和提示一般相关的隐私风险,并提出了缓解这些风险的技术。因此,有必要为社区整理这些缓解技术。本综述提供了ICL和提示一般过程中采用的隐私保护方法的系统概述。我们对该范式下的不同方法进行了回顾、分析和比较。此外,我们提供了可用于开发这些框架的资源的概要。最后,我们讨论了这些框架的局限性,并对需要进一步探索的有希望的领域进行了详细的研究。
Apr, 2024
提出了一个基于服务器-客户端架构的隐私保护框架PDSS,该框架通过逐步蒸馏大型语言模型(LLMs)解决了专业领域应用中的隐私和资源限制问题,引入了指数机制策略和编码器-解码器策略以平衡提示隐私和合理性可用性,并在各种文本生成任务中验证了PDSS的有效性,同时提升了任务特定SLM的性能并优先保护数据隐私。
Jun, 2024
通过对真实用户与商业GPT模型的互动中产生的个人披露进行广泛细致的分析,研究人员以质量化和量化分析为基础,建立了任务和敏感话题的分类系统,并发现个人可识别信息(PII)在意料之外的上下文中出现,如翻译或代码编辑中(分别为48%和16%),而仅仅依靠PII的检测是不足以捕捉到人机交互中常见的敏感话题,如详细的性偏好或特定药物使用习惯。因此研究人员呼吁设计适当的推动机制来帮助用户监管他们的互动,以充分认识到这些高披露率的重要性。
Jul, 2024
本研究解决了基于网络的大型语言模型服务中第三方插件对用户隐私的潜在威胁,特别是敏感提示数据的存储和共享问题。提出的Casper技术通过在用户设备上运行的浏览器扩展,采用三层清洁机制,检测并移除用户输入中的敏感信息。实验结果表明,Casper在过滤个人可识别信息和隐私敏感主题方面具有高达98.5%和89.9%的准确率,显著增强了用户隐私保护。
Aug, 2024