- 智能电表数据共享的局部差分隐私
本文提出了一种新颖的局部差分隐私方法(称为 LDP-SmartEnergy),利用滑动窗口和随机响应技术,在不揭示个人用户的设备使用模式的情况下,促进了随时间共享设备级能耗数据。评估结果表明,与基准方法相比,LDP-SmartEnergy - 去中心化、可扩展和保护隐私的合成数据生成
合成数据可减少隐私风险并提供更好的隐私保障,但要实现可信的合成数据生成,需要综合考虑算法、贡献者的自治性、去中心化、隐私性和可扩展性等方面。
- 对语言分类模型的成员推断攻击的改进
人工智能系统在日常生活中普遍存在,在零售、制造、健康等许多领域都有应用。随着人工智能采用的增加,相关风险也被识别出来,其中包括对用于训练模型的数据的隐私风险。评估机器学习模型的隐私风险对于做出有知识决策,是否使用、部署或共享模型至关重要。对 - 语言模型中的隐私风险识别与缓解:调查
通过对大规模语言模型的调查,本研究首次提供了关于语言模型隐私的技术综述,包括攻击与缓解策略的分类、现有攻击的趋势、现有缓解策略的强项与局限性,找出关键缺口并提出解决问题的方法与关切领域。
- 隐私保护的上下文学习与差分隐私少样本生成
提出一种使用形式上具有差分隐私保证的合成少样本演示从私有数据集中生成的新算法,以实现具有效果的上下文学习,并通过与非私有上下文学习和零样本解决方案的比较进行广泛实验,证明该算法可以在强隐私保护的同时获得具有竞争性的性能,这为具有广泛应用范围 - 对基于 LLM 的对话代理使用者在披露风险和好处上的导航方式进行研究
建立尊重用户隐私的伦理性大型语言模型对话代理 (LLM-CA) 需要深入了解用户最关心的隐私风险,并解决用户隐私、效用和便利之间的权衡问题。研究发现,用户在使用 LLM-CA 时面临隐私、效用和便利之间的不断选择,但用户对隐私风险的认知受到 - 黑盒模型即足以侵犯隐私:以智能电网预测模型为例
该研究探讨了与预测模型相关的潜在隐私风险,重点关注其在智能电网背景下的应用。深度学习(如 LSTM)等基于深度学习的预测模型在优化智能电网系统等多个应用中发挥关键作用,但也引入了隐私风险。研究分析了预测模型泄漏全局属性和对智能电网系统隐私的 - 大型语言模型中实体级记忆的量化与分析
大型语言模型通过精心设计的提示可以提取出其训练数据,这也带来了隐私风险。为了评估潜在的隐私风险,需要量化语言模型的记忆能力。本文提出了一个细粒度、基于实体级别的定义来量化记忆,并提供了一种从自回归语言模型中高效提取敏感实体的方法。实验结果显 - 实现可行的联邦因果结构学习
本研究提出了一个名为 FedC2SL 的联邦约束因果结构学习方案,它使用联邦有条件独立性检验学习因果图,该方案需要更弱和更现实的数据假设,并针对客户端数据变异提供更强的抗性,从而解决了在保护隐私方面存在的一些问题。实验结果表明,FedC2S - 从心理特征到安全警告:智能家居环境中的三项推荐研究
本文报告了 EMPATHY 项目中三项实验的结果,旨在帮助用户在智能家居环境中做出更好的配置选择,并探讨了我们的研究成果。我们发现,心理特征和推荐的有用性之间存在复杂的关系,并且详细易懂的安全说明比简单的安全警告更具有说服力,涉及可能导致隐 - DP-HyPO:自适应私有超参数优化框架
DP-HyPO 是一种桥接私人和非私人超参数优化方法的里程碑式框架,并提供了具有全面差分隐私分析的高效性。
- 使用邻居比较攻击语言模型的成员推断
本研究探讨了参考模型攻击在更现实的情况下对数据分布的脆弱性,并提出并评估了领域攻击方法,以提高模型隐私性。
- 推断时的数据最小化
本文考虑在隐私、准确性和个性化之间的权衡,通过提供一种有效的顺序算法,确定在个性化背景下仅需披露小部分特征即可提供和利用敏感数据,并演示了在不同学习任务中,个体只需披露 10% 的属性即可保持与全集的精度相同。
- 检索式语言模型的隐私影响
本文研究检测基于 k 最近邻的检索型语言模型对隐私的风险,探索隐私安全的最佳设计和培训程序以在效用和隐私之间取得平衡,并提供了隐私风险缓解策略。
- EXACT:Split Learning 的广泛攻击
介绍了 Split Learning 的优点和潜在的隐私风险,并提出了 EXACT 攻击方法以及不同隐私保护策略的有效性,结论表明,微小的差分隐私可以有效地减轻这一风险。
- SSL 模型是否有 déjà vu?自监督学习中无意识 memorization 的情况
本文研究了自监督学习算法中的 deja vu 记忆现象,该现象将 image-specific 信息非预期地编码进模型,从而带来潜在的隐私风险。作者展示了这种记忆现象的存在性、普遍性和难以检测性,并提出了可能的缓解策略。
- 反推攻击图神经网络模型
该论文对 GNNs 进行了系统研究,提出了 GraphMI 方法用于推断私有训练数据中的离散边缘,建议更有效的隐私防御措施。
- 自主汽车的隐私:风险、保护方法和未来方向
这篇论文主要探讨了在自动驾驶车辆的机器学习训练中,用户数据的隐私保护问题,提出了涉及个人、群体和机构三个层次的隐私风险分类方法,并总结了当前的解决方案和未来的研究方向。
- 终身 DP:在终身机器学习中保持一致的有界差分隐私
本文介绍了一种被称为 Lifelong DP 的连续隐私定义,提出了一种可扩展和异构的算法,称为 L2DP-ML,用于保护在一个不断增长的任务流中任何数据元组的参与,以保护训练集的隐私,并且无论任务数量如何,DP 隐私预算都有一个固定的值。 - NeuGuard:轻量级神经元引导的成员推断攻击防御
本文提出了一种名为 NeuGuard 的神经元引导防御方法,用于防御机器学习模型的隐私风险,该方法包含限制最终输出神经元和内部神经元激活的班级方差最小化和层平衡输出控制,且在对比实验中表现优异。