- 通过 Hammersley-Chapman-Robbins 界限保证机密性
通过在最后几层的激活中添加噪声,可以保护深度神经网络在推断过程中的隐私,防止从噪声特征中重构输入,而 Hammersley 和 Chapman Robbins 的经典不等式提供了可行的计算上可行的下界模型,但对于已在 ImageNet 数据 - 增强分布式网络中的信任和隐私:基于区块链的联邦学习的综合调查
区块链与联邦学习的综述和展望,介绍了基于区块链的联邦学习的分类、体系结构和应用,并指出了未来研究方向。
- DSF-GAN: 下游反馈生成对抗网络
使用一种名为 DSF-GAN 的新型架构,通过从下游预测模型获得反馈信息来增强生成器的损失函数,从而提高合成样本的效用。与没有反馈的相同类型的 GAN 生成的合成样本相比,DSF-GAN 生成的合成样本在模型性能上表现出更好的效果。
- 探索中文大型语言模型的隐私保护能力
我们设计了一个三层渐进式框架,用于评估语言系统的隐私,以解决大型语言模型在隐私保护方面的问题。观察结果显示,现有的汉语大型语言模型普遍存在隐私保护方面的缺陷,可能在基于这些模型的应用中带来相应的隐私风险。
- 解读本地差分隐私、平均贝叶斯隐私和最大贝叶斯隐私之间的相互作用
我们综合研究引入了贝叶斯隐私并深入探讨了局部差分隐私及其贝叶斯对应之间错综复杂的关系,揭示了新的有关效用和隐私之间的权衡。
- 具有相关噪声的差分隐私在线联邦学习
我们提出了一种新颖的差分隐私算法,用于在线联合学习,通过使用时间相关的噪声来提高效用并确保连续发布的模型的隐私性。
- 消费者物联网流量调查:安全与隐私
消费物联网的安全和隐私旨在对物联网的流量分析进行调查,从中了解安全和隐私的新特征、最新进展以及待解决的挑战,并总结了物联网流量分析过程中的新特征。此外,还详细介绍了基于五个应用目标的现有研究,包括设备指纹识别、用户活动推断、恶意流量分析、安 - 数据擦除的前沿:大型语言模型的机器取消学习
大型语言模型开创了人工智能的进展,然而它们可能会危险地记忆和传播敏感、偏见或受版权保护的信息。机器遗忘作为一种尖端解决方案应运而生,针对大型语言模型提供了一种选择性丢弃某些数据的技术,以解决隐私、道德和法律方面的挑战,无需进行完整的模型重新 - 大型语言模型的差分隐私下一个令牌预测
通过对公共 LLM 输出分布周围的集合投影,并对投影分布进行平均和抽样,PMixED 提供了基于模型预测的差分隐私保护方法,比样本级隐私更可靠,并在大规模数据集上胜过 DP-SGD。
- ICMLHETAL:具有同态加密的高效隐私保护迁移学习
HETAL 是一种高效的基于同态加密的迁移学习算法,通过使用 CKKS 同态加密方案对客户数据进行加密,并采用基于验证的早停方法,实现了对客户隐私的保护,并达到了非加密训练的准确性。
- 近似机器遗忘是否得到适当评估?从审计到副作用
通过引入明确定义和有效的度量标准来解决黑箱取消学习审核任务的挑战,该论文分析了当前近似机器取消学习算法的实用性、韧性和公平性,并旨在将数据遗忘的理论权利转化为可审计的现实。
- CVPR预训练视觉模型的持续遗忘
通过引入 GS-LoRA 方法,实现对预训练模型中特定信息的持续遗忘,以解决在保持剩余知识的同时高效删除不需要的知识的关键挑战。
- 差分隐私下的联邦迁移学习
在这篇论文中,我们以一个联邦迁移学习框架解决了数据异构性和隐私保护这两个突出的挑战,旨在在遵守隐私约束的同时通过利用来自多个异构源数据集的信息来增强目标数据集上的学习能力。我们严格地提出了 “联邦差分隐私” 的概念,为每个数据集提供隐私保证 - IoTCO2:评估物联网驱动的深度学习的端到端碳足迹
为了提高隐私和保证服务质量,深度学习模型越来越多地部署在物联网设备上进行数据处理,从而显著增加了与物联网上深度学习相关的碳足迹,覆盖了运营和实体方面。本文引入了 extit {CARB},一种用于物联网上深度学习精确估计碳足迹的端到端建模工 - 一种成本效益和自适应的 LLM 振荡和恢复机制框架
使用成本效益高且自适应的 CypherTalk 机制,通过设计水平和垂直的摇动操作符,可实现与现有隐私保护 LLM 方案相媲美的精确性结果,并在 LLM 场景中首次考虑成本和模型效用之间的权衡。
- WWW去中心化 Web 的永久语义数据使用条款
在当今数字化环境中,Web 变得越来越集中化,引发了对用户隐私侵犯的担忧。分散式 Web 架构(如 Solid)通过在个人 “Pods” 中赋予用户更好的数据控制权,提供了一种有希望的解决方案。然而,目前存在一个重大挑战:用户必须浏览许多应 - 神经技术认知安全问题的数学框架
近年来,神经技术的迅速发展在神经技术与安全领域形成了重要的交叉点。植入式设备、非侵入式监测和非侵入式疗法都可能侵犯个体认知的隐私和自主权。越来越多的科学家和医生呼吁解决这个问题,即认知安全,但实际应用的努力有限。阻碍科学和工程努力解决认知安 - 流畅:用于私人联邦学习的轮效安全聚合
FL 解决隐私攻击的 communication-efficient 的 secure aggregation 方案 Fluent,实验结果显示 Fluent 提高了普通客户端的计算成本至少 75%,通信开销至少 25%,并通过引入动态客户 - 现实世界中的图神经网络调查:不平衡、噪声、隐私和 OOD 挑战
本研究系统地回顾了现有的图神经网络模型,重点关注解决实际场景中的不平衡、噪声、隐私和超出分布情景的四大挑战,同时提出了未来的研究方向和展望。
- 联邦学习中的数据重构攻击防御:一种信息论方法
在分布式学习中,我们提出了一种通过限制传输信息量并应用数据空间操作的渠道模型,以提高数据重构攻击下的隐私保护,验证了方法的有效性。