- 合成数据异常值:身份泄露导航
通过对合成数据的异常值进行分析,我们的研究发现链接攻击方式可能会导致异常值被重新识别,并且差分隐私等额外安全措施可以预防重新识别,但会损失数据可用性。
- 找到 NeMo: 在扩散模型中定位负责记忆的神经元
通过定位跨注意力层中的神经元,我们引入了 NeMo 方法来解决扩散模型中的个别数据样本的记忆问题,从而避免了在推理过程中复制训练数据,增加了生成输出的多样性,并减少了私密和受版权保护数据的泄露,进而实现了更负责任的扩散模型的部署。
- 基于 LLM 的推荐系统中的隐私保护:最新进展与未来发展方向
最近,大语言模型(LLMs)已经与传统的推荐模型相结合,以提高推荐性能。然而,尽管大多数现有的研究都集中在提高模型性能方面,但隐私问题只得到了相对较少的关注。在本文中,我们对基于 LLMs 的推荐系统中的隐私问题进行了综述,将其分为隐私攻击 - LoByITFL:低通信安全和私密联邦学习
利用少量的代表性数据集、FLTrust 算法的适当转化以及在学习算法开始前仅使用可信第三方进行一次预处理阶段,我们介绍了 LoByITFL,这是第一个通信高效、信息论隐私保护和安全强固的联邦学习方案,它在隐私保证上并没有做出任何牺牲,同时确 - KDD快速 FedUL:具备可证明偏差韧性的无需训练的联邦去学习
为了保护训练数据的隐私权,研究提出了一种适用于联邦学习的定制反学习方法,Fast-FedUL,它能够完全消除重新训练的需要,并通过对目标客户在每一轮中对全局模型的影响进行细致分析,开发出一种算法系统地从训练模型中移除目标客户的影响,而保留非 - RFLPA:一种抵御污染攻击的鲁棒联邦学习框架并具有安全聚合
我们提出了一种基于安全聚合协议的抵御毒化攻击的强韧联邦学习框架(RFLPA),该框架通过计算本地更新和服务器更新之间的余弦相似度来进行鲁棒聚合。此外,我们利用可验证的打包 Shamir 秘密共享来实现每个用户的通信成本降低为 O(M + N - FLIPHAT: 高维稀疏线性赌博机的联合差分隐私
在高维稀疏线性赌博模型中,在考虑数据隐私的情况下,我们设计了一种计算高效的赌博算法 FLIPHAT,它通过部分遗忘和噪声迭代硬阈值算法来确保隐私和达到最优遗憾性,研究内容包括隐私代价、估计误差和遗忘策略。
- 区块链上的健康数据安全:差分隐私和联邦学习框架
提出一种框架来增强基于区块链的物联网(BIoT)系统在医疗保健领域中的隐私保护,通过集成差分隐私(DP)和联邦学习(FL)来保护物联网节点收集的敏感健康数据,并利用动态个性化和自适应噪声分布策略平衡隐私和数据效用,同时通过区块链技术确保模型 - LLM 伦理导航:进展、挑战和未来方向
本研究探讨了人工智能领域中大型语言模型(LLMs)的伦理问题。它讨论了 LLMs 和其他人工智能系统所面临的常见伦理挑战,如隐私和公平,以及 LLMs 特有的伦理挑战,如幻觉、可验证的问责和解码审查复杂性。该研究强调了解决这些复杂性的必要性 - 差分隐私联邦学习:系统性综述
我们的研究针对差分隐私的联邦学习进行了系统的概述和分类,提出了一种新的基于差分隐私和联邦场景定义和保证的分类方法,并探讨了差分隐私在联邦学习场景中的应用,为隐私保护的联邦学习提供了有价值的洞见和未来研究方向。
- 没有隐私损失的拜占庭容错安全聚合的联邦学习
ByITFL 是第一个具备全信息论隐私的拜占庭容错方案,通过拉格朗日码计算、可验证的秘密共享和重新随机化步骤,实现了分布式的、保护隐私的计算。
- 添加效应辅助学习
两阶段协作学习架构,利用隐私保护假设检验筛选有用数据,然后通过迭代模型训练和有限的摘要统计信息传输,实现与中心化数据相同的理论和数值效果。
- 通过随机化聚合缓解联邦学习的贡献分配不稳定性
通过对基于梯度的模型重建技术与 Shapley 值的贡献计算进行稳定性分析,本研究提出了 FedRandom 作为一种更公平分布的可行聚合技术,它不仅可以提高贡献评估的准确性,而且能够增强联邦学习系统的整体公平性和稳定性,尤其适用于参与者数 - GLiRA: 通过知识蒸馏进行的黑盒成员推理攻击
我们提出了一种使用知识蒸馏引导的黑盒神经网络成员推理攻击方法,并在多个图像分类数据集和模型上进行评估,证明了借助知识蒸馏的似然比攻击在黑盒设置下优于目前最先进的成员推理攻击。
- 基于指数机制的数据交易组合拍卖机制
基于指数机制的数据交易组合拍卖机制(DCAE)旨在保护买家的竞标隐私,确保高拍卖收益并保护买家隐私不被侵犯。
- 用触发优化的数据毒化在联邦学习中隐藏后门模型更新
DPOT 是一种基于数据污染的联邦学习后门攻击策略,通过动态构建后门目标并优化后门触发器,使后门数据对模型更新的影响最小化,有效地破坏了最先进的防御机制并在各种数据集上优于现有的后门攻击技术。
- 可信 AI 生成内容在智能 6G 网络中的应用:对抗、隐私和公平性
提出了 TrustGAIN,一个新的可信的 AI 生成内容(AIGC)范式,以确保未来 6G 网络中可信的大规模 AIGC 服务。讨论了 6G 网络中 AIGC 系统面临的敌对攻击和隐私威胁,以及相应的保护问题,并强调了在未来智能网络中确保 - COLING局部差分私有化上下文学习
基于预训练语言模型和隐私保护的局部差分隐私框架中的语境学习(ICL)的分析研究
- 可解释的分布式学习中的数据融合:一种代表性的梯度匹配方法
该论文介绍了一种基于代表性的分布式学习方法,将多个原始数据点转化为虚拟表示。相比于传统的分布式学习方法如联邦学习,该方法能使复杂的机器学习过程可解释且易懂,通过将庞大的数据集压缩成可理解的格式来促进人机直观交互。此外,该方法能保持隐私和通信 - ICML对于每个 (文本序列) 的独立性:改进大型语言模型中的记忆数据遗忘
通过新的度量衡、对抗攻击以及基于梯度上升和任务算术的两种新的遗忘方法,本研究提供了关于 LLMs 隐私保护和遗忘的新视角,并在大量 NLP 任务上进行了全面的性能评估。