- FedMap:迭代基于幅度修剪的通信高效联邦学习
FedMap 是一种新颖的方法,通过协作学习逐渐稀疏全局模型,从而提高联邦学习系统的通信效率,适用于对隐私至关重要的医疗和金融领域。它采用迭代的振幅剪枝方法训练全局模型,以减少通信开销,避免了参数重新激活问题,实现了稳定的性能表现。FedM - QBI:基于分位数的偏差初始化在联邦学习中用于高效的私有数据重建
基于联邦学习的隐私保护中,我们提出了 QBI 和 PAIRS 两个算法,分别通过稀疏激活模式和附加数据集的方式提高了恢复数据的能力,并且在 ImageNet 和 IMDB 情感分析数据集上得到了显著的改进,同时我们还提出并评估了 AGGP, - 隐形分类器:对敏感分类任务的伪姓名策略
分享我们的指南以及我们在处理敏感 NLP 数据时遇到的挑战和结果数据集,强调在数据共享中保护隐私的重要性,并确保数据的实用性和稳健的隐私保障。
- CollaFuse: 协同扩散模型
通过分布式协作扩散模型,我们提出了一种新的方法,在感知图像的同时减轻了客户端的计算负担,从而实现协作训练和数据隐私的增强。
- 利用有限资源进行 Transformer 联合学习而不共享模型
使用名为 Fed-Grow 的联邦框架,设计了一个名为 Dual-LiGO 的架构来帮助多个参与者从其预训练的小模型扩展到一个 Transformer,以提高模型的准确性和资源利用率,并保护用户的隐私。
- 6G 联邦学习动态频谱共享的安全与隐私
6G 无线通信中的频谱共享越来越重要,机器学习技术的应用在感知频谱空洞方面发生了显著变化,通过联邦学习实现的频谱感知技术引起了广泛关注,但协作训练的完整性和本地用户频谱信息的隐私安全问题仍然未被充分探索。本文首先研究了适用于 6G 场景的联 - 使用联邦学习训练扩散模型
我们提出了一种联合扩散模型方案,可以在不暴露本地数据的情况下独立和协作地训练扩散模型。通过对底层 UNet 骨干网的新颖利用,我们实现了在训练过程中参数交换数量的显著降低,最多可达 74%,而同时仍能保持与中心化设置相当的图像质量,依据 F - 个性化联邦知识图嵌入与客户关系图
使用客户关系图进行个性化联邦知识图嵌入的方法(PFedEG),通过识别来自其他客户端的嵌入的语义关联性,为每个客户端学习个性化的嵌入,从而解决了现有 FKGE 方法中的全局共享补充知识被噪音淹没和局部与全局优化目标不一致的问题。
- 基于关键图的高效目标级机器取消学习方法
机器遗忘是一种新兴技术,主要研究如何使训练模型忘记一些训练数据。本文提出了一种名为 “目标遗忘” 的更有效和高效的遗忘方案,通过构建一个关键参数的关系图数据结构和基于修剪的遗忘方法,实现从模型中删除部分目标的信息。实验结果验证了该方法的有效 - 联邦学习中的安全、隐私和公平的链接:新的平衡和新的视角
联邦学习中隐私、安全和公平的问题及其相互关系,以及其中的权衡。
- 做个金鱼,不要死记硬背!减轻生成型 LLMs 中的死记硬背现象
通过引入一种名为金鱼损失的微妙修改,我们减轻了大型语言模型记忆和重复其训练数据所带来的隐私和版权风险。我们进行了大规模实验,训练了数十亿规模的 Llama-2 模型,并证明了可提取的记忆量显著减少,同时对下游基准测试的影响几乎没有。
- 基于对说话人嵌入进行对抗扰动的异步语音匿名化
本文研究声音匿名化技术,重点探讨改变语音特征以防止机器识别但保留人类感知的异步声音匿名化方法,采用包含说话人解缠机制的语音生成框架生成匿名语音,并通过对说话人嵌入进行对抗扰动改变说话人特征,同时通过控制扰动强度保留人类感知。实验结果表明,在 - KDDDPSW-Sketch: 隐私差分化滑动窗口频率估计的草图框架(技术报告)
在滑动窗口模型中,提出了 DPSW-Sketch,一种基于计数最小化技术的算法,能够满足隐私性要求,并且在子线性时间和空间内近似估计任意项目的频率和重要项,实验结果显示其在效用和隐私权之间取得显著的权衡。
- 用于匿名学习图像压缩的感兴趣区域损失
在公共空间使用人工智能不断引发对隐私和敏感数据保护的担忧,本论文介绍了一种使用定制损失函数的 ROI 来实现足够去识别化的方法,通过训练端到端优化的自编码器来实现压缩和去识别化,同时考虑了压缩率、延迟和对人脸和人物检测模型的影响。
- 当群集学习遇见能量系列数据:基于区块链的去中心化协作学习设计
采用基于区块链的分布式网络的群智学习方案可以解决能源领域数据敏感性引发的安全和隐私问题,提升模型性能、增强数据安全性和隐私保护。
- MM智能物联网综述:应用、安全、隐私与未来发展方向
本论文综合调查了智能物联网(IIoT)在移动网络中的重要应用以及与之相关的安全和隐私问题,并提出了若干关键挑战和潜在研究方向。
- 深度学习中的记忆现象:一份调查
基于深度学习和深度神经网络的记忆现象对模型泛化性、安全性和隐私造成了影响,并提出了系统性框架以及评估方法,通过综合文献回顾探索了深度神经网络记忆行为对安全隐私的影响,还介绍了由记忆引起的隐私漏洞,忽略现象,以及它们在噪声标签学习、隐私保护和 - 合成数据异常值:身份泄露导航
通过对合成数据的异常值进行分析,我们的研究发现链接攻击方式可能会导致异常值被重新识别,并且差分隐私等额外安全措施可以预防重新识别,但会损失数据可用性。
- 找到 NeMo: 在扩散模型中定位负责记忆的神经元
通过定位跨注意力层中的神经元,我们引入了 NeMo 方法来解决扩散模型中的个别数据样本的记忆问题,从而避免了在推理过程中复制训练数据,增加了生成输出的多样性,并减少了私密和受版权保护数据的泄露,进而实现了更负责任的扩散模型的部署。
- 基于 LLM 的推荐系统中的隐私保护:最新进展与未来发展方向
最近,大语言模型(LLMs)已经与传统的推荐模型相结合,以提高推荐性能。然而,尽管大多数现有的研究都集中在提高模型性能方面,但隐私问题只得到了相对较少的关注。在本文中,我们对基于 LLMs 的推荐系统中的隐私问题进行了综述,将其分为隐私攻击