FedSOV:基于联邦学习的安全模型产权验证与防篡改签名
本文提出了一种名为 FedZKP 的可证明安全的模型所有权验证方案,它使用零知识证明来保护联邦模型的隐私不被抄袭或滥用,通过理论分析和实证研究证明了 FedZKP 的安全性和鲁棒性。
May, 2023
本研究提出了 FedTracker—— 第一个 FL 模型保护框架,其采用全局水印和本地指纹分别验证全局模型的所有权以及追溯模型背后的罪犯。结果表明,FedTracker 在验证、追溯、保真度和鲁棒性方面是有效的。
Nov, 2022
提出了一种名为联邦子模型学习的新的联邦学习框架,允许客户端只下载所需的完整模型的部分(即子模型)并上传子模型更新,同时采用私有集合联合协议作为基石的安全联邦子模型学习方案,通过随机响应、安全聚合和 Bloom 过滤器等属性,赋予每个客户定制化的近似不可否认性,保护其隐私数据,以电子商务推荐方案为例,验证了该方案的可行性和优越性。
Nov, 2019
用于自动驾驶的半监督联邦目标检测(SSFOD)框架:SSFOD 是一种针对分布式数据源的模型训练框架,其中服务器端只有部分标注数据,客户端拥有未标注数据。FedSTO 是一个两阶段的策略,包括选择性训练和正交增强全参数训练,通过数据转移和区分度增强来有效解决服务器和客户端之间的数据差异。该方法在自动驾驶数据集上验证了其有效性,并表现出与完全监督集中训练方法几乎相当的性能。
Oct, 2023
本文旨在构建一个隐私保护、拜占庭强健的联邦学习方案,提供一个无破坏者环境,以保护数据隐私并排除恶意攻击者。我们通过构建模型过滤器、采用零知识证明提供进一步的隐私保护、采用秘密共享提供可验证的安全聚合,证明了 NoV 能有效应对包括 PGD 在内的数据和模型污染攻击,并超越其他相关方案。
Jun, 2024
本文介绍了一种新的技术和框架,称为联邦迁移学习(FTL),它可以在数据联邦下提高统计模型的性能。该联邦允许共享知识而不会危及用户隐私,并可在网络中传输补充知识,从而使目标域方能够利用源域方的丰富标签构建更加灵活和强大的模型。同时,为了在联邦下保护 FTL 的性能,还提出了一种安全的跨验证方法。该框架需要对现有模型结构进行最小的修改,并提供与非隐私保护方法同样水平的准确性。该框架非常灵活,可有效适应各种安全多方机器学习任务。
Dec, 2018
本研究提出了一种新的基于分布式差分隐私的隐私保护联合学习方法,其可以有效避免联合攻击,以及 “Sybil” 攻击,并给出了相应的安全性证明。在模拟的 5000 个分布式网络客户端上的实验结果表明,该协议执行速度快,学习准确率高,且具有良好的隐私保护性能。
Feb, 2022
本文提出了一种使用集成学习做到在联邦学习中抵抗恶意攻击的方法,它使用多个模型进行多数表决确定预测结果,测试表明该方法可以在受到最多 20 个恶意客户端攻击时在 MNIST 数据集上获得 88%的可靠准确度。
Feb, 2021
通过 Federated Learning 框架的机制,我们提出了一种叫做 FedPower 的算法以支持现代设备用户集体学习中的部分奇异值分解。该算法通过多个本地迭代和全局聚合的替换,以改进通信效率,并解决了用户数据隐私保护的问题。
Mar, 2021
提出 FLVoogd 联邦学习方法,采用密度聚类算法以及测试性距离控制等方法实现安全隐私保护,同时利用安全多方计算实现加密运算,在图像分类数据集中可以有效抵御恶意攻击,避免服务器数据泄露。
Jun, 2022