安全去中心化优化与学习的调查
本研究旨在提高去中心化学习的Sybil义务破坏韧性。我们提出了SybilWall算法,该算法基于Sybils之间的相似度和新颖的概率传闻机制,确立了一个新的可扩展的,具有Sybil韧性的分散式学习基准。全面的实证评估表明,SybilWall优于针对联邦学习方案设计的现有最先进解决方案,并且是唯一一种在各种敌对攻击情况下获得一致准确度的算法。我们还发现,SybilWall减少了创建许多Sybils的效用,因为我们的评估表明,采用较少Sybils的对手的成功率更高。最后,我们提出了SybilWall的一些可能改进方法,并强调了有前途的未来研究方向。
Jun, 2023
联合考虑分布式学习中的隐私保护和拜占庭健壮性,研究了一种隐私保护和拜占庭健壮的分布式随机梯度下降框架,采用高斯噪声进行隐私保护,并采用鲁棒聚合规则来对抗拜占庭攻击,分析了其学习误差和隐私保证,发现分布式学习中隐私保护和拜占庭健壮性之间存在基本的权衡关系,并通过数值实验验证了理论发现。
Aug, 2023
分布式优化和学习中的隐私保护方法进行了综述,介绍了密码学、差分隐私等技术,并提出利用差分隐私算法来确保隐私和优化准确性,在多个机器学习问题中得到实际应用验证。同时探讨了该研究领域的挑战和未来方向。
Feb, 2024
SecureDL是一种新颖的分布式机器学习协议,通过安全多方计算保护客户端模型更新的隐私,提高对拜占庭威胁的安全性和隐私保护。该协议使用余弦相似度的有效计算和更新的归一化来稳健地检测和排除对模型收敛有害的模型更新,并在多种拜占庭攻击中表现出很高的有效性,并保持较高的训练准确性。
Apr, 2024
分布式学习是机器学习中一种新颖的范例,通过在客户端之间分发训练数据而不进行集中聚合来提升可扩展性和效率。本文提出了三种基于秘密共享的抗丢失模型的隐私保护方法,通过在多个数据集上进行实验评估了这些方法的效率、性能和准确性。实验结果表明,我们的方法在保护隐私和抵御客户端丢失的场景中表现显著优于传统方法,尤其适用于大型模型、较高的丢失率和复杂的客户端网络。
Apr, 2024
分布式学习面临隐私泄露的问题,本论文引入了一种新的安全聚合协议CESAR,通过与现有的稀疏化机制相兼容,提高了通信效率,同时对抗恶意和好奇的对手。实验证明CESAR在并行随机梯度下降中保持很高的准确性,而仅增加11%的数据开销,并在独立同分布数据上优于TopK法达到最多0.3%的准确度提升。
May, 2024
分布式联邦学习提供了更好的隐私保护,通过分布式优化过程对局部梯度的差异和网络上多个节点的梯度之和的信息进行聚合,从而增加了隐私攻击的复杂性,尤其对于复杂模型如深度神经网络的隐私风险降低。
Jul, 2024
在集中式系统中的联邦学习(FL)中,本文解决了在受信任和不受信任服务器场景下保护隐私的挑战,分析了这种设置在随机凸优化(SCO)框架中,并设计了一种方法,以确保差分隐私(DP)同时保持同质和异质数据分布的最佳收敛速率。我们基于一种最近的随机优化技术的方法,提供了线性的计算复杂度,与非私有FL方法相当,并减少了梯度混淆。这项工作在各种服务器信任环境中平衡隐私、效率和稳健性,增强了DP在FL中的实用性。
Jul, 2024