- 带自适应调参客户端的联邦学习
提出了一种名为 Delta-SGD 的算法用于优化联邦学习模型中的超参数,该算法能够在各个客户端之间自适应优化不同的参数,实验结果表明,该算法可以在不需要额外调整的情况下,在 73% 的实验中达到 TOP-1 准确度,在 100% 的实验中 - 宽带通信中的空中联邦学习
本文提出一种新的方法,将联合学习与 MIMO 系统的内部工作无缝集成,实现隐私保护的分布式机器学习.
- ICML超大规模机器学习的关系运算自动微分
研究关系数据模型如何区分计算,证明了基于自动差分算法的关系引擎能够轻松处理大规模数据集,并且在大规模分布式机器学习领域与最新专用系统相竞争。
- 利用损失函数的二阶信息加速收敛的本地随机梯度下降
该论文通过理论分析和实验证明,本地统计梯度下降(L-SGD)可以更有效地探索损失函数的二阶信息,从而比随机梯度下降(SGD)更快地收敛。
- 基于协调数据孤岛的联邦学习
本文提出了一个面向端到端联合机器学习和数据集成的体系结构愿景,为数据管理信息系统和机器学习交叉研究带来重要启示,以解决不同站点之间存在的数据集成和数据格式一致性问题。
- 资源受限联邦学习系统中分治 NAS 难题
文章提出了一种名为 DC-NAS 的分治方法,该方法在联邦系统中进行超网神经架构搜索的同时,提出了一种新的多样化采样策略来平衡搜索空间的探索和开发,并通过通道剪枝进一步降低设备的训练复杂性,该方法比最大分离采样等多种采样策略表现更好,研究在 - Flame 简化联邦学习操作
使用拓扑抽象图标识分布式机器学习应用,可避免部署细节差异带来的复杂性,提高系统自动化和优化效率,Flame 是第一个支持该抽象的系统。
- 通过容忍性损失传输协议提升分布式机器学习训练
本文提出了一个名为‘Loss-tolerant Transmission Protocol 的传输协议,通过使用乱序传输和乱序 ACK 来实现容错传输。通过与传统的 TCP 拥塞控制的比较,实验证明该协议可以在不损失最终准确性的情况下将分布 - 一石二鸟:量化实现分布式学习隐私
提出了一种量化解决方案,该方案能够同时实现通信效率和隐私保护,并通过在分布式随机梯度下降框架中将二项式噪声加入到均匀量化的梯度中来证明其有效性,从而在通信、隐私和学习性能之间实现新的平衡。
- 减少计算负载的快速容错分布式 SGD
该研究通过适应节点和运算负载调整方法,提高分布式随机梯度下降算法的收敛速度,显著降低计算负载,但略微增加通信负载。
- 原型有助于联邦学习:朝着更快的收敛方向
该论文提出了一种基于原型的联邦学习框架,通过在典型的联邦学习进程的最后全局迭代中进行少量更改就能够实现更好的推理性能,从而在两个基准数据集上实现了更高的准确性和相对高效的通信。
- ICLRFedSpeed: 更大的本地间隔,更少的通信轮次,更高的泛化准确性
本文提出了 FedSpeed 方法,通过应用 prox-correction term 和混合随机梯度下降和额外梯度上升步骤的扰动方法,解决了分布式学习框架中由于本地不一致的最优和过度拟合引起的非消失偏差问题。实验表明 FedSpeed 在 - 使用敌对嵌入攻击竖直联邦学习模型
本研究探讨了垂直联邦学习的安全保障问题,针对现有垂直联邦学习框架中使用密码学技术提供数据隐私和安全保障的方式,提出了对模型安全性的进一步研究探讨。
- 使用受限重球下降的通信高效 {联邦} 学习
本文提出了基于 HB 平滑技术的 Censoring-based Heavy Ball (CHB) 算法,可以在保持线性收敛速度的同时最小化通信成本,可应用于分布式学习中。数值实验表明,相对于现有算法,CHB 在实现相同准确率时,可以显著减 - 联邦学习中模型的深度泄漏
本文提出了两个新的框架,证明在联合学习的情况下传输模型权重也可能会泄露客户端的本地数据,同时介绍了两种对抗措施和评估其保护效果。
- ICML通过弹性平均动能简化拜占庭机器学习
提出了一种名为 RESAM(RESilient Averaging of Momentums)的新的分布式机器学习框架,通过引入强大的 Byzantine resilience 机制实现分布式算法的快速收敛。
- 边缘计算中快速且鲁棒的联邦学习的上下文模型聚合
本文旨在解决联邦学习系统中模型聚合存在的收敛缓慢和表现鲁棒性等问题,通过提出上下文聚合方案达到在每一轮优化中实现损耗减少的最佳上下文相关界限,同时证明该聚合方案引导了损失函数的明确降低,并在实验中展示了联合使用本方案和现有算法可取得收敛速度 - 纵向联邦学习:挑战、方法与实验
本文针对垂直联邦学习 (VFL) 这种特殊的架构设计,旨在解决 VFL 中关于安全隐私、大量计算和通信成本、模型分裂和系统异构等方面的研究挑战,提出有效的解决方案并在真实数据集上进行了实验,证明了我们的方案的有效性。
- MM区块链实现安全、可靠的联邦学习
提出了一个针对联邦学习的安全可信的区块链框架(SRB-FL),以应对由于不可靠参与设备、大量训练模型和匿名性等方面导致的挑战,建立一个基于区块链分片的安全联邦学习,确保数据可靠性、可扩展性和可信度,并引入一种激励机制提高 FL 设备的可靠性 - 在分布式 SGD 中结合差分隐私和拜占庭容错
本文研究了在标准参数服务器架构下,分布式 SGD 算法能否在部分节点受到 Byzantine 攻击,另一部分节点提供加噪的信息以保证 DP 的情况下,学习一个准确的模型。研究发现,在保证 DP 的情况下,现有的对于分布式 SGD 在 Byz