- 稀疏主成分分析的联邦学习
在机器学习领域中,数据质量和可用性经常限制算法的有效性。传统方法由于法律和隐私问题而遭遇数据共享困境。联邦学习框架应对了这个挑战,通过在客户端上进行模型训练,保护隐私并保持数据局部化。本研究将联邦学习框架应用于稀疏主成分分析(SPCA),通 - 联邦深度均衡学习:边缘通信效率的紧凑共享表示
FeDEQ 是一种先驱性的联邦学习框架,利用深度均衡学习和一致性优化有效地在边缘节点之间利用紧凑的共享数据表示,允许派生个性化模型,并通过采用交替方向法解(ADMM)一致性优化的新型分布式算法,理论上证明了其收敛性。实验结果表明,与最先进的 - AAAI神经图一致的多任务场景理解半监督学习
本研究提出了一种基于图神经网络的半监督学习方法,通过多次无监督的一致性优化,利用集成学习策略在多个视觉场景解释中实现多任务同时学习的高精度预测表现。
- CVPR随机稀疏子空间聚类
本文提出了基于 dropout 和正则化的随机稀疏子空间聚类方法,旨在解决现有方法在同一子空间内数据点之间连接不紧密的问题,并经过大量实验验证了该方法的有效性和可扩展性。
- 通过操纵频谱形状加速平滑的游戏
引入矩阵迭代理论,使用特征谱形状描述平滑博弈的加速度,对于光滑和强单调算子,提出基于共识优化的加速版本。
- 极大极小优化的最终迭代收敛速率
该研究论文阐述了针对非凸函数最优化问题中的后向迭代收敛的挑战性,介绍了哈密顿梯度下降算法以及协作优化算法,并证明了这些算法在某些情况下表现出线性收敛性。
- MM异步和延迟的去中心化一致性优化
本研究提出了一种异步、分散的共识优化算法,可在没有全局时序同步的情况下,利用本地计算和信息传递,在有限延迟和随机代理假设下收敛于精确解。
- 非凸分散梯度下降
本研究探讨了去中心化算法在非凸一致优化中的应用和属性,特别针对非光滑函数和非凸集的情况,提出了 Prox-DGD 算法,通过现有的 convex setting 证明其误差收敛性。
- MM使用 ADMM 进行规模化多关系学习
本文提出了一种基于共识优化的新型可扩展的多关系分解方法,名为 ConsMRF,采用 ADMM 框架进行优化,可轻松并行化处理 Web 规模的数据,并在大型 Web 数据集上显示出效率和性能的改进。
- EXTRA:去中心化共识优化的精确一阶算法
该论文提出了一个名为 EXTRA 的分布式算法,该算法使用固定的步长和同步迭代来解决多智能体网络中的共识优化问题,并具有最佳已知的收敛速率和较好的负载平衡。
- 基于网络的凸共识优化的八卦算法
本文提出了一种基于 Pairwise Equalizing (PE) 和 Pairwise Bisectioning (PB) 两种谷仓算法的一种解决无约束,可分离,凸的共识优化问题的方法,此方法易于实现,跳过次梯度算法的局限性,产生了切换