研究低通信成本的分布式平均估计的通信高效算法,实现数据的结构化随机旋转和编码策略,并在 k-means 和 PCA 的分布式算法中应用。
Nov, 2016
研究大数据情况下的参数平均化方法在经验风险最小化中的应用,探讨了数据分割对估计误差的影响和高维情况下的表现,得出了适用于两种情况的渐进误差估计和精度和存储复杂度之间的权衡关系。
Jul, 2014
本文研究如何在分布式计算环境中在通信成本约束下,适应一系列随机化算法以在预期的通信成本和估计误差之间进行权衡,实现对一组向量的平均值估计,为分布式优化和学习算法中的 reduce-all 操作提供了一种解决方案。
研究分布式方法用于在线预测和随机优化,并提出了基于 gossip 的优化方法以实现最优的后悔界限。
Mar, 2014
本论文研究了用于最小化凸函数平均值的分布式优化算法,应用于统计机器学习的经验风险最小化问题。我们设计了一种分布式随机方差减少梯度算法,其在条件数方面同时增强了最佳并行运行时间、通信量和所有分布式一阶方法的通信轮数。此外,当条件数相对于每个机器中的数据大小不太大时,我们的方法及其加速扩展还可以优于现有的分布式算法,此外,还证明了广泛分布的课程的有关通信轮数的下限。我们证明了我们的加速分布式随机方差减少梯度算法实现了这一下限,从而它使用最少的通信轮数。
Jul, 2015
该论文在两个设置中确定了强凸和光滑分布式优化的最优收敛速率:中央集权和去中心化通信。对于中央集权算法,作者表明分布式 Nesterov 加速梯度下降算法是最优的。对于基于流言蜚语 (gossip) 的去中心化算法,作者提供了第一个最优算法 MSDA 方法,并通过最小二乘回归和分类的逻辑回归问题验证了其效率。
Feb, 2017
本文研究了高维分布统计估计问题的统计误差和通信成本之间的权衡,并提供了分布式稀疏高斯均值估计问题的紧密的权衡分析结果,这直接导致了分布式稀疏线性回归问题的下界,并给出了在稠密情况下均值估计的第一个最优同时协议。
Jun, 2015
探索分布式学习中维度和沟通成本之间的关系,研究估计未知高维高斯分布均值的问题。同时,提出了一个基于阈值的协议,可在保证相同平方损失的前提下节省通信开销。
May, 2014
本论文提出了基于省通信的分布式算法来最小化整体经验损失,算法的迭代复杂度和通信效率针对自共轭经验损失函数进行了分析。
Jan, 2015
我们提出了一种耦合的分布式随机逼近算法来解决具有不完美信息特征的参数化分布式优化问题,对该算法的收敛性进行了定量分析,并证明了决策变量的均方误差受网络连接性和迭代次数的影响,此外,对达到主导收敛速率所需的临时迭代次数进行了分析,并通过数值实验验证了理论结果。
Apr, 2024