- 分布式机器学习的鲁棒性核心集构建
该文章提出了一种稳健的 coreset 构建算法,在中心化和分布式框架下生成符合一定理论条件的 coreset,以支持各类机器学习问题的高效求解。实验证明该算法具有较强的健壮性。
- WWW大规模图上完全个性化 PageRank 的分布式算法
本文提出了使用分布式计算框架计算大型边加权图的全面边加权个性化 PageRank 的新方法,使用了蒙特卡罗近似并结合优化技术,其准确性表现显着超过基线算法,并且速度比现有技术快数个数量级。
- WONDER:高维加权一次性分布式岭回归
探讨如何在分布式计算环境中进行岭回归,并提出了一种新的加权组合算法 WONDER,试验表明可以节省至少 100 倍的计算时间。
- 利用聚类和多消息通信的梯度编码
本文介绍了一种新的梯度编码(GC)方案,结合多消息通信(MMC)和聚类,以减少因服务器慢导致的迭代时间延长问题,其能有效提高平均完成时间并降低通信负荷。
- 压缩梯度差异的分布式学习
本文提出了一种名为 DIANA 的新型分布式学习方法,通过压缩梯度差异解决了模型更新通信瓶颈的问题,并且在强凸和非凸设置中进行了理论分析,结果表明 DIANA 的收敛速度优于现有方法。
- DINGO: 分布式牛顿型梯度范数优化方法
本文提出了一种分布式计算环境中的优化方法 --DINGO,该方法不仅不限于凸性,而且可以处理任意数据分布,其基本子问题是简单的线性最小二乘问题,其参数易于调优,理论上表明其超参数选择不敏感,实验证明其效果、稳定性和通用性优于其他相关算法。
- 记忆约束下的分位数回归
本文研究基于有限内存约束的大样本分位数回归问题,提出一种计算效率高的分位数回归估计方法,实现多轮聚合即可得到与所有数据计算分位数回归一样的效果,并适用于分布式计算环境和实时数据处理。
- 具有 Stragglers 的 Map-Shuffle-Reduce 系统的延迟 - 通信权衡改进
在分布式计算系统中,通过编码存储的数据可以减少迟滞服务器造成的延迟,并减少在洗牌阶段的服务器之间的通信负载。本文通过内部的重复编码来提高外部最大距离可分离(MDS)码的速率,进而提高洗牌阶段的多播机会,从而改善了最佳延迟和通信开销之间的平衡 - MM任务分配对带拖延的分布式计算系统的影响
本文研究分布式计算中冗余任务分配和批处理对计算时间的影响,并发现在拥有固定任务数量的系统中,均匀复制非重叠批次的计算任务可以实现最小化的计算时间。
- 迭代随机投影的十亿级网络嵌入
RandNE 是一种用于处理百亿级网络的、高效的、无误差聚合的网络嵌入方法,它采用高斯随机投影和迭代投影来实现低维嵌入空间的构建,并具有良好的分布式计算性能和动态网络更新能力。
- MM用于分布式计算和滞后服务器的块对角和 LT 编码
本文介绍两种分布式计算方案:基于 MDS 代码的矩阵乘法分块编码方案和基于 Luby Transform 码的 inactivation 译码方案。数值结果表明,本文所提出的方案在截止日期内的性能优于文献中的其他方案。
- 实现 1-NN 的时间,同时保证 k-NN 的准确性
该论文提出了一种简单的方法,利用分布式计算资源,通过聚合去噪的 $1$-NN 预测器,以少量分布式子样本实现接近于 $k$-NN 预测的准确性,同时匹配(或优化)$1$-NN 更快的预测时间,理论和实验结果表明,小的子样本大小足以达到与 $ - 分布式梯度方法的近似最优散乱者缓解
本研究提出了一种名为批处理优惠券集合(BCC)的分布式计算方案,以减轻梯度法中流浪者的影响,该方案在随机弱者数量接近最优时具有鲁棒性,并证明了 BCC 方案的有效性,提高了 85.4%的运行时间。此外,该方案的泛化结果证明了其能够在异构工作 - 通信高效分布式优化的梯度稀疏化
通过减少信息交换的通信成本,提出了使用凸优化公式的随机梯度编码方法,该方法可以在多台机器上有效地解决大规模机器学习中的瓶颈问题,同时经过正则化逻辑回归,支持向量机和卷积神经网络的实验验证了该方法的有效性。
- MM编码分布式优化的序列逼近框架
该研究提出了一种基于连续逼近的分布式计算框架,以解决优化问题,特别是针对最终价值计算过程中计算时间不相同(由于处理器延迟或者出错)的情况,其中矩阵 - 向量乘法的编码定理和优化方案也被探讨。
- 网络机器学习:工作流程、进展和机会
本文介绍了机器学习技术在网络领域的应用及其工作流程,并针对不同的网络设计目标分析了其具体实现和优势,旨在为研究人员提供广泛的研究方向及指南。
- ICLR使用近似 Hessian 矩阵加速分布式深度学习的 SGD
本文提出一种新的分布式计算方法,用于计算海森矩阵的逆的排名 $m$ 近似,该方法利用多个 Worker 的梯度和参数的差异,有效地实现了牛顿 - 拉夫逊方法的分布式近似,并揭示出二阶方法用于大规模随机优化问题的优点和挑战,特别是我们的工作表 - GIANT: 分布式优化的全局改进近似牛顿方法
本研究提出了一种分布式和通信高效的牛顿类型优化方法,名为 GIANT,通过利用全球 ANT 方向进行局部计算和全局通信之间的折衷来改善收敛率,并仅涉及一个调整参数。
- NIPS机器学习的鲁棒多批次 L-BFGS 方法
本文介绍了一种应对分布式计算和多批处理中不可靠计算节点带来的问题的 L-BFGS 方法实现方式,并说明了如何在多批处理中进行稳定的拟牛顿更新以及算法在机器学习的分类与神经网络训练问题中的行为表现及其收敛性质。
- MM利用离散回波机载激光雷达遥感森林
介绍了一种用于处理森林点云的方法,通过用垂直平面对森林按层次分层,估算每个层次的点密度、训练出一个避免先验假设和复杂模型的树木分割模型,并采用分布式计算对大型森林进行高效处理。