NeRCC:用于弹性分布式预测服务系统的嵌套回归编码计算
提出 Lagrange 编码计算(LCC)框架,用于提高分布式学习算法的可靠性、安全性和隐私性,加速分布式最小二乘线性回归等计算,同时优化容忍失败节点和对抗者的最大数量,以及防止最大数量的共谋工作的数据隐私。
Jun, 2018
本文提出了一种适用于随机拖延者的梯度编码方案(SGC),它通过一种成对平衡的设计将数据点冗余分配给工作人员,并忽略了拖延者,证明了 SGC 的收敛速度与批量随机梯度下降的收敛速度相匹配,并演示了设计中的冗余量如何改进收敛速度和处理大量拖延者。
May, 2019
编码计算是在大规模分布式计算中解决显著挑战的一个有前途的框架,本论文提出了一种基于学习理论的新型编码计算框架,通过最小化损失函数,结合编码器和解码器函数,以求得估计误差的均方误差衰减率,并在各种机器学习模型的推理任务中展示了该框架在准确性和收敛速度方面优于现有技术。
Jun, 2024
储备计算(RC)是一种递归神经网络,通过随机连接神经元实现对时间信号处理的应用。该模型具有丰富的动力学、线性可分性和记忆能力,可在各种应用中生成适当的响应。RC 的研究领域涉及机器学习、物理学、生物学和神经科学,可应用于物理硬件和生物设备的复杂动力学实现及对大脑机制的理解。本文对 RC 的发展进行了综合回顾,包括模型、应用和脑机制的建模,并提供了储备设计、编码框架统一、物理实现以及与认知神经科学和进化之间的相互作用等新视角。
Jul, 2023
本研究提出了一种名为批处理优惠券集合(BCC)的分布式计算方案,以减轻梯度法中流浪者的影响,该方案在随机弱者数量接近最优时具有鲁棒性,并证明了 BCC 方案的有效性,提高了 85.4%的运行时间。此外,该方案的泛化结果证明了其能够在异构工作节点上实现梯度下降算法以最小化完成时间。
Oct, 2017
本文提出了一种名为 SAC 的新型框架,它采用了一种新的空间自回归范式来充分利用邻居的接近性和高阶信息,同时还提出了邻居信息瓶颈来学习目标节点到邻居的预测任务的最小充分表示,并消除邻居的冗余,实验结果表明,在公共推荐数据集和某真实情境下的大型数据集 Douyin-Friend-Recommendation 上,SAC 方法优于现有的最先进的方法。
May, 2022
本文提出了一种分布式优化框架,通过将数据编码为过完备表示,并动态地在每次迭代中舍弃整个计算中的掉队节点,从而减少了延迟和通信传输的负担,结果表明在数据被编码的情况下,对于几种流行的优化算法,包括梯度下降、L-BFGS、在数据并行性下的近端梯度以及在模型并行性下的坐标下降,当掉队者被视为纠删码时,它们都会收敛到原始问题的近似或精确解,收敛结果是确定性的,并且与掉队分布的尾部行为无关,本研究还提出了一种用于大规模数据编码的高效机制,以及证明了用等角紧框架作为编码矩阵的理想性质,并与未编码、异步和数据复制策略进行了比较。
Mar, 2018