巨大数据时代需要高效的机器学习算法,本论文表明,通过使用一种特殊的随机替代品,可以在几乎不降低质量的情况下,代替计算密集型子程序。
Sep, 2023
本论文提出了一种随机优化方法,该方法通过自适应地控制梯度近似计算中使用的样本量来减少方差,使用内积测试来决定增加样本量,并通过逻辑回归问题的数值实验验证了该算法的有效性。
Oct, 2017
本文提出一种新方法,通过优化预期改进的线性或二次泰勒近似的下界与用于估计梯度的样本数量之间的比率来自动确定随机梯度下降方法中的批量大小,以解决梯度估计准确性和更新成本之间的折衷关系,并通过在流行的分类任务上与相关方法进行实证比较来评估其性能。
Dec, 2017
本文研究了基于随机梯度下降与小批量和随机特征的非参数统计学习估计器,利用其定义了一种近似的核方法,并通过得出最优有限样本限制来探究其学习性质。
Jul, 2018
本文介绍了一种采用自适应 “大数据块” 随机梯度下降方案的方法,以维持梯度逼近的信噪比的稳定,从而实现自动学习率选择和避免步长衰减,并且不需要目标函数凸性的限制。
Oct, 2016
本文介绍了一种结构化数据拟合应用的优化问题的混合方法,同时具有增量梯度算法的高效迭代和完全梯度算法的稳定收敛性,基于这种方法提出了一个实用的拟牛顿算法实现,并通过数值实验证明了其潜在优势。
Apr, 2011
研究机器学习中的二个核心问题 —— 如何预测最小值是否能推广到测试集,以及为什么随机梯度下降找到的最小值能很好地推广;探讨了小批量大小影响参数朝向大证据最小值的作用;当学习速率固定时,建议选择使测试集准确性最大化的最佳批次大小。
本文提出了一种基于分层抽样策略的随机梯度下降算法,可显著改进收敛速度并在实验中得到验证。
May, 2014
本文研究了基于小批量样本随机梯度优化的现代深度神经网络训练中,不同批量大小对测试性能和泛化性能的影响,并指出使用小批量训练可以提供更稳定和可靠的结果。
Apr, 2018
研究增加小批量大小以减少神经网络训练时间所面临的挑战,并通过广泛的经验分析得出,增加批量大小超过一定点对于训练或测试损失的收敛时间没有减少,而这一点通常低于当前系统的容量,说明常用的大批量优化训练策略在无法充分利用所有可用的计算资源之前就会失败。
Nov, 2018