BriefGPT.xyz
Ask
alpha
关键词
mini-batches
搜索结果 - 4
利用损失函数的二阶信息加速收敛的本地随机梯度下降
该论文通过理论分析和实验证明,本地统计梯度下降(L-SGD)可以更有效地探索损失函数的二阶信息,从而比随机梯度下降(SGD)更快地收敛。
PDF
a year ago
CVPR
视觉问答技巧:2017 年挑战赛收获
本文介绍了一个用于视觉问答(VQA)的最先进模型,这个模型在 2017 年的 VQA 挑战中获得了第一名。通过对超过 3,000 个 GPU 小时的架构和超参数的深入探索,我们发现了许多用于提高性能的 Tips and Tricks。我们详
→
PDF
7 years ago
多遍随机梯度方法的最优收敛速率
本文研究了随机梯度方法在多次迭代和小批量训练时的学习特性,并且调节了正则化特性的参数,确认了通过控制迭代次数可以达到最优的有限样本界,同时,合适的步长可以让较大的批量予以考虑,我们使用统一方法,将批量和随机梯度方法作为特例,得到了批量梯度方
→
PDF
8 years ago
基于小批量原始对偶算法的支持向量机
本文探讨了在 SVM 的随机优化中使用小批量的问题,并提出了新的 mini-batched SDCA 变体。在原始基于 hinge-loss 的非光滑 primal 问题方面,我们对这两种方法都给出了保证。
PDF
11 years ago
Prev
Next