BriefGPT.xyz
Ask
alpha
关键词
stochastic gradient optimization
搜索结果 - 3
ICLR
FastSHAP: 实时 Shapley 值估计
FastSHAP 是一种使用学习解释器模型在一次正向传递中估计 Shapley 值的方法,通过启发 Shapley 值加权最小二乘估计的学习方法来分摊解释许多输入的成本,并且可以使用标准的随机梯度优化进行训练,与现有的估计方法进行比较,显示
→
PDF
3 years ago
基于梯度的自适应马尔科夫链蒙特卡罗
本研究提出使用基于梯度的学习方法来自适应马尔可夫链蒙特卡罗(MCMC)提议分布,应用随机梯度优化能通过定义的最大熵正则化目标函数来优化提议分布的参数,并证明相比传统自适应 MCMC 方法,该方法带有更高的性能;并应用于多元随机步长 Metr
→
PDF
5 years ago
重新审视深度神经网络的小批量训练
本文研究了基于小批量样本随机梯度优化的现代深度神经网络训练中,不同批量大小对测试性能和泛化性能的影响,并指出使用小批量训练可以提供更稳定和可靠的结果。
PDF
6 years ago
Prev
Next