关键词stochastic gradient descent algorithm
搜索结果 - 5
- 利用深度神经网络的分数 Laplacian 的数值方法
通过深度神经网络,我们使用随机梯度下降算法来近似解决具有迪利克雷边界条件的分数椭圆问题,并提供四个数值例子来测试算法的效率。
- 非凸区域中恒定步长随机梯度下降的分析:渐近正态性和偏差
本研究探讨了非凸非光滑目标函数中常数步长随机梯度下降算法的渐近正态结果,结果表明只要非凸和非光滑目标函数满足耗散性特性,SGD 算法的迭代平均值就会渐近正态分布,该结果可用于构建对于使用 SGD 算法的非凸问题的置信区间。同时,本文通过对其 - ICLR随机梯度下降的涨落 - 耗散关系
通过导出稳态波动耗散关系,我们证明了与随机梯度下降算法中的可测量量和超参数相关的关系,并使用这些关系来自适应地设置训练计划并高效提取丢失函数景观的信息,其可以准确地反映其海森矩阵和各向异性度量的幅度,实验证明了我们的说法。
- 基于分布鲁棒优化的半监督学习
提出了一种基于数据驱动的分布式鲁棒优化和最优运输度量的半监督学习方法,通过使用未标记的数据来限制最坏情况分布的支持,从而提高一般化误差,并证明该方法能够改善一般化误差,具有重要的大样本行为,特别是在半监督学习中降维的作用。
- AAAI有序约束二进制编码学习用于最近邻搜索
该研究提出了一种新的哈希方法,名为 Ordinal Constraint Hashing(OCH),其使用基于图的近似来嵌入排序关系,并通过排序级数约束投影减少排序图的大小。此外,该方法还通过松散约束和特定的随机梯度下降算法来有效地学习这些