- 广义去偏 Lasso 方法的稳定性及在基于重采样的变量选择中的应用
给定的研究论文提出了适用于 Lasso 的近似公式,通过该公式可以更新去偏 Lasso 的系数。论文证明了该近似公式在具有有界条件数协方差矩阵的亚高斯型设计矩阵情况下渐进收敛,并给出了一些具体应用案例。
- 关于无通信延迟的异步随机逼近稳定性的注记
本文研究没有通信延迟的异步随机逼近算法,主要贡献是通过扩展 Borkar 和 Meyn 的方法来进行这些算法的稳定性证明,我们还从稳定性结果中导出收敛性结果,并讨论其在重要的平均奖励强化学习问题中的应用。
- 可证明的部分可观测上下文赌博机中的高效学习
我们研究了部分可观察环境下的上下文马尔可夫决策过程中的迁移学习问题,通过优化问题将其转化为识别或部分识别动作和奖励之间因果效应的问题,并通过线性规划的顺序求解来获得相容的因果模型,并在考虑估计误差的情况下获得因果边界。我们的采样算法提供了适 - 非强凸最小二乘问题的加速随机梯度下降
本文提出了一种基于加速梯度下降的新随机逼近算法,该算法在非强凸情况下取得了最佳预测误差率,并在加速遗忘初始条件方面达到了最优效果,同时在算法的平均迭代次数和最终迭代次数上均提供了收敛结果,该算法还在无噪声环境下提供了一个匹配下界,展示了我们 - ZeroSARAH: 高效的非凸有限和优化算法,使用零全梯度计算
ZeroSARAH 是一种新的方差减少方法,用于分布式学习中处理大量非凸函数的平均值,可以在不需要计算全梯度的情况下实现,并在标准和分布式设置下取得新的最优结果。
- 神经网络的全球概览
本文回顾了关于神经网络全局和局部损失函数的广泛研究,重点探讨了在某些假设下宽神经网络可能存在亚优局部最小值的性质以及一些修改方法,并讨论了实际神经网络的可视化和经验探索,最后简要讨论了一些收敛结果及其与全局和局部损失函数相关的关系。
- 非光滑非凸正则化优化的简单随机梯度方法
本研究旨在探讨优化非光滑非凸正则化器下的平滑非凸损失函数的随机梯度方法。我们提出了两种简单的随机梯度算法,对于有限总和和一般随机优化问题,相较于现有技术水平,其具有更优的收敛复杂度。同时,我们在经验风险最小化中比较了两种算法的实际表现。
- 分布式优化和学习中的迟滞者减缓冗余技术
本文提出了一种分布式优化框架,通过将数据编码为过完备表示,并动态地在每次迭代中舍弃整个计算中的掉队节点,从而减少了延迟和通信传输的负担,结果表明在数据被编码的情况下,对于几种流行的优化算法,包括梯度下降、L-BFGS、在数据并行性下的近端梯 - MM具有 Hölder 增长函数的更快次梯度方法
本文探讨次梯度法在极值点问题(特别是带有 Hölder 增长 )中,固定和衰减步长下的收敛性及误差,并介绍了一种名为 “下降楼梯” 的步长方式,最终提出了一种自适应变体方法以实现更快的收敛速度。
- Frank-Wolfe 算法求解鞍点问题
本研究将 Frank-Wolfe 算法拓展至解决约束光滑凸 - 凹鞍点问题,只需要访问线性最小化神谕。通过利用 FW 优化的最近进展,我们首次证明了 FW 类型的鞍点求解器在多面体上的收敛性,并探讨了其他收敛结果和 FW 算法理论基础的缺口 - AAAI快速的连续非光滑正则化风险最小化
本文提出了一种连续化算法,用于解决大类别的非光滑正则化风险最小化问题,可灵活使用多个现有求解器,并对整个算法具有收敛性结果。在实验中表现优于现有方法。
- Vlasov-Poisson 方程的高阶 Hamiltonian 分裂
在哈密顿框架下研究 Vlasov-Poisson 方程的时间分裂方法,证明了其满足 Runge-Kutta-Nystr {"o} m 序列,提出了一种可以提高效率的、降低阶数的 6 阶方法,并给出了收敛性结果和严格误差估计。
- 随机近端梯度算法的收敛性
本文基于凸优化中函数是光滑和非光滑组合的形式,证明了一种适用于大类凸优化问题的随机近端梯度算法收敛性质,其避免了平均化和理论研究中常见但实际中不一定满足的有界性假设,证明了一系列强、弱收敛性结果,并得到了期望意义下的 $O (1/n)$ 的 - 具有微分包含的异步随机逼近
采用伪轨迹法和两种时间尺度方法,通过异步随机逼近和组距平均场,实现对异步算法的收敛性分析并应用于马尔可夫决策过程的学习问题。