- 加速 Langevin 动力学的近端算法
基于随机化的 Nesterov 方案,我们开发了一类新颖的 MCMC 算法。我们通过适当地添加噪声,得到了一种时间非齐次的欠阻尼 Langevin 方程,并证明它的不变测度是一个指定的目标分布。同时,我们还建立了它在 Wasserstein - 梯度下降的非均匀平滑性
该研究介绍了一种局部一阶平滑性 oracle(LFSO),可以用于调整梯度下降方法的步长,从而改善全局和局部收敛性。通过应用 LFSO 于修正的一阶方法,可以在非强凸问题中实现全局线性收敛速度,从而提高了一般(加速)一阶方法的收敛率下界。
- 突破随机优化问题中的重尾噪声障碍
我们针对具有结构密度的重尾噪声的随机优化问题展开研究,证明在随机梯度具有有限阶矩(α ∈ (1, 2])时,可以获得比 Ο(K^(-2 (α - 1)/α)) 更快的收敛速率,而且噪声范数可以有无界期望。为实现这些结果,我们使用平滑的中值均 - 分布式贝叶斯学习中的异步本地计算
机器学习中分布式部署的推理算法,利用异步通信提高计算速度并降低通信开销,通过马尔可夫链蒙特卡洛采样实现局部计算,理论上量化收敛速度,通过模拟和真实数据集的实验验证算法的有效性。
- 超越 U:打造更快速、更轻量级的扩散模型
利用连续动力系统设计一种新型去噪网络,以提高扩散模型的参数效率、收敛速度和噪声鲁棒性。与基准模型相比,该模型具有约四分之一的参数量和百分之三十的浮点操作数(FLOPs),推理速度提高了 70%,并且收敛到了更好的质量解。
- 面向协变量偏移条件下核方法统一分析的探究
统一分析了具有协变量转移的一般非参数方法在再生核希尔伯特空间下的理论,得出了收敛速度,并与现有文献中使用的最优结果相吻合。在合成和实际例子上进行的广泛数值研究证实了我们的理论发现,进一步说明了我们提出的方法的有效性。
- 加速概率测度空间的优化
在机器学习应用中,梯度优化方法的加速是一个实际和理论上感兴趣的问题。大多数研究关注欧几里得空间上的优化,但鉴于在许多机器学习问题中需要在概率测度空间上进行优化,研究在这个背景下的加速梯度方法很有意义。为此,我们介绍了与欧几里得空间中基于矩的 - 强化学习中使用的近似本地空间的收敛速率
该论文研究了出现在再生核希尔伯特空间 (RKHS) H (Ω) 的一组值函数逼近的收敛速度。通过在特定类别的本地空间中建立一个最优控制问题,得出了政策迭代中出现的离线逼近的强收敛速度。利用有限维逼近空间 H_N 的幂函数 Pwr_{H,N} - 用物理视知卷积神经网络求解球面上的 PDEs
通过使用深度卷积神经网络和球谐分析的最新近似结果,我们对物理信息的卷积神经网络(PICNN)在球面上求解偏微分方程的数值性能进行了严格的分析,并证明了其与 Sobolev 范数的逼近误差的上界。随后,我们将此与创新的定位复杂度分析相结合,建 - 基于马尔可夫采样的随机梯度下降在线协方差估计
我们研究了在马尔科夫采样下的在线重叠批次均值协方差估计器在随机梯度下降(SGD)中的应用。我们表明协方差估计器的收敛速度在依赖状态和独立于状态的马尔科夫采样下分别为 O (sqrt (d) n^(-1/8)(log n)^(1/4)) 和 - 压缩分布的最小二乘回归:收敛速度与联邦学习应用
本文研究了压缩对机器学习中的随机梯度算法的影响,重点分析了几种无偏压缩算子的收敛速度差异,并延伸到联邦学习领域。
- 深度神经网络及对数损失的分类
使用逻辑损失训练的深度神经网络(DNN)在各种二元分类任务中取得了令人印象深刻的进展,然而,关于 DNN 和逻辑损失的二元分类的泛化分析仍然很少。本文旨在通过建立一种新颖而优雅的 oracle-type 不等式,并利用它推导全连接的 ReL - 一种仅使用一个步长的新渐变 TD 算法:使用 $L$-$λ$ 平滑性进行收敛速率分析
本文介绍了一种名为 Impression GTD 的全新 GTD 算法,通过最小化期望 TD 更新的范数目标实现单时间尺度,并证明该算法的收敛速度至少为 O (1/t),甚至更快。同时,与现有的 GTD 算法相比,该算法在在线学习和离线学习 - 非线性元学习能保证更快速率
通过对非线性表示的元学习进行理论分析,本研究证明了通过精确的正则化可以缓解不同任务间引入的偏差。
- 通过长步长可证明更快的梯度下降算法
本研究利用计算机辅助分析技术,建立了梯度下降的收敛速度证明,并通过分析多次迭代的总体效果,描述了长步策略可能违反下降性质但能实现更快的收敛速度。
- 广义平滑下的凸优化和非凸优化
本文介绍了一种新的非均匀光滑条件下的优化方法,并开发出一种简单但有效的分析技术来限制沿轨迹的梯度,从而获得更强的凸优化和非凸优化问题的结果。我们通过这种新方法证明了(随机)梯度下降和 Nesterov 加速梯度法在这种一般的光滑条件下的收敛 - 基于矢量值随机特征的学习误差界
本论文提供了关于向量值随机特征(RF)学习的全面误差分析,为 RF 岭回归在输入输出设置下建立了理论,该方法直接分析了风险函数,避免随机矩阵理论中的浓度结果,主要结果包括在模型未规范化情况下向量值 RF 估计量的强一致性和在规范化设置下的极 - 局部曲率下极小极大博弈梯度方法的本地收敛
本论文研究两人零和可微分博弈梯度方法的局部纳什均衡,证明了只要 S 为非零偏曲率,且反对称矩阵 A 的特征向量与 S 核的一般位置相关,则达到收敛,重点研究了连续游戏和极大极小博弈中的应用。
- 局部贝叶斯优化的行为和收敛性
文章介绍了 Bayesian 优化中的局部优化策略,对高维问题具有强大的实证表现,研究表明高斯过程样本路径的个体局部解的统计性质比全局方法更好,首次对 Bayesian 局部优化算法进行了严密分析,并推导了噪声和无噪声情况下的收敛速度。
- Tikhonov 和 RKHS 正则化的小噪声分析
本文通过建立一个小噪声分析框架,比较了 Tikhonov 和 RKHS 正则化问题中各种正则化规范的效果,发现 L2 正则化器存在潜在的不稳定性,并通过提出一种新颖的自适应分数 RKHS 正则化器来解决其不稳定性,实验结果表明,过度平滑可以