- MM关于随机梯度方法的最终迭代收敛性
用 “随机梯度下降”(SGD)而无需替换的 “洗牌梯度方法”,基于曲率刻画关于目标值的收敛速度,证明其对于目标值的最优性。
- 使用蒙特卡洛高效影响函数进行自动高效估计
该研究论文介绍了一种名为 Monte Carlo Efficient Influence Functions (MC-EIF) 的全自动技术,用于估计高维模型和数据集中的低维统计量,证明了其一致性,并且使用 MC-EIF 的估计器实现了最优 - 具有资源约束的最佳臂识别
在资源约束下,通过资源消耗来识别最佳模式的 Best Arm Identification 问题中,我们设计并分析了基于资源分配的逐步减半算法 (SH-RR),它在成功识别最佳模式的概率方面实现了接近最优的非渐进收敛速度;有趣的是,我们在确 - ICLR基于 Wasserstein 自编码器的低维本质数据的统计分析
研究论文通过适当选择网络结构,展示了 WAEs 能够学习数据分布,并且其收敛速度与特征维度无关,只依赖于数据分布的内在维度。
- 李群上的随机海森拟合
该研究通过 Hessian 拟合及其逆方法与随机 Hessian 向量积的拟合准则对常用方法(如 BFGS、Gaussian-Newton、AdaGrad 等)进行了分析,揭示了不同的 Hessian 拟合方法具有不同的收敛速度,对于欧几里 - 异步联邦学习中实现线性加速
我们提出了一种高效的异步联邦学习(AFL)框架,称为延迟联邦平均(DeFedAvg),通过在自己的速度上使用不同陈旧的全局模型,DeFedAvg 可以达到与 FedAvg 相当的渐近收敛速率,同时也是第一个具有可证明的良好线性加速特性的 A - 镜像下山 - 上山法用于均场极值问题
我们研究了解决度量空间中的极小 - 极大问题的两种变体的镜像下降 - 上升算法:同时和顺序。在满足凸凹性和支付函数相对平滑性的假设下,我们通过平测度上合适的 Bregman 散度定义,展示了收敛速度到混合纳什均衡的大小,以 Nikaido- - 基于物理信息的机器学习作为内核方法
使用物理信息对经验风险进行正则化可以有利于估计器的统计性能。
- 单层图卷积网络的渐近泛化误差
通过分析单层图卷积网络在属性随机块模型和神经先验块模型上的训练性能,我们研究了图卷积网络的收敛速率以及其达到的最优贝叶斯速率。
- 无参数随机优化有多自由?
该文章研究了无参数随机优化问题,探讨在什么条件下能够存在完全无参数的方法,并且通过简单的超参数搜索技术,证明了在凸和非凸环境下,可以实现优于当前先进算法的完全无参数方法。同时,对于仅有随机梯度的情况,该研究还提供了基于下限的 (部分) 无参 - RMSProp 及其动量扩展的 $O (\frac {\sqrt {d}}{T^{1/4}})$ 收敛速度:在维度上更好的依赖
该论文研究了在维度依赖性方面特别是对其收敛速度的研究不足,以及对经典的 RMSProp 及其动量扩展的收敛速度进行了分析,得出了不需要梯度有界性假设的收敛速度为 O (√d/T^(1/4))(由 l1 范数测度),其中 d 为优化变量的维度 - M2CURL: 机器人操作的自主监督表征学习实现高效的多模态强化学习
提出了一种名为 M2CURL 的多模态对比无监督强化学习方法,该方法可以有效整合不同的观察模态,通过学习高效的表征进而提高强化学习算法的稳健性和样本效率。该方法在触觉模拟环境中得到了验证,相较于标准的强化学习算法,其学习效率显著提高,表现为 - 探索在 Wasserstein 概率空间中的 Riemannian SGD 和 SVRG 流动
通过将优化方法扩展到 Wasserstein 空间中的 Riemannian manifold,我们提出了用于连续优化的随机梯度下降和随机方差减少梯度流,证明了这些梯度流的收敛速度,与 Euclidean 空间中的结果相匹配。
- 在连续状态 - 动作空间中驯服 “数据饥饿” 的强化学习稳定性
我们介绍了一种分析连续状态 - 动作空间强化学习的新框架,并将其用于在离线和在线设置中证明收敛速度快。我们的分析突显了两个关键的稳定性属性,涉及价值函数和 / 或策略变化如何影响贝尔曼算子和占据测度。我们认为这些属性在许多连续状态 - 动作 - 通过平滑梯度外积高效估计中心均值子空间
该研究讨论多维索引模型的充分降维问题,通过估算预期平滑梯度外积,证明了在一般类别的分布中,可以实现一种快速的参数收敛速率;当链接函数是最多具有 r 次方的多项式且分布服从标准高斯分布时,前乘因子与环境维度 d 成正比。
- 关于损失和基于不确定性的主动学习算法的收敛性
我们研究了在各种假设下,损失和基于不确定性的主动学习算法的收敛速度。首先,我们给出了一组条件,用于线性分类器和线性可分数据集,以展示对基于损失采样和不同损失函数的收敛速度保证。其次,我们提供了一个框架,通过应用已知的随机梯度下降算法的收敛速 - 多方偏好加速收敛
通过分析和设计高效算法,研究了基于多种偏好反馈的凸优化问题的收敛速度和优化问题的最优收敛速度。
- 随机梯度方法的最后迭代收敛性再探讨
研究证明了随机梯度下降法的最终迭代在各种条件下都能以最优的收敛速度收敛,包括期望和高概率收敛,在紧致域、非平滑问题和组合优化中都能适用。
- ALEXR:凸形有限和耦合组合随机优化的最优单循环算法
该研究论文通过引入一种名为 ALEXR 的高效的单循环原始 - 对偶块坐标近端算法,探讨了解决凸性和强凸性 cFCCO 问题的收敛速度,以及包括 group distributionally robust optimization (GDR - 加速 Langevin 动力学的近端算法
基于随机化的 Nesterov 方案,我们开发了一类新颖的 MCMC 算法。我们通过适当地添加噪声,得到了一种时间非齐次的欠阻尼 Langevin 方程,并证明它的不变测度是一个指定的目标分布。同时,我们还建立了它在 Wasserstein