- 三种个性化方法及在联邦学习中的应用
研究了机器学习中的个性化问题,提出了三种方法:用户聚类、数据插值和模型插值,并提供了学习理论的保证和有效算法,所有算法都为通用算法。
- ICLR通过校准预测为深度神经网络构建 PAC 置信集
我们提出了一种算法,将校准预测与从学习理论推导的泛化界限相结合,构建深度神经网络的置信集,具有 PAC 保证 —— 即给定输入的置信集具有很高的真标签概率。我们演示了如何在 ResNet for ImageNet、视觉对象跟踪模型和半猎豹强 - 均匀稳定算法的更严格界限
这篇论文研究了学习理论中有关稳定算法的泛化界,通过构造一个弱相关随机变量的集中不等式,得到了一般性的集中界,使得上已知的高概率上界的泛化界水平得到了提高。
- 超参数神经网络中的学习和泛化:超越两层
本文通过分析神经网络在超参数化情况下的学习理论,证明了神经网络能够通过 SGD 算法简单地学习某些重要的概念并且样本复杂度几乎独立于网络参数的数量。此外,本文还建立了一个神经网络的二次近似概念,并将其与如何逃离鞍点的 SGD 理论联系起来。
- 强化学习之旅:从连续控制视角出发
综述了强化学习的优化和控制方法,重点关注连续控制应用。通过一个最简单和最研究的问题 - 线性二次调节器(LQR)的案例研究,描述了从学习理论和控制理论的融合可以提供 LQR 性能的非渐进特征,并表明这些特征趋向于匹配实验行为。同时,探讨了设 - 深度卷积神经网络的普适性
本研究破解了学习理论中的一道难题,证明了深度卷积神经网络(CNN)是通用的,可以通过增加深度来达到任意精度的连续函数逼近,并且在处理大维度数据方面非常高效。同时我们的研究证明了卷积在深度 CNN 中的重要作用。
- 逆问题的现代正则化方法
本文综述了现代非线性正则化方法的发展,包括变分方法、图像处理和学习理论等,重点讨论其分析、应用和未来研究问题。
- 有效 PAC 学习稳定态
本文探讨了量子系统的波函数指数级放缩对于量子信息处理的重要性,提出了一种计算学习理论的方法,通过对稳定子状态的研究,解决了 Aaronson 博士提出的量子状态学习难问题,并探讨了其在量子计算中的应用。
- 正则化与小球方法 II:复杂度相关的错误率
研究基于正则化函数的凸函数估计的性质,给出 $L_2$ 估计误差速率的界限,包括 True Model 的复杂度,应用于不同的正则化函数,结果适用于学习理论框架。
- 统计查询复杂度的一般特征描述
本论文提出了一种新的概念 "统计维数" 来刻画使用 SQ 算法求解样本复杂分布下的一般问题的复杂度,并且首次精确地表征出查询容差的必要性,具有在学习理论和算法优化方面的广泛应用。
- 自动机制设计的样本复杂度
本研究探讨自动机制设计算法在组合拍卖中的应用,提供了关于组合拍卖类的样本复杂度分析,为自动机制设计奠定了坚实基础并推进了学习理论的边界。
- 高维高斯混合模型学习
在高维情况下,使用平滑分析方法可以在多项式时间内使用多项式数量的样本学习带有随机扰动参数的高斯混合模型,通过利用高斯分布的高阶矩的组合结构并推导其对称性,探索新的高斯混合物的时刻张量的分解方法以及构建结构化随机矩阵的奇异值的下界。
- 一种基于学习的方法,用于控制合成线性时间逻辑规范的马尔可夫决策过程
使用学习理论中的技术,通过构建包含确定性 Rabin 自动机的乘积 MDP,其奖励函数来源于 Rabin 自动机的接受条件,即可合成满足线性时态逻辑(LTL)规范的控制策略,该方法在交通控制案例研究中证明可以产生合理的控制策略,即使无法保证 - 二项分布超过期望概率的严格下界
本文研究二项式随机变量超过其期望值的概率的严格下界,该不等式在学习理论中的相对偏差界分析和无界损失函数的泛化界分析等方面具有重要作用。
- 最小误差熵准则的学习理论方法
研究了最小误差熵准则和经验风险最小化算法在回归设置中的应用,提出了一种学习理论方法,并在 MEE 缩放参数较大的情况下提供了显式误差界,在泛化误差方面进行了新颖的渐近分析,并介绍了半范数和涉及的对称最小二乘误差,与一些排名算法有关。
- Chow 参数问题的近最优解及半空间低权重近似
本文提出了一种新的算法来解决 “Chow Parameters Problem”, 该算法可以高效地从一个线性阈值函数的 Chow 参数中重建该函数,并且给出了这个函数的权重的整数上界优化结果,改进了过去的算法,并在学习理论的相关问题上取得 - PAC-Bayesian 不等式用于鞅
该研究提出了一组高概率不等式,控制了多个(可能是无限多个)同时演化和相互依赖的鞅的加权平均值的集中度,从而将学习理论中的 PAC-Bayesian 分析从独立同分布的设定扩展到了鞅,开拓了其在重要性加权抽样、强化学习和其他交互式学习领域中的 - 线性阈值函数的独立分布可演化性
本论文阐述了 Valiant 的进化稳定性模型,着眼于对 linear threshold function 以及其子集(如 conjunctions 和 decision lists)的的进化性度量, 提出了一种基于非线性损失函数的突变算 - 半空间学习单项式是困难的
该研究证明了在符合某些要求的示例分布下,多项式的弱会混淆学习几乎不可能,即使在输出更大的概念类的假设的情况下也是如此,这种难度结果从某种程度上包括以前的研究结果,包括最近的对单项式和半空间的适当学习的难度结果。
- 关于高维重抽样的一些非渐进结果,I:置信域,II:多重检验
本文研究了应用于具有未知依赖关系结构的随机向量均值的广义自助法置信区间,并针对高维向量进行非渐近控制,分别采用了基于浓度原理和基于重新采样分位数量化的方法,并且考虑了蒙特卡罗法的精度问题。