- 编码计算:一个学习理论框架
编码计算是在大规模分布式计算中解决显著挑战的一个有前途的框架,本论文提出了一种基于学习理论的新型编码计算框架,通过最小化损失函数,结合编码器和解码器函数,以求得估计误差的均方误差衰减率,并在各种机器学习模型的推理任务中展示了该框架在准确性和 - 超越差异:对分布偏移理论的深入研究
在分布转移理论中,通过采用不变风险最小化(IRM)类似的假设连接分布,研究源分布到目标分布的分类器,揭示了源分布数据足够准确分类目标的条件,并讨论了在这些条件不满足时,只需目标的无标签数据或标记目标数据的情况,并提供了严格的理论保证。
- 传导学习是否等同于 PAC 学习?
通过向数据集添加少量样本,我们将依靠 PAC 保证的无偏泛化学习转化为依靠转导保证的无偏泛化学习,从而展示了这些问题的等效性。我们还将所得到的结果扩展到了 agnostic 情况,证明了一种 agnostic 转导学习器可以高效转化为 ag - 基于被审查反馈的学习泛化误差界
非独立同分布的数据和带有审查反馈的数据对学习理论中的泛化误差界限有影响,本文通过推导改进的 Dvoretzky-Kiefer-Wolfowitz 不等式来界定这种影响,并通过分析探索技术的有效性提供新的误差界限模型。
- 测试风险的随机梯度流动力学及其对弱特征的精确解
我们使用路径积分形式,对学习理论中连续时间随机梯度流动力学的测试风险进行了研究。在学习速率较小的情况下,我们提供了一个通式,用于计算纯梯度流动和随机梯度流动的测试风险曲线之间的差异。我们将该通式应用于一个简单的弱特征模型,显示了双峰下降现象 - 动力系统中的顺序预测复杂度
研究了在未知演化函数的情况下,学习预测动态系统的下一个状态的问题,不对动态系统进行参数假设,从学习理论的角度研究该问题,定义了新的组合度量和维度,并展示它们在可实现和依赖性设置中量化了最优错误和遗憾界限。
- 幻觉是不可避免的:大型语言模型的固有限制
本研究证明,在大型语言模型中消除幻觉是不可能的,因为我们定义了一个形式世界,其中幻觉被定义为一个可计算的语言模型与一个可计算的真实函数之间的不一致性。通过使用学习理论的结果,我们表明语言模型无法学习所有的可计算函数,因此它们将始终产生幻觉。 - 优化规划启发式算法,以排序而非估算目标开销
本论文重新审视了启发式函数在规划中的模仿学习中的必要和充分条件,并针对给定的前向搜索算法的变体提出了一族基于排名的损失函数。另外,从学习理论的角度讨论了为什么优化成本 - 目标 h * 是不必要困难的。实验比较在多样化的问题集上明确地支持了 - 贝叶斯稳定性之园
我们展示了学习理论文献中的许多稳定性定义是等价的,我们区分了两个稳定性定义家族:依赖于分布的稳定性和独立于分布的贝叶斯稳定性。在每个家族中,我们建立了各种定义之间的等价性,涵盖了近似差分隐私、纯差分隐私、可复制性、全局稳定性、完美泛化、TV - 神经网络分布回归学习理论
通过全连接神经网络 (FNN) 建立分布回归的逼近理论和学习理论,针对概率测度作为输入变量的分布回归问题,建立了一种创新的神经网络框架,实现了定义在 Borel 概率测度空间上的泛函逼近理论,并通过两阶段误差分解技术推导了几乎最优的学习速率 - ICML信息瓶颈如何帮助深度学习?
本文提出了深度学习中信息瓶颈的学习理论模型,证明控制信息瓶颈是控制深度学习泛化误差的一种方式,并通过一系列实验展示了信息瓶颈程度与泛化误差的相关性。
- 在线学习中记忆 - 遗憾平衡的近乎最优解
研究了如何在没有足够空间记住所有专家时,有效地跟踪专家建议并取得好的结果,并给出了优化算法和相应的理论下界。
- 压缩、泛化和学习
本文提出了一种新的理论,可以控制压缩函数(称为 “风险” 的压缩函数的改变概率),并证明了压缩集合的基数是风险的一致估计量的条件。结果可用于不需要先验知识的全面无偏配置中。这些结果不仅可用于完全了解驱动方法的信任,而且在学习技术中,还可以作 - 知识蒸馏:不好的模型也可以成为好的榜样
证明了在条件抽样器中,从过度参数化的状态下训练出的大型神经网络可以产生学生网络逼近贝叶斯最优分类器,将某些常见的学习算法(如最近邻居和核机器)应用于过度参数化的状态时会生成条件抽样器。
- 平滑在线学习的简易性与统计学习相当
本论文研究了在线设置下学习过程中涉及到的平滑度、最小极大后悔以及上下文干涉等问题,并提出了对应算法的解决方案。
- 我不理解我不能定义的事物:基于教育驱动内容选择的自动问题生成
文章探讨了如何使用基于学习理论的自动提问生成器来生成能够提升教材阅读理解的问题,通过教育专家的实验评估,结果表明生成的问题语言质量高,并且询问了与给定文本相关的中心信息,在特定学习场景中可以促进阅读理解。
- ICML使用对称 KL 信息表征 Gibbs 算法的泛化误差
用输入训练数据和输出假设之间的对称 KL 信息,精确表征了著名 Gibbs 算法的期望泛化误差,并分析了其对控制泛化误差的基本作用。
- ICMLGBHT: 梯度增强直方图变换用于密度估计
本文提出一种密度估计算法 GBHT,采用负对数似然作为损失函数,使 Boosting 方法适用于无监督任务,在学习理论的角度,我们首先证明 GBHT 的收敛速率快,然后将目标密度函数定义在空间 C ^ {1,α} 中,GBHT 的收敛速率的 - 神经网络中良性过拟合现象的理解探讨
本研究探讨了现代机器学习模型中广泛存在的过度拟合现象及理论预测,表明超学习风险会在满足一定条件的情况下逐渐减小,并且在两层神经网络中使用 ReLU 激活函数的情况下具有近最小化学习率的能力。同时,还发现当网络参数数量超过 O (n^2) 时 - MM标签噪声表示学习综述:过去,现在和未来
该研究论文通过机器学习的视角,提供了正式的 LNRL 定义并分析了噪声标签对深度学习模型性能的影响。在此基础上,将 LNRL 方法划分为三种不同方向,并讨论了各种分类的优缺点。论文旨在提高通过设计鲁棒的 LNRL 方法进行深度学习模型训练的