- NIPS关于经验风险局部极小值的研究
该文提出了一种基于随机梯度下降(SGD)的简单算法,旨在在只有点实现度量上接近总体风险而不具备总体风险时,找到基础函数的 epsilon - 近似局部极小值,从而避免我们所谓的浅局部极小值。
- NIPS随机子模极大化:覆盖函数的情形
该论文研究了如何将随机梯度下降等连续优化算法应用到离散问题中的子模优化,通过将扩展线性化处理并通过向上投影处理,得到离散解,针对加权覆盖函数进行研究,实验表明,该方法在保证最优近似率的同时,大幅降低了计算成本。
- 质量传输正则化
本文提出了使用分布式鲁邦优化的思想来作为正则化技术以及对现有技术提供新的概率解释。通过选择半径,可以保证最坏情况下的预期损失提供了对测试数据的上限置信度,从而提供新的泛化界限。
- 鲁棒梯度下降的高效学习
提出了一种构建稳健风险梯度逼近的算法,在实验中证明可以有效地提高广义学习效率并使用更少的资源,而不会过度依赖于数据。
- 深度学习算法概览
这篇论文通过理论分析神经网络的收敛行为、稳定点及特性研究其经验风险的实证风险的景观,证明线性神经网络的实证风险在训练样本量为 n、总权重维数为 d、每层权重的度量边界为 r 时,具有一致收敛到其总体风险的速率。深度非线性神经网络的实证风险的 - KDD针对分类数据学习可证实最优规则列表
本文提出了一种基于离散优化的过程,用于构建基于分类特征空间的规则列表,并且通过算法边界、高效数据结构和计算复用来获得数倍的时间加速和大幅度降低的内存消耗。其结果表明,通过本方法可以在几秒钟内构建出比 Broward County,Flori - 深度学习中的经验风险景观 II
这项研究以理论和实验相结合的方式,对超参数化的 DCNN 的经验风险进行了表征,并提出了一个关于 DCNN 经验损失面的直观模型。
- 广义线性问题的可扩展近似
本文讨论了随机优化中的种群风险以及解决大规模问题中经验风险计算的困难,提出了一种基于随机梯度下降算法的解决方案,以 OLS 估计器为基础进行最小化种群风险的近似。
- 多类别分类的预期尺寸置信区间
本文提出了一种在多类分类问题中,通过最小化经验凸风险函数定义的评分函数提供输出类标签集合而不是单一标签的方法,该方法利用凸聚合与 V 折交叉验证原则,具有预期大小的控制和分类风险的最小化性质。
- 非凸损失函数的经验风险景观
研究高维估计和预测方法,侧重于非凸损失,分析经验风险计算中的重要特性,并展示这些结果对于非凸二分类问题、鲁棒回归问题和高维问题的运用。
- 损失分解、弱监督学习和标签噪声鲁棒性
本文证明了大多数知名损失函数的经验风险因子可分为线性项,聚合所有标签和不涉及标签的项,并且可以进一步表示为损失的和。这适用于任何 RKHS 中的非光滑、非凸损失。通过估计平均操作符,本研究揭示了这种分解的变量的充分统计量,并将其应用于弱监督 - 差分隐私学习:稳定性,可学性,ERM 原则的充要性
本文研究了在差分隐私约束下的学习能力,揭示了隐私、稳定性和学习能力之间的一些复杂关系,并且提出了一个通用算法,可以在普遍条件下私下学习广泛的学习问题。
- NIPSBoosting 的原始 - 对偶收敛分析
本文探讨了 Boosting 算法在包括 AdaBoost 和 logistic loss 的一系列算法下,通过将弱分类器组合成低风险预测器,构建高熵分布以使得弱分类器和训练标签互不相关,证明了弱可学习性有助于整个算法族,所有 epsilo