- MMIMMIGRATE:一种基于边缘的特征选择方法,包括交互项
本文提出了 IMMIGRATE 算法,通过包含和训练交互项的权重,旨在从局部和全局信息中考虑限制因素的贡献者的鲁棒性,评估结果表明在几项任务中实现了最先进的结果。
- 提升黑盒变分推断
本文提出了一种改进算法,基于强化版 Variational Inference 方法,用于更有效地近似概率密度,以此实现贝叶斯统计中重要的求解任务,提出的改进方法叫做 Boosting VI。通过对算法的理论分析,证明了算法的收敛性和可行性 - 提升变分推断:优化视角
本文研究了基于 boosting 的变分推断算法在优化视角下的收敛性质及其与经典 Frank-Wolfe 算法之间的联系,提出了收敛的充分条件,明确了算法的收敛速率和简化方法,并在概率模型和理论特性之间架起了桥梁。
- 具有结构稀疏性的增强:差分包容方法
本文提出了一种基于约束梯度下降和结构稀疏性控制的新型 Boosting-type 算法 Split LBI,其在模型选择方面比流行的广义 Lasso 更具优势,并可以实现路径一致性和最小二乘误差下降到最小的最优化速率,为图像去噪、运动队部分 - 在线梯度提升
本文将扩展反推理论以解决在线学习中的回归问题,提出了两种弱学习算法模型,并提出一种在线梯度推进算法将弱学习算法转化为强学习算法,同时介绍了一种更简单的反推算法,并证明了其最优性。
- NIPS基于在线学习的增强框架
通过利用增强学习和在线学习之间的对偶性,提出了一个强大的增强学习框架,开发了多种算法解决了多个实用和理论上有趣的问题,包括稀疏增强、平滑分布增强、识别学习和一些在线学习算法的广义化。
- 标签噪声存在时的 Boosting
研究两种方法来提高 AdaBoost 算法对标签误差的鲁棒性,一种是使用标签噪声鲁棒的分类器作为基础学习器,另一种则是修改 AdaBoost 算法以提高鲁棒性。实证评估表明,鲁棒分类器的集合虽然比不考虑标签噪声的 AdaBoost 算法收敛 - 分布式学习,通信复杂度和隐私
讨论分布式数据的 PAC 学习问题,分析了涉及的基本通信复杂性问题,包括教学维度和错误绑定。针对特定概念类别,如合取、奇偶函数和决策列表等,给出上下界限。讨论了如何通过增强来在分布式环境下进行一般性通信,以及如何在不确定环境下实现低通信回归 - NIPS多类别 Boosting 理论
本文提出了一种广泛且通用的框架,通过精确分析和确定弱分类器的最优需求,以及设计最有效的某种算法来应对多类别分类中存在的问题。
- 流行集成方法:一项实证研究
本研究使用神经网络和决策树作为分类算法,在 23 个数据集上评估了 Bagging 和 Boosting 两种集成方法。研究结果表明 Bagging 方法几乎总是比单个分类器更准确,而 Boosting 方法则在某些情况下比 Bagging - 凸优化的广义 Boosting 算法
该研究分析了梯度下降算法,引入了新的弱学习器性能度量,并扩展了 Boosting 方法,以支持任意凸损失函数,并给出了相应的弱到强的收敛结果。
- 使用类 Boosting 算法的半正定度量学习
该研究介绍了一种基于 Boosting 算法的技术,名为 BoostMetric,用于学习一个二次的 Mahalanobis 距离度量,相较于传统算法有更好的分类准确度和运行时间,可应用于各种类型的约束条件。
- NIPSBoosting 的原始 - 对偶收敛分析
本文探讨了 Boosting 算法在包括 AdaBoost 和 logistic loss 的一系列算法下,通过将弱分类器组合成低风险预测器,构建高熵分布以使得弱分类器和训练标签互不相关,证明了弱可学习性有助于整个算法族,所有 epsilo - MMBoosting 算法:正则化,预测和模型拟合
本研究从统计学的角度出发,重点讨论了利用 boosting 对复杂的参数模型或非参数模型(包括广义线性模型和加法模型等)进行有效估算的方法,以及在高维空间的正则化和变量选择中使用的信息准则,而 BOOSTING 过程的实际展示是通过开源软件 - 早期停止的 Boosting 方法:收敛性和一致性
本文研究了基于一组基函数的线性空间的 boosting 算法的数值收敛性、一致性和统计收敛速率及早停止的策略,展示了理论结果对于提供实际 boosting 应用见解的重要性。
- 实证边际分布与组合分类器泛化误差的限制
我们利用高斯和经验过程理论的方法,改进了 Bartlett (1998)有关神经网络以 l1-norm 权重的顶点来估计泛化误差的先前结果,并证明了这些分类器实现的联合分类器边缘的经验分布绝对收敛。