高维岭回归经验风险最小化的基本限制
本文介绍了隐私保护数据集下Empirical Risk Minimization(ERM)的改进算法——不同ially private ERM Algorithm。该算法通过利用限制条件的几何特性,在Lipschitz、强凸和光滑函数等情况下,提供了更严格的误差上界,并针对稀疏线性回归(LASSO)提出了新的下界。
Nov, 2014
该研究论文旨在通过建立均匀偏差结果,探讨如何通过Monte-Carlo方法得到不完整的$U$-统计量,从而实现在数据函数最小化过程中降低计算复杂度,在适当的复杂性假设下,显示出不影响经验风险最小化程序的学习率,并证明了该方法优于其他采样技术。
Jan, 2015
本文提出了一种新的随机算法,通过将强凸函数的最小化转化为函数规则化的逼近最小化,从而优化了经验风险最小化过程中的性能,实践表明该算法具有稳定性和行之有效的优势
Jun, 2015
本文研究机器学习中的经验风险最小化方法在核支持向量机、核岭回归和神经网络训练等问题上的计算复杂性,并基于复杂理论假设如强指数时间假设,证明了这些问题的条件难度结果。同时,对于许多非凸学习任务中的主要计算负担——经验损失的梯度计算,也给出了类似的难度结果。
Apr, 2017
本研究通过对 Gibbs-ERM 学习的实验,得出使用正则化经验风险的 Gibbs-ERM 学习器所遭受的过度风险并受数据生成分布和大假设空间影响的分布依赖上界受有效维度控制,这对于研究技术至关重要。
Feb, 2019
本文提出了一种名为tilted empirical risk minimization (TERM)的新框架,通过引入一个称之为tilt的超参数,它能够灵活调整每个个体损失的影响,以实现对离群点的鲁棒性或公平性,同时具有减少方差,促进泛化和处理类别不平衡的能力。我们通过发展批和随机一阶优化方法来解决TERM问题,并证明它相对于常见的替代方案,能够高效地解决这个问题。除了在现有解决方案这些问题,提出方案竞争力之外,我们还将TERM用于多种应用,如在亚组之间实施公平性,减轻离群值的影响以及处理类别失衡问题。
Jul, 2020
本文研究借助指数调控风险函数的方式进行模型优化的问题,提出了倾斜经验风险最小化(TERM)框架及其优化方法,该方法可以灵活地调节损失的影响,减小异常值的影响或增加其公平性,同时具有降低方差和处理不均衡数据的能力,与Value-at-Risk、CVaR、DRO等相关优化目标具有严密的联系,并表现出超越传统ERM框架的性能。
Sep, 2021
本文研究高维度的鲁棒线性回归,包括离群值和使用标准损失函数的经验风险最小化(ERMs)方法。结果显示,在相似数据集上,经过最优正则化的ERM在大样本复杂性极限下是渐近一致的,但在评估误差方面,由于规范标定的失配,估计器的一致性要求完美计算最优规范的预估值或存在未受离群值污染的交叉验证集。不同的损失函数在最优性能的使用情况下提供了有关使用情况的见解。
May, 2023
研究了最优岭回归正则化和最优岭风险在离群分布预测中的行为,建立了决定协变量和回归变化下最优正则化水平符号的一般条件,并证明了在数据纵横比方面,即使在负正则化水平优化的情况下, 优化风险在离群分布设置中是单调递增的。
Apr, 2024