非凸罚函数回归用于异常值检测
本文提供了关于正则化 M - 估计器局部最优解的新理论结果,覆盖了许多感兴趣的非凸目标函数,包括误差 - 变量线性模型的校正套索方法,具有非凸罚项的广义线性模型回归,以及高维图模型估计,我们提供了误差的上限,证明了我们的理论结果,同时提出了一种简单的修改方法,使得可以在 log (1/∊) 步内以任意精度获得近似全局最优解,这是任何一阶方法可能达到的最快速度。
May, 2013
大数据时代中的数据挑战包括:维度常常大于样本大小,异常值或污染点通常隐藏且更难检测。这篇论文系统地检查了文献中的主要惩罚回归方法,并提出了一种基于剪枝残差最小平方和的鲁棒惩罚回归方法,实验证明在估计和预测准确性方面胜过其他竞争对手。
Sep, 2023
研究了在高斯设计和加性噪声的线性模型中,估计一个 p - 维 s - 稀疏向量的问题,证明当标签受到至多 o 个敌对异常数据的污染时,基于 n 个样本的 L1 惩罚 Huber's M - 估计量达到最优的收敛速率 (s /n)^ {1/2} +(o /n),更一般的设计矩阵结果强调了转移原则和无相干性质的重要性,并证明适当的常数加上这些属性可以实现最优的强鲁棒估计率,最高可达对数因子,具有敌对扰动。
Apr, 2019
提出了一种近似正则化路径追踪方法,用于求解许多具有非凸问题求解的学习问题,该算法迭代复杂度与全正则化路径相同,可以同时提供统计和计算收敛率的显式表达式,并可以实现全局几何收敛,以及对于所有近似局部解的样本复杂度分析和精确支持恢复结果。
Jun, 2013
在处理高维稀疏线性模型、有重尾分布和 / 或异常点污染的数据时,研究正则化鲁棒 M - 估计量的理论性质,首先在错误分布满足一定条件时建立一种罚函数回归估计器的局部统计一致性形式,并在这种条件下证明了这些估计器的极小化误差达到了 Lasso 估计量亚高斯错误的极小值,接着通过使用合适的非凸正则化器代替 l1 惩罚,证明了这些稳态点实际上是独一无二的,并等于正确支持的本地 Oracle 解,这对于有效地处理重尾误差具有重要的影响。
Jan, 2015
提出了一种显式算法,用于最小化带有不可分离 L1 项的 L1 正则化最小二乘函数。对于每个迭代步骤,该算法需要四个矩阵向量乘法和单个简单的投影,并证明了收敛性和函数的 1/N 收敛速率。同时,该算法可以处理其他基于 L1-norm 以外的凸非分离度量,方法是用简单的接近算子代替投影。
Apr, 2011
本文针对高维数据中变量数目远远大于样本量的情况,提出了一种有限混合回归模型。针对此类模型中的非凸问题,本文提出了一种 l1 - 惩罚最大似然估计方法,并使用有效的 EM 算法进行求解,同时也给出了一些渐近理论和预测间隔。
Feb, 2012
本文研究高维非凸罚函数回归问题,提出了一种易于计算的校准 CCCP 算法和高维 BIC 准则,可以用于解决问题中的多个局部极小值和未知的最优参数。研究结果表明,该方法在高维数据分析中具有良好的性能。
Nov, 2013