带有有限观测的线性回归
本文研究高维统计中的稀疏线性回归问题,特别关注相关随机设计条件下的 Lasso 算法以及基于特征适应的算法,提供了可以自适应处理少量近似相关性的 Lasso 算法优化及多项式复杂度的改进,以实现在常数稀疏度和任意协方差 Σ 情况下的最优样本复杂度。
May, 2023
本文介绍了针对高维度问题的普通最小二乘(OLS)法无法适用的问题,我们提出了一种基于岭回归的 OLS 的广义版本,并提出了两种新的三步算法,这些算法在直观上易于理解,计算上易于高效实现,并且在模型选择方面有较强的理论吸引力。通过模拟和数据分析中与基于罚项的方法相比较的数值实验,这些算法的潜力得到了证明。
Jun, 2015
本研究提出了一种修改后的岭回归方法,可以在减小空间的基础上识别潜在的 Markov 边界。实验结果表明,这种方法在基因表达数据的 Markov 边界发现方面具有很强的实用性。
Sep, 2015
研究了具有 Lipschitz 损失函数的高维广义线性模型,并证明了带有 Lasso 惩罚项的经验风险最小化算子的非渐进性 oracle 不等式。惩罚项是基于线性预测中的系数,在经验规范化后计算。研究包括逻辑回归、密度估计、带有 Hinge 损失的分类和最小二乘回归。
Apr, 2008
通过利用高斯约翰逊 - 林登斯特劳斯变换(JLT)来估计 OLS 中的 $t$ 值并推导出投影后的数据的置信区间,该文提出了一种基于不同隐私估计器的类似保证性质的方法。
Jul, 2015
对于具有噪声标签的二元分类问题,正则化线性回归是一种有前景的方法。本文系统研究了正则化强度对通过最小化正则化最小二乘目标来解决二元分类问题的线性分类器性能的影响。通过在超参数化条件下,假设类别是由高斯混合模型生成的,其中有一个小于 1/2 的比例的训练数据被误标记,我们严格分析了岭回归、L1 和 L∞回归应用时产生的分类错误。特别地,我们证明了岭回归总能改善分类错误。我们证明了 L1 正则化引起稀疏性,并观察到在许多情况下,不考虑 GMM 的稀疏结构,可以将解稀疏化两个数量级而不会有明显的性能损失。对于 L∞正则化,我们证明了对于足够大的正则化强度,最优权重集中在两个相反符号的值周围。我们观察到在许多情况下,将每个权重压缩到一个位时几乎不会造成性能损失。这些观察结果具有重要的实际影响。
Nov, 2023
本文介绍一种基于稀疏近似的随机梯度下降算法,该算法能够在类似 Lasso 的条件下表现良好,并且无需更多的计算资源。在实验中,我们发现我们的方法在真实数据和模拟数据上均表现出色。
Dec, 2014
本文研究在推理问题中广泛存在的一类优化问题的理论运行时间保证,这些问题受 Lasso 框架的启发,具有机器学习和计算机视觉应用。我们通过算法图论的核心问题来展示这些问题之间的密切联系。最后,我们提出了一些关于图像处理问题的实验结果。
Oct, 2011