本文介绍了 Lasso 正则化路径分析的方法和优化算法,分析了其最坏情况下的复杂性和近似分析,并提供了一个实用的算法来计算这些近似路径。
May, 2012
本文介绍了一种支持向量机的次优解路径算法,该算法可以在任意用户指定的容忍度范围内生成次优解路径,并能够控制解的准确性和计算成本的平衡。
May, 2011
本文提出了第一个解决具有低秩因子或低树宽度和少量线性约束的二次规划的近似线性时间算法,并暗示了具有低树宽度或低秩的支持向量机的近似线性时间算法。
Jul, 2023
本文提出了一种基于采样技术和新的乘性更新算法的新颖子线性时间逼近算法,可用于解决一些机器学习优化问题,如训练线性分类器和查找最小包含球,此外,还用于解决一些核化版本的这些问题,如 SVM 等。此外,文章还在半流数据流设置中给出了实现,实现了第一个低通多项式空间和次线性时间算法。
Oct, 2010
稀疏性、深度神经网络、正则化路径、经验损失和帕累托前沿是研究论文的主要关键词和研究领域。
Aug, 2023
对一种正则化优化问题,引入一种求系数路径的方法及其性质,为回归和分类的 LASSO 提供了鲁棒性解决方案,同时提出了现有问题的新型算法,包括 Mammen 与 van de Geer 的局部自适应回归样条。
Aug, 2007
提出了一种近似正则化路径追踪方法,用于求解许多具有非凸问题求解的学习问题,该算法迭代复杂度与全正则化路径相同,可以同时提供统计和计算收敛率的显式表达式,并可以实现全局几何收敛,以及对于所有近似局部解的样本复杂度分析和精确支持恢复结果。
Jun, 2013
本文将正则化支持向量机与鲁棒优化公式进行比较,并表明它们是精确等效的。这个比较对算法和分析有影响,可以构建出保护噪声和同时控制过拟合的分类问题的更一般的类 SVM 算法,同时提供正则化 SVM 成功率鲁棒优化解释的分析证明,从而明确了鲁棒性是正则化 SVM 泛化良好的原因。
Mar, 2008
本文介绍一种在线学习算法,该算法是收敛于再生核希尔伯特空间(RKHS)中的回归函数的正则化路径的顺序随机逼近。通过小心选择增益或步长序列,我们展示了可以生产出批量学习的最佳已知强收敛速率,并给出了弱收敛速率,其在文献中达到了最小化和个人较低速率的最优水平,并利用 Hilbert 空间中鞍点型不等式为鞍点型型不等式的马尔可夫过程推导出几乎肯定的收敛。通过类似于批量学习设置的偏差 - 方差分解,我们证明偏差包括沿正则化路径的逼近误差和漂移误差,这些误差显现了相同的收敛速率,而方差则来自样本误差,分析为反向鞍点型差分序列,上述速率通过偏差和方差之间的最佳折衷得到。
Mar, 2011
支持向量机(SVM)是用于二分类的广泛研究的监督学习模型。半监督支持向量机(S3VMs)通过利用有标签和无标签数据,扩展了传统的 SVM 分类器,旨在在存在无标签数据的情况下最大化样本间的边界,以实现比传统 SVM 更高的准确性和鲁棒性。本文提出了一种新的基于半定规划(SDP)松弛的 S3VMs 分支定界方法。我们应用基于最优性的界限加强方法来限制可行集。箱约束使我们能够包括有效不等式,增强下界。与文献中提供的界限相比,所得到的 SDP 松弛提供了显著更强的界限。至于上界,则利用 SDP 松弛的解定义局部搜索。计算结果突显了该算法的效率,展示其解决数据点数量比文献中的解决数量多 10 倍的实例的能力。
Dec, 2023