该论文探讨了基于群回归的线性模型问题,提出了一种更加通用的罚函数,该罚函数将 L1 范数和群 L2 范数相融合,可以同时稀疏化群和个体特征。此外,为了解决该问题,提出了一种基于坐标下降的高效算法,该算法也适用于处理非正交模型矩阵的群回归的一般形式。
Jan, 2010
本文介绍了一种基于数据相关性的一般化界限,适用于许多实现了结构稀疏性限制的正则化算法。该界限可以应用于标准的平方范数正则化、套索 (Lasso)、组套索 (group Lasso)、一些具有重叠组的组套索版本、多核学习 (multiple kernel learning) 和其他正则化方案。在所有这些情况下,都可以获得有竞争力的结果。我们界限的新特点是,它可以应用于无限维度的设置,例如具有可分离的希尔伯特空间的套索 (Lasso) 或具有可数核的多核学习 (multiple kernel learning)。
Aug, 2011
本研究提出了一种新的方法来证明 Group LASSO 算法在稀疏凸优化中的一些特定情况下具有 recovery guarantees,为进一步解决列子集选择问题提供了新的策略。
Jul, 2023
探讨了深度神经网络、特征选择和优化之间的关系,并通过引入 Group Lasso penalty 的方法,同时解决了三个问题,证明此方法可以在大规模分类任务上有效地实现。
Jul, 2016
本文提出了一种新的方法,名为群组稀疏性加性模型 (GroupSpAM),可处理加性模型中的群组稀疏性,通过引入 Hilbert 空间内的 l1/l2 范数作为稀疏引导惩罚,推导出一种新的阈值条件来识别功能稀疏性,并提出一个高效的块坐标下降算法来构建估计,仿真实验证明 GroupSpAM 在支持恢复和预测准确性方面远优于竞争方法。
Jun, 2012
本文研究了使用组套 Lasso 进行带有正则化的最小二乘回归问题的渐近一致性和多核学习的无限维情况下的一致性性质,并提出了自适应方案以获得一致的模型估计。
Jul, 2007
本研究通过图形模型的理解和动态规划技术,基于组稀疏模型的组结构,解决了组模型选择问题,提出了一种修正的组模型,并研究了两个可操作的模型的群稀疏逼近的 Pareto 前沿以及选择和计算的权衡。
Mar, 2013
本文证明了 Lasso 的鲁棒性质,并将其与物理属性,即对噪声的保护,联系起来。通过考虑不同的不确定性集合,可以得出 Lasso 的一般化形式并获得凸优化问题。同时,通过鲁棒性质可以解释为何 Lasso 解是稀疏的,并且与标准稀疏结果不同。最后,证明了稀疏性和算法稳定性是相互矛盾的,因此 Lasso 是不稳定的。
Nov, 2008
本文探讨了通过多变量自回归(MAR)过程建模的稀疏因果网络的推断问题。在满足 “假连接得分” 条件下,得出 Group Lasso (gLasso) 程序可以一致地估计稀疏网络结构的结论,这也被证明是一种有效的复原度量。作者建议改进 gLasso 过程,以提高假连接得分并减少因果影响方向反转的可能性。计算实验和基于真实网络的 ECoG 模拟研究证明了该方法的有效性。
Jun, 2011
本文研究多元回归中的分组 Lasso,使用基于 L1/L2 范数的分块正则化进行支持融合恢复或恢复 B * 非零行的集合,证明了分组 Lasso 在高维缩放下对于问题序列 (n、p、s) 成功的阈值和失败的阈值,并使用模拟演示了理论结果的锐度。
Aug, 2008