Jul, 2023
使用组凸规则的稀疏输入神经网络
Sparse-Input Neural Network using Group Concave Regularization
Bin Luo, Susan Halabi
TL;DR本文提出使用组凸正则化的稀疏输入神经网络框架,用于解决在高维数据中进行的变量筛选和非线性函数估计的问题。通过对每个输入节点的所有出节点的权重的 L2 范数应用适当的凹值惩罚,从而为每个问题生成一个小型子集,取得了令人满意的有限样本性能和稳定的解决方案。
Abstract
Simultaneous feature selection and non-linear function estimation are
challenging, especially in high-dimensional settings where the number of
variables exceeds the available sample size in modeling. In this article, we
investigate the problem of →
发现论文,激发创造
深度神经网络的分组稀疏正则化
探讨了深度神经网络、特征选择和优化之间的关系,并通过引入 Group Lasso penalty 的方法,同时解决了三个问题,证明此方法可以在大规模分类任务上有效地实现。
Jul, 2016
LassoNet:一种带有特征稀疏性的神经网络
LassoNet 是一个神经网络框架,它使用了全局特征选择。我们的方法使用了一个修改的目标函数来集成特征选择和参数学习,并且提供了正则化路径和稀疏性范围。在系统实验中,LassoNet 显著优于特征选择和回归的最新方法。
Jul, 2019
稀疏凸优化的 L1 正则化性能
本研究提出了一种新的方法来证明 Group LASSO 算法在稀疏凸优化中的一些特定情况下具有 recovery guarantees,为进一步解决列子集选择问题提供了新的策略。
Jul, 2023
使用神经网络进行受控冗余的群组特征(传感器)选择
本文提出了一种基于多层感知机(MLP)网络的嵌入式特征选择方法,并将其推广到面向组特征或传感器选择问题,该方法可以控制所选特征或组之间的冗余级别。此外,我们还将组套索惩罚推广为特征选择的机制,以在同时保持对冗余的控制的情况下选择有价值的组特征。在适当的假设下,我们建立了所提算法的单调性和收敛性,并通过一些基准数据集上的实验结果展示了所提方法在特征选择和组特征选择方面比一些最先进的方法具有良好的性能。
Oct, 2023
基于凸优化的结构稀疏化
本文介绍了一种基于结构规则的稀疏估计方法,通过应用不仅仅关注稀疏性,而且可以考虑一些结构化先验知识,这种方法可以处理多种结构的问题。同时,我们还介绍了该方法在无监督学习、非线性变量选择等方面的应用。
Sep, 2011
二值随机过滤器:特征选择及其它
本研究提出了一种利用稀疏正则化方法进行特征选择的神经网络扩展方法,比传统方法更为高效且可用于任何现有结构,同时能够直接应用于神经元修剪和光谱数据的重要区域选择。
Jul, 2020