稀疏回归、Lp 正则化和自动模型发现
利用神经网络的数据驱动本构模型,在加入物理和机制约束的同时,通过训练及 $l^0$ 正则化的方法,实现了可解释性和可信赖性的简约化表征,适用于可压缩与不可压缩高弹性、屈服函数和强化模型的合成和实验数据。
Oct, 2023
本文提出使用组凸正则化的稀疏输入神经网络框架,用于解决在高维数据中进行的变量筛选和非线性函数估计的问题。通过对每个输入节点的所有出节点的权重的 L2 范数应用适当的凹值惩罚,从而为每个问题生成一个小型子集,取得了令人满意的有限样本性能和稳定的解决方案。
Jul, 2023
LassoNet 是一个神经网络框架,它使用了全局特征选择。我们的方法使用了一个修改的目标函数来集成特征选择和参数学习,并且提供了正则化路径和稀疏性范围。在系统实验中,LassoNet 显著优于特征选择和回归的最新方法。
Jul, 2019
研究非线性模型下的监督学习与变量选择问题,提出一种基于偏导数的非参数稀疏模型,利用再生核希尔伯特空间的概念和近端方法得出最小化问题及迭代求解算法,并通过理论和实验分析表明其具有优秀的性能表现。
Aug, 2012
探讨了深度神经网络、特征选择和优化之间的关系,并通过引入 Group Lasso penalty 的方法,同时解决了三个问题,证明此方法可以在大规模分类任务上有效地实现。
Jul, 2016
本文介绍了一种基于结构规则的稀疏估计方法,通过应用不仅仅关注稀疏性,而且可以考虑一些结构化先验知识,这种方法可以处理多种结构的问题。同时,我们还介绍了该方法在无监督学习、非线性变量选择等方面的应用。
Sep, 2011
本文指出,关于促进稀疏性的更强大的贝叶斯算法具有类似于长短期记忆 (LSTM) 网络或先前设计用于序列预测的替代门控反馈网络的结构,从而导致了一种新的稀疏估计系统,当授予训练数据时,可以在其他算法失败的方案中高效地估计最优解,包括在实际方向 - 到达 (DOA) 和三维几何恢复问题中。
Jun, 2017
深度神经网络在依赖数据上的显式正则化和优化性能最近取得了相当大的进展。本文研究了从强混合观测样本中进行深度学习,并处理了平方损失和一类广义损失函数。对于包括回归估计、分类、时间序列预测等的一般框架,建立了期望超越风险的奥拉克不等式并给出了一类 H"older 平滑函数的界限。针对强混合数据和次指数误差的非参数回归,我们针对 $L_2$ 误差建立了奥拉克不等式,并研究了该误差在一类 H"older 组合函数上的上界。对于具有高斯和拉普拉斯误差的非参数自回归的特定情况,我们建立了 $L_2$ 误差在此 H"older 组合类上的下界。在对数因子上,这个界限与其上界匹配,因此深度神经网络估计器实现了最佳的极小化速率。
Jun, 2024