前向后向选择和早期淘汰
提出一种利用基于 LASSO 的线性模型自动且同时选择相关特征和时间点的方法以及考虑数据非 i.i.d 性质的计算结果,并展示该方法比现有技术具有更好的表现。
Oct, 2016
提出一种基于反偏倚机器学习的一对多特征选择方法,可用于纯观察性数据,同时提供理论保证,包括部分非线性关系和循环数据的情况,并证明与目前的方法相比有显著改进。
Jul, 2020
提出一种基于贝叶斯方法、将先验分布放置在回归系数以及模型空间上、使用针对高维协变量的针尖和板块高斯先验、通过 Gibbs 抽样执行的变量选择方法,具有可靠的选择一致性和优于其他方法的良好性能。
May, 2014
本文提出了一种可伸缩的基于前向特征选择的梯度提升决策树方法,通过一种新颖的群体测试过程,在高维度下工作良好,并具有较好的理论性能和计算保证,可用于搜索和推荐中的排名和相关模型的构建。同时,该方法扩展到多任务设置,允许从多个任务中选择通用特征和选择任务特定特征,与现有的梯度提升决策树方法相比,在模型性能度量方面表现相当,但训练时间有显著提升。
Sep, 2021
为了解决科学研究中纯关联分析的局限性而发展的特征选择算法,提出了一种基于核的条件相关度量的向后淘汰方法,并且在合成与实际数据集上比起其他方法表现更为优秀。
Feb, 2014
本论文研究了高维回归问题中存在交互变量的情况,引入了一种名为 Backtracking 的新方法,可解决使用稀疏性惩罚函数(如 Lasso)产生可解释模型过程中的计算效率问题,并在回归和分类问题的模拟和真实数据集上进行了实证分析。
Aug, 2012
本文讨论了在高维模型中进行变量选择时可以给出什么样的统计保证,并以某些多阶段回归方法的误差率和功率为例。我们考虑了三种筛选方法:套索、边际回归和前向逐步回归,提出了在某些条件下一致的变量选择方法。
Apr, 2007
本文提出了一种基于贝叶斯方法的变量选择算法,考虑了预测变量之间的关联,并针对各种线性模型开发了不同的先验分布,其中包括任意交互项和多项式、分类因子的虚拟变量等,这种方法在 George 和 McCulloch Stochastic Search Variable Selection 算法中得到了应用,能够提高模型的性能。
Oct, 1995
我们提出了一种深度序列生成学习方法来进行特征选择,该方法通过学习连续嵌入空间,将特征选择决策序列映射为与效用分数相关的嵌入向量,从而解决了传统方法中存在的离散搜索空间和专家特定超参数的问题。
Mar, 2024