本文提出了一种称为 “无穷小套索” 的线性逼近方法,用于评估机器学习算法的误差,可以取代数据加权的反复拟合,适用于大数据集。该方法的理论适用于各种随机或确定性的数据和权重,可以广泛应用于机器学习领域,特别是在自动分化方面。
Jun, 2018
本论文描述了如何利用模型损失函数的影响函数构建频率学过程,以构建一种基于 Frequentist 的 Discriminative Jackknife 方法,用于估计深度学习模型的预测不确定性。实验表明,该方法相对于基于贝叶斯神经网络的方法和非贝叶斯回归基线表现具有竞争力。
Jun, 2020
本文介绍了一种新的方法 jackknife + 用于构建预测置信区间,并证明了如何它通过考虑最近自变量的离群值来提供严格的覆盖保证,与原始 jackknife 不同,而实验数据表明两种置信区间在稳健性较好的情况下能够实现几乎完全的覆盖且长度相似,此外我们还将 jackknife + 延伸到 K 倍交叉验证。
May, 2019
提出了一种基于 Jackknife + 和 Bootstrap 的预测区间构建方法 (J+aB),该方法只使用可用的 Bootstrap 样本及其对应的拟合模型,可以在不假设数据分布,拟合模型的性质或集成模型聚合方式的情况下提供保证,并可以免费进行模型拟合,实验结果验证了预测区间的覆盖率和准确性。
Feb, 2020
引入 Orthogonal Bootstrap 方法降低 Bootstrap 模拟方法的计算成本,同时提高实证准确度并保持构建区间的宽度。
Apr, 2024
通过单个牛顿推的启动程序,实现了对大量训练数据集的 CV 的近似,解决了 CV 运行时间长的问题;本文提供了一致的非渐进性,确定性的模型评估保证,同时也保证了与 CV 相当的模型选择性能。
Mar, 2020
通过梯度流引导的自适应重要性采样变换,稳定了贝叶斯分类模型点状留一个交叉验证(LOO)预测的蒙特卡罗近似,可以利用此方法评估模型的普及性。
Feb, 2024
本文提出新的 HOIF 估计器,其具有与 Robins et al.(2008,2016)估计器相同的渐近性质,但不需要估计高维密度,适用于缺失数据和连续协变量的情况。
May, 2017
本文提出了一种快速且准确的基于参数学习的交叉验证策略 ALOOCV,并利用其开发了一种基于经验风险最小化框架的正则化优化算法。
Nov, 2017
本文提出了一种通用的基于增量学习算法的交叉验证 (Cross-validation) 的性能估计方法,并通过实验表明其在减少计算负担,以及对数据规模扩展和分布式实现上均具有良好的性能。
Jun, 2015