本文介绍了一种名为 Blocked Cross-validation(BCV)的新方法,在超参数调整方面比传统的 Repeated Cross-validation(RCV)提供更精确的错误估计,即使运行的数量显著减少,也能实现更高的准确度和更低的计算复杂度。
Jun, 2023
本研究介绍了一种比 K 折交叉验证更少变异的 J-K 折交叉验证方法,用于评估自然语言处理任务中机器学习模型的性能和参数调整,探讨了如何选择 J 和 K 的问题以及该方法的应用于情感分类、词性标注和文档分类等不同领域的案例表现。
Jun, 2018
机器学习中的 K-fold 交叉验证和神经影像数据集
Jan, 2024
通过单个牛顿推的启动程序,实现了对大量训练数据集的 CV 的近似,解决了 CV 运行时间长的问题;本文提供了一致的非渐进性,确定性的模型评估保证,同时也保证了与 CV 相当的模型选择性能。
Mar, 2020
本文提出了一种基于非参数检验和顺序分析的改良型交叉验证程序,可以在保留完整的交叉验证性能的同时,快速找到最佳参数集,比完整的交叉验证计算时间减少了高达 120 倍,并对准确性影响不大。
Jun, 2012
本文提出了一种快速且准确的基于参数学习的交叉验证策略 ALOOCV,并利用其开发了一种基于经验风险最小化框架的正则化优化算法。
Nov, 2017
使用早停法进行交叉验证的模型选择,可以更高效地收敛,涵盖更多搜索空间,并实现更好的性能。
May, 2024
研究了交叉验证的中心极限定理和渐近方差一致估计,为 $k$ 折测试错误的可实现渐近精确置信区间和有效的假设测试提供了理论框架,并且在真实数据实验中表现优异。
Jul, 2020
本文研究机器学习中的空间自相关问题,提出了基于空间 k 折交叉验证的方法,并通过三个真实开放数据集的实验验证了该方法的有效性和应用性。
May, 2020
通过研究我们发现,在机器学习模型的性能评估中,交叉验证方法会引入分布偏差现象,导致性能评估及超参数优化受到负面影响。为了解决这个问题,我们提出了一个通用的校正分布偏差的交叉验证方法,并通过合成模拟和多个已发布的实验验证结果。
Jun, 2024