COLINGJun, 2018
使用 J-K 折交叉验证在微调 NLP 模型时降低方差
Using J-K fold Cross Validation to Reduce Variance When Tuning NLP Models
Henry B.Moss, David S.Leslie, Paul Rayson
TL;DR本研究介绍了一种比 K 折交叉验证更少变异的 J-K 折交叉验证方法,用于评估自然语言处理任务中机器学习模型的性能和参数调整,探讨了如何选择 J 和 K 的问题以及该方法的应用于情感分类、词性标注和文档分类等不同领域的案例表现。