COLINGJun, 2018

使用 J-K 折交叉验证在微调 NLP 模型时降低方差

TL;DR本研究介绍了一种比 K 折交叉验证更少变异的 J-K 折交叉验证方法,用于评估自然语言处理任务中机器学习模型的性能和参数调整,探讨了如何选择 J 和 K 的问题以及该方法的应用于情感分类、词性标注和文档分类等不同领域的案例表现。