BriefGPT.xyz
Ask
alpha
关键词
crowdsourced benchmarks
搜索结果 - 1
反事实增强的 SNLI 训练数据不比未增强的数据具有更好的泛化性能
本研究发现,通过常规众包技术建立的反事实数据增强自然语言阅读理解数据集,不利于训练模型的泛化性和鲁棒性,并且在成本考虑上使用此种方法带来的收益很少。
PDF
4 years ago
Prev
Next