EMNLPOct, 2022

探索问答模型的分布稳健性

TL;DR在问答模型的分布稳健性中,我们进行了一项大规模的实证评估,研究了超过 350 个模型和 16 个问答数据集的情况,发现在很多情况下,模型的变化并不影响稳健性,而在分布内性能单独决定着分布外的性能,并且我们的发现表明,零样本和上下文学习方法比完全微调的模型更能抵御分布变化,少样本提示微调模型表现出比少样本微调跨度预测模型更好的稳健性,而参数高效和稳健性增强的训练方法对稳健性没有显著的改进。