ACLFeb, 2024

深入分析鸿沟:探索主题内外泛化之间的差距

TL;DR本研究通过三个基于探测的实验分析了各种预训练语言模型在同一主题与不同主题的数据上的泛化能力差异及其嵌入空间的鲁棒性,首次展示了不同模型在不同主题间的泛化差距,并评估了更大规模的模型对分析的相关性,结果表明多样化的预训练目标、架构规范化或数据去重有助于实现更鲁棒的模型并减少泛化差距,为跨不同泛化情境下的语言模型的深入理解与比较做出了贡献。