EMNLPMar, 2021

BERT 是一个跨学科的知识学习者吗?预训练模型可转移性的惊人发现

TL;DR本文探讨了预训练模型在文本数据上的可迁移性是否能够转化为一般的 token 序列分类应用。我们发现,即使在非文本数据上,也可以快速收敛,表现优异。这些训练好的模型与非文本模型的表示有相似之处。