Mar, 2021

使用预训练 Transformer 作为通用计算引擎

TL;DR本研究探究了预先在自然语言处理上训练的 transformer 模型是否可以在最小化调整下进行泛化以适用于其他模式,并研究其在数字计算、视觉和蛋白质折叠预测等序列分类任务上的优化性能。结果表明,预训练模型对非语言下游任务的性能和计算效率都有积极作用。