EMNLPMar, 2021

将预训练的 Transformers 微调为 RNN

TL;DR本研究旨在将预训练 Transformer 转换为其高效循环对应物,在维持准确性的同时提高效率,并提出一种交换再微调的流程。