May, 2022

边缘上BERT模型的高效微调

TL;DR本研究提出了一种名为“Freeze And Reconfigure (FAR)”的训练方案,用于在资源受限的设备上以较小的存储空间和时间成本优化BERT模型。实验结果表明,采用FAR训练方案的DistilBERT模型在CoLA数据集上可以将fine-tuning时间降低30%,节省47%的存储操作时间,GLUE和SQuAD等数据集上的度量性能平均降低约1%。