Nov, 2019
SMART: 面向预训练自然语言模型的强健高效微调技术
SMART: Robust and Efficient Fine-Tuning for Pre-trained Natural Language
Models through Principled Regularized Optimization
TL;DR本文提出一种基于Bregman的Trust-Region优化的平滑正则化框架,用于更加有效地对预训练语言模型进行微调,避免过拟合和知识遗忘,通过实验表明在多项NLP benchmarks上达到了最新的性能水平。