EMNLPOct, 2022

RoChBert:针对中文的鲁棒性 BERT 微调

TL;DR本文介绍 RoChBERT 框架,利用包含中文音节和字形特征的更全面的对抗图,在微调过程中融合到预训练表示中,通过课程学习和对抗数据增广方法提高预训练语言模型的稳健性且不降低在正常文本上的预测准确率。RoChBERT 的性能优于以往方法,并且容易扩展到各种语言模型上,而且无需放弃预训练模型所需的时间和计算资源。