ACLJan, 2018

通用语言模型微调用于文本分类

TL;DR本文提出了通用语言模型微调(ULMFiT)方法,通过预训练模型来减小 NLP 中针对特定任务和重新训练的限制,可应用于 NLP 中的任何任务,结果显示该方法在 6 个文本分类任务中的表现显著优于现有技术,且只需 100 个标记实例即可达到基于 100 倍数据重新训练的性能,同时本文公开了预训练模型和代码。