Mar, 2022

稀疏数据情景下的领域适应:不使用BERT有何收获?

TL;DR本文比较了NLP中使用不同方法处理数据量不足的问题,提供了使用少量标记训练数据来构建NLP应用的指南。虽然预训练语言模型的转移学习在各种任务中都表现出色,但其他方法的性能差别不大,而且需要的计算成本更少,从而显著降低了预算和环境成本。我们研究了几种这样的替代方案的性能权衡,包括可以加速训练175K倍且不需要单个GPU的模型。