KDDMay, 2021

NAS-BERT: 任务无关和自适应尺寸 BERT 压缩及神经架构搜索

TL;DR本文提出了一种基于神经网络结构搜索 (neural architecture search, NAS) 的 BERT 压缩方法 NAS-BERT,其可输出多个带有不同大小和延迟的压缩模型,适用于不同的内存和延迟限制,并且不需要针对特定的下游任务进行调整。该方法在 GLUE 和 SQuAD 数据集上的实验表明,NAS-BERT 相比以前的方法具有更好的准确性,可以直接应用于具有不同内存或延迟要求的不同下游任务。