IJCAIJan, 2020

AdaBERT: 可适应任务的 BERT 压缩与可微分神经架构搜索

TL;DR本研究提出了一种名为 AdaBERT 的压缩方法,利用可微分神经结构搜索自动为特定任务压缩 BERT,以达到速度和参数大小的较优权衡,并通过几个 NLP 任务的评估表明,能够保持与 BERT 相当的性能,但速度快 12.7x 到 29.3x,参数大小也小 11.5x 到 17.0x。