Jun, 2020

SqueezeBERT:计算机视觉对 NLP 何以教会我们高效神经网络?

TL;DR使用分组卷积替换自我注意层中的多个操作,提出了一种新颖的神经网络模型SqueezeBERT,它在Pixel 3上运行比BERT-base快4.3倍,同时在GLUE测试集上取得有竞争力的准确性,从而为在移动设备中实施自然语言处理(NLP)技术提供了重要的帮助。