BriefGPT.xyz
Ask
alpha
关键词
transformer distillation
搜索结果 - 1
EMNLP
TinyBERT:自然语言理解的 BERT 蒸馏模型
通过新的 Transformer 蒸馏方法和两阶段 TinyBERT 学习框架,可以有效地将大型 BERT 中的知识转移到小型 TinyBERT,从而在维持准确性的同时加速推理和减少模型大小,TinyBERT 在短语匹配任务的 GLUE 数
→
PDF
5 years ago
Prev
Next