BriefGPT.xyz
Ask
alpha
关键词
tinybert
搜索结果 - 3
BERT 模型的知识蒸馏改进:损失函数、映射方法和权重调整
本研究使用了 Transformer-based 模型(如 BERT、GPT 和 T5),并进行了知识蒸馏来进行模型压缩,特别关注 TinyBERT 学生模型。通过实验不同的损失函数、Transformer 层映射方法和注意力和表示损失的权
→
PDF
10 months ago
简洁 TinyBERT:文档检索的知识蒸馏
该研究比较了两种知识蒸馏模型在文档排序任务中的有效性并对 TinyBERT 模型进行了两种简化,结果显示出这些简化不仅能够提升 TinyBERT 的性能,而且还可以在提供 15 倍速度提升的同时显著优于 BERT-Base。
PDF
4 years ago
EMNLP
TinyBERT:自然语言理解的 BERT 蒸馏模型
通过新的 Transformer 蒸馏方法和两阶段 TinyBERT 学习框架,可以有效地将大型 BERT 中的知识转移到小型 TinyBERT,从而在维持准确性的同时加速推理和减少模型大小,TinyBERT 在短语匹配任务的 GLUE 数
→
PDF
5 years ago
Prev
Next