BriefGPT.xyz
大模型
Ask
alpha
关键词
multilevel multilingual knowledge distillation
搜索结果 - 1
EMNLP
多语言语言模型预训练的语义知识多级蒸馏
本论文提出了一种新的多层次多语种知识蒸馏方法(MMKD),采用英语 BERT 中的丰富语义表征知识和师生框架来鼓励源 - 目标对之间的多个层次一致性和教师和学生模型之间的相关相似性,以提高预先训练的多语种语言模型的性能。在横跨语言的评价任务
→
PDF
2 years ago
Prev
Next