BriefGPT.xyz
Ask
alpha
关键词
knowledge-distillation-based framework
搜索结果 - 1
AAAI
利用最优传输距离进行知识蒸馏,提高神经跨语言摘要生成的效果
本文提出了基于知识蒸馏的跨语言摘要框架,通过 Sinkhorn Divergence 实现了师生之间的知识转移,并在跨语言摘要数据集上证明了该方法的高效性。
PDF
3 years ago
Prev
Next