Oct, 2021
符号知识蒸馏:从通用语言模型到常识模型
Symbolic Knowledge Distillation: from General Language Models to Commonsense Models
Peter West, Chandra Bhagavatula, Jack Hessel, Jena D. Hwang, Liwei Jiang...
TL;DR研究一个新的框架,基于 Symbolic Knowledge Distillation,使用通用语言模型自动化地从 ATOMIC 资源中筛选高质量因果常识,并创造一种新的常识模型,其大小只有原始模型的 1/100,但功能优于其老师模型。