BriefGPT.xyz
大模型
Ask
alpha
关键词
symbolic knowledge distillation
搜索结果 - 2
基于大型语言模型的事实对话摘要
通过使用符号知识蒸馏方法改善小型预训练模型的事实一致性,我们在对话摘要中取得了更好的事实一致性,同时保持了连贯性、流畅性和相关性。
PDF
14 days ago
符号知识蒸馏:从通用语言模型到常识模型
研究一个新的框架,基于 Symbolic Knowledge Distillation,使用通用语言模型自动化地从 ATOMIC 资源中筛选高质量因果常识,并创造一种新的常识模型,其大小只有原始模型的 1/100,但功能优于其老师模型。
PDF
3 years ago
Prev
Next