关键词knowledge distillations
搜索结果 - 2
- 评估和改进口语理解中的持续学习
我们提出了一种评估方法,能够统一评估在连续学习中的稳定性、可塑性和泛化能力,并展示了引入不同的知识蒸馏方法如何改善语音语言理解模型的这三个性质方面。我们进一步展示了我们提出的指标更敏感地捕捉到连续学习中任务顺序的影响,因此更适合实际应用场景 - 分层拓扑同构专业嵌入的图形对比学习
通过引入知识蒸馏,我们提出了一种新颖的层次化拓扑同构专家嵌入图对比学习方法,用于增强 GCL 模型学习层次化拓扑同构专业知识,包括图层和子图层。与传统的 GCL 方法相比,我们的方法在贝叶斯分类错误上获得更紧的上界,并在真实世界基准测试中表