BriefGPT.xyz
大模型
Ask
alpha
关键词
relational knowledge distillation
搜索结果 - 4
集群感知半监督学习:可证明学习聚类的关系知识蒸馏
关于关系性知识蒸馏的理论解释和在半监督分类问题中的应用,本文通过将关系性知识蒸馏转化为基于教师模型的谱聚类,并量化聚类误差来证明其有效性,并通过示例复杂度界限和群集感知的半监督学习框架进一步展示了其高标记效率。此外,通过将数据增强一致性正则
→
PDF
a year ago
ECCV
R-DFCIL: 基于关系引导的数据无关类增量学习表征学习
本文提出了一种基于关系指导的表征学习方法,用于解决数据自由的类增量学习(DFCIL)中出现的遗忘问题,并展示了其在三个数据集上实现了新的最优性能。
PDF
2 years ago
关系知识蒸馏下联合学习知识嵌入和邻域一致性以实现实体对齐
本文提出了一种基于图卷积神经网络和知识蒸馏的实体对齐模型以解决关系语义信息利用不充分的问题,并通过实验验证了其有效性。
PDF
2 years ago
CVPR
关系知识蒸馏
该论文提出了关系知识蒸馏方法(RKD),用于将数据示例之间的相互关系转移给学生模型,进而提高其在度量学习等任务中的性能,尤其是在标准基准数据集上取得了超越其老师的表现。
PDF
5 years ago
Prev
Next