BriefGPT.xyz
Ask
alpha
关键词
concept distillation
搜索结果 - 2
概念提炼:利用人类中心解释提升模型性能
我们将 CAVs 从事后分析扩展到事前训练,通过使用额外的概念损失进行微调来减少模型偏差。我们还引入了概念蒸馏,使用预训练的知识模型作为教师来创建更丰富的概念。我们展示了概念敏感训练在去偏、分类问题和重建问题中的应用,可以提高模型的可解释性
→
PDF
7 months ago
CVPR
视觉语言预训练的过滤、蒸馏和难负样本
通过对大规模嘈杂数据进行对比学习训练的视觉 - 语言模型正在变得越来越受欢迎用于零样本识别问题,本文在数据集噪声、模型初始化和训练目标三个方面对对比预训练管道进行了改进。通过 Complexity、Action、and Text-spott
→
PDF
2 years ago
Prev
Next