BriefGPT.xyz
大模型
Ask
alpha
关键词
feature-based distillation
搜索结果 - 3
教学中的不确定性:释放目标检测知识蒸馏的潜力
提出一种基于特征的知识不确定性蒸馏范式,能够与现有的蒸馏方法无缝集成,通过蒙特卡洛 dropout 技术引入知识不确定性,提高学生模型对潜在知识的探索能力,并在目标检测任务中获得有效性验证。
PDF
21 days ago
在紧凑空间中对齐:异构架构之间的对比知识蒸馏
基于低频部分的对比知识蒸馏框架能够更好地在异构架构下提取特征表示的共性。通过使用多尺度低通滤波器提取教师和学生模型中间特征的低频部分,并通过对比学习任务优化学生模型的特征区分度,该框架在 ImageNet-1K 和 CIFAR-100 数据
→
PDF
a month ago
ViT 特征知识蒸馏的实用指南
本文研究 Vision Transformer 的特征蒸馏方法,并提出 ViTKD 可以使基于 ImageNet 数据集的学生模型的准确率分别提升 1.64%、1.4%和 1.7%。
PDF
2 years ago
Prev
Next