BriefGPT.xyz
Ask
alpha
关键词
knowledge distillation methods
搜索结果 - 3
AMD:大规模视觉模型的自动多步蒸馏
我们提出了一种名为 AMD 的新方法,用于大规模视觉模型压缩,通过跨多个步骤展开蒸馏过程,形成中间的助教模型,以进一步蒸馏到学生模型。我们的方法在多个图像分类数据集上表现优于已有方法,为大规模视觉模型的知识蒸馏方法铺平了道路。
PDF
5 days ago
多领域假新闻检测的双教师去偏执蒸馏框架
提出了一种基于 Dual-Teacher De-biasing Distillation 框架的多领域假新闻检测方法,通过知识蒸馏方法构建了一个不带偏见的教师和一个具有领域知识的干净教师来指导学生模型,以减少领域偏见问题并保持性能,实验证明
→
PDF
7 months ago
ECCV
基于逐帧推理的高效语义视频分割
本文提出了一种有效的语义视频分割方法,借鉴于现有方法中将结果传播到相邻帧或使用其他帧提取帧表示时可能会导致不准确的结果或不平衡的延迟问题,我们在推理过程中采用逐帧方式处理,其中显式考虑帧与帧之间的时间一致性,并将此一致性嵌入到语义分割网络中
→
PDF
4 years ago
Prev
Next