BriefGPT.xyz
Ask
alpha
关键词
mae
搜索结果 - 4
MAE 预先预训练对亿级预训练的有效性
该论文重新审视了在视觉识别任务中使用的标准预训练 - 微调范式,通过使用自监督 MAE 技术实现额外的预先训练阶段来初始化模型。该方法不仅可以扩展模型大小,还可以扩展训练数据集的规模,从而提高了基础模型的训练效率以及各种视觉识别任务的性能并
→
PDF
a year ago
自监督教师的蒸馏
提出一种名为 MOMA 的框架,通过三种不同的知识转移机制在自我监督的方式下,将来自 MoCo 和 MAE 的知识合作起来,从而产生紧凑的学生模型,在计算效率方面具有极高的蒙面率和显著降低的训练代数,实验证明 MOMA 在计算机视觉方面的不
→
PDF
a year ago
基于掩码自编码的可扩展通用决策制定
本文提出了一种名为 MaskDP 的简单、可扩展的自监督预训练方法,用于强化学习和行为克隆。这种方法利用了掩码自编码器(MAE)在状态 - 动作轨迹中的作用,可以更好地学习多个下游任务的模型。实验表明,MaskDP 模型的零 - shot
→
PDF
2 years ago
DENet: 一种适用于不同密度和尺度人群计数的通用网络
本文提出一种名为 DENet 的网络,包含一个检测网络和一个编码 - 解码估算网络,用于对密度变化较大的对象进行计数,MAE 表现优于其他先进方法。
PDF
5 years ago
Prev
Next