BriefGPT.xyz
Ask
alpha
关键词
vision transformer networks
搜索结果 - 2
卷积初始化用于数据高效的视觉 Transformer 模型
我们研究了在小数据集上训练视觉转换网络所面临的挑战,发现卷积神经网络可以通过利用其体系结构归纳偏差实现最先进的性能。我们探索了这种归纳偏差是否可以重新解释为视觉转换网络中的初始化偏差,并提出了一种新的初始化策略,可以在小数据集上实现与卷积神
→
PDF
5 months ago
MOCA:通过预测掩码在线码书分配进行自监督表示学习
提出了一种单阶段且独立的方法 MOCA,用高层特征定义新颖的掩码和预测目标,有效地结合了自我监督学习的两种范式,在低样本设置下取得了新的最先进结果,并且训练速度至少比之前的方法快 3 倍。
PDF
a year ago
Prev
Next