BriefGPT.xyz
Oct, 2024
加速增广不变性预训练
Accelerating Augmentation Invariance Pretraining
HTML
PDF
Jinhong Lin, Cheng-En Wu, Yibing Wei, Pedro Morgado
TL;DR
本研究解决了对比学习方法在视觉变换器(ViTs)预训练中的计算挑战,特别是大量计算资源的需求限制了其应用。我们提出一种加速框架,通过结合随机化的token丢弃和灵活的补丁缩放等序列压缩策略来减少梯度估计的成本并加速收敛,显著提升了在大规模数据集上的自监督学习算法的效率。
Abstract
Our work tackles the computational challenges of
Contrastive Learning
methods, particularly for the pretraining of
Vision Transformers
(ViTs). Despite the effectiveness of
→