BriefGPT.xyz
大模型
Ask
alpha
关键词
self-supervised vision pretraining
搜索结果 - 1
Transformer 在屏蔽图像建模中证明能够学习特征 - 位置相关性
本文提供了首个关于 MIM 自监督预训练中使用 softmax 注意力的一层 transformer 的端到端理论,旨在解释 transformer 的理论机制,并分析其训练动态,以同时考虑输入和位置嵌入,在数据分布中产生局部和多样化的注意
→
PDF
4 months ago
Prev
Next