BriefGPT.xyz
Ask
alpha
关键词
low-level general information
搜索结果 - 1
为类增量学习在视觉 Transformer 中保留局部性
通过实验结果证明,采用 Locality-Preserved Attention (LPA) 可以防止 Vision Transformers 学习新的类别时出现 Locality Degradation 现象,从而保留更多的低层局部信息,
→
PDF
a year ago
Prev
Next