BriefGPT.xyz
Ask
alpha
关键词
residual attention learning method
搜索结果 - 1
ReViT: 增强视觉变压器的注意力残差连接 用于视觉识别
通过引入新的残差注意力学习方法来改善 Vision Transformer (ViT) 架构,包括增加视觉特征多样性和模型的鲁棒性,以提高识别系统的准确性。在五个图像分类基准测试中,通过对 ImageNet1k、CIFAR10、CIFAR1
→
PDF
5 months ago
Prev
Next