BriefGPT.xyz
Ask
alpha
关键词
self-attention-like architectures
搜索结果 - 2
ICLR
卷积神经网络是否可以比 Transformer 更强大?
本文通过仔细研究 Transformers 的设计,发现在提高稳健性方面,使用卷积神经网络(CNNs)设计的架构同样有效。具体来说,我们的发现分别是:a)分块输入图像,b)增大卷积核尺寸,以及 c)减少激活层和归一化层的设计。我们的实验结果
→
PDF
2 years ago
Transformer 模型是否比卷积神经网络更具鲁棒性?
本文首次提供公平而深入的 Transformer 和 CNNs 的对比,重点关注强度的评估,并表明了 CNNs 可以像 Transformer 一样有效地抵御对抗攻击。同时,我们发现强大的泛化能力主要得益于 Transformer 的自我关
→
PDF
3 years ago
Prev
Next