KDDAug, 2022

通过柯西问题理解视觉 Transformers 的对抗稳健性

TL;DR本文通过理论证明和实证分析,探讨了 Vision Transformers 模型的稳健性,证实其在抵抗自然干扰和强攻击方面优于卷积神经网络,并且证明了模型的 Lipschitz 连续性,进一步分析了模型的关键因素和结构,发现 Multi-head Self-Attention 在抵抗弱攻击方面有所贡献,但在抵抗强攻击方面实际上会削弱模型的稳健性。