离散表示增强视觉 Transformer 的鲁棒性
本研究通过提出两种攻击策略,Self-Ensemble 和 Token Refinement,充分利用了 Vision Transformers 的自注意力和组合性质来增强对抗攻击的传递性能。
Jun, 2021
本文通过使用视觉 Transformer 在语义标记空间中密集地建模标记关系并减少卷积计算量,从而在 ImageNet top-1 和 LIP,COCO-stuff 图像分割测试上表现出了显着的优势。
Jun, 2020
本文旨在研究 Vision Transformer 对常见的图像扰动、分布偏移和自然对抗样本的稳健性,并在六个不同的 ImageNet 数据集上与 SOTA 卷积神经网络进行性能比较,通过一系列六个系统设计的实验,提供了定量和定性的分析来解释 ViT 为什么是更加稳健的学习器。
May, 2021
本研究提出一种迭代和渐进式采样策略,以定位具有区分性的区域,并与 Vision Transformer 结合起来,形成 PS-ViT 网络。该网络可自适应地学习何时观察图像的哪些区域,从而在 ImageNet 数据集上表现出比原始 ViT 网络高 3.8%的 top-1 准确性(使用约 4 倍的参数和 10 倍的运算次数)。
Aug, 2021
本文对视觉 Transformer(ViT)的抗干扰性进行了全面的研究,发现相比于 MLP-Mixer 和卷积神经网络(CNNs),ViTs 拥有更好的对抗性鲁棒性。经过频率分析和特征可视化,发现 ViTs 所学习的特征中包含的高频模式较少,这有助于解释为什么 ViTs 对高频扰动较不敏感,并且现代 CNN 设计可以帮助填补 ViTs 和 CNNs 表现的差距。
Mar, 2021
本文旨在分析分析 ViT 模型中自注意力机制对于图像处理中的处理噪声和疑问具有的灵活度,并探讨基于形状编码的图像编码方法,以及使用 ViT 以无需像素级监督的方式实现准确的语义分割。
May, 2021
本论文提出了一种名为 T2T-ViT 的 Tokens 转到 Tokens 的视觉变压器,用于图像分类,通过对输入图像进行递归聚合邻近的 Tokens,结合本地结构进行建模,从而提高模型训练样本效率,并减少模型参数和计算量,最终在 ImageNet 数据集上取得了优秀的表现。
Jan, 2021
本文介绍了一种名为 ChannelViT 的模型,通过引入 Hierarchical Channel Sampling 技术对 ViT 进行改进,以增强其在多通道图像领域中的应用能力,并证明了其在分类任务上的性能优于 ViT,即使在测试期间只使用部分输入通道,ChannelViT 仍能良好地推广。同时,通过实验证明,Hierarchical Channel Sampling 作为一种简单直接的技术,可以作为 ViT 训练的有效正则化器,使得 ChannelViT 能够在稀疏传感器条件下,在有限访问所有通道的情况下有效推广,突出了其在稀疏数据情况下的潜力。
Sep, 2023
本篇研究介绍如何以有限数据训练 Vision Transformers,并探讨使用基于参数实例鉴别方法的理论分析。结果表明,该方法优于其他方法,可捕捉特征对齐和实例相似性,并在多个 ViT 基础下从头开始训练 7 个小数据集,取得了最新的测试结果。此外,该研究还探讨了小型数据集的迁移能力,并发现从小型数据集中学习的表示甚至可以改善大规模 ImageNet 的训练结果。
Jan, 2022
提出改进的模块设计,使得 Vision Transformers 在图像分类和语义分割任务中具有真正的平移不变性,并在三个不同数据集上实现了有竞争力的性能表现。
May, 2023