CVPRApr, 2023

强化自我监督视觉 Transformer 预训练的标记增强技术

TL;DR该研究提出了一种插件式的 Token Boosting 模块,可用于预先训练视觉 Transformer 模型,以在面对数据噪声和不可靠性时改善模型的鲁棒性和可泛化性。实验结果表明该模块在四个不同噪声数据集上表现稳定,且提高了下游任务的性能。