Mar, 2025

ForAug:重组前景和背景以改善视觉变压器训练中的偏差缓解

TL;DR本研究解决了视觉变压器(ViTs)在大规模图像分类中对数据需求高、偏差影响鲁棒性和可泛化性的问题。文章提出了一种新颖的数据增强方案ForAug,通过预训练基础模型分离和重组前景对象与不同背景,显著提高了数据多样性,从而提升了ViTs及其他架构的分类准确性,并减少了模型训练中的偏差。