Mar, 2023

在高激活空间中通过变换增强自监督学习的深度增强

TL;DR采用 “Deep Augmentation” 方法,通过在神经网络内部针对性地应用 dropout 实现数据增广,并采用 stop-gradient 操作进一步提高模型性能和泛化能力,在视觉和自然语言处理领域的对比学习任务中通过对 ResNets 和 Transformers 模型的广泛实验证明效果显著,与增广输入数据相比,针对深层模型的 Deep Augmentation 效果更好,而且该方法简单且对网络和数据无限制,方便集成到计算机视觉和自然语言处理流程中。