i-Mix:一种领域无关的对比表示学习策略
本文介绍了 Contrast and Mix(CoMix)的新对比学习框架,旨在为无监督的视频领域适应学习具有判别不变性的特征表示。与现有方法依靠对抗学习进行特征对齐不同,我们利用时间对比学习通过最大化未标记视频在两个不同速度下的编码表示的相似性以及最小化不同速度下播放的不同视频的相似性来弥合领域差距,还利用背景混合提出了一种用于时间对比性损失的新型扩展,从而允许每个锚点附加附加正物,增加视频领域适应的语义分享。此外,我们还使用目标伪标签集成了有监督的对比性学习目标,以增强视频领域适应的潜在空间的可区分性。在几个基准数据集上进行的广泛实验验证了我们所提出的方法的优越性。
Oct, 2021
该论文提出了一种基于标签空间的无监督学习方法 (Un-Mix),通过混合输入数据进行联合工作,从而学习到更加精细、鲁棒且广义的表示。实验证明,在 CIFAR-10、CIFAR-100、STL-10、Tiny ImageNet 和 ImageNet 等数据集上,该方法均可以在保持基本方法的超参数和训练程序不变的条件下,显著提高模型的泛化性能。
Mar, 2020
本文提出了一种新的图像混合方法 PatchMix,用于对比学习中的视觉 Transformer,以对图像之间的相似性进行建模,并证明该方法比现有的方法在多项实验中表现更好。
Jun, 2023
本篇论文提出一种名为 MixCo 的半阳性对比学习方法,它可以通过学习混合图像的相关相似度,有效提高自我监督学习中的图像表示性能。在实验中,MixCo 在 TinyImageNet、CIFAR10 和 CIFAR100 等基准测试集上一致地提高了测试准确率,且当模型大小等学习能力受限时,改进效果更为显著。
Oct, 2020
本文研究了 MixUp 生成的目标函数,提出了一种包括自监督学习在内的 SAMix 算法解决该问题,并使用 Mixer 模型来避免在线训练的计算成本。实验证明,SAMix 表现卓越。
Nov, 2021
Self-supervised Multi-modal Contrastive Learning (SMCL) 模型通过整合视觉和语言模态,使现代视觉 - 语言预训练(VLP)模型在无监督学习方面取得显著的进展。然而,由于网络采集的文本 - 图像对中存在噪声问题,在 SMCL 模型中增加训练数据量会带来相当大的计算成本和数据效率问题。为了提高 VLP 模型的数据效率,我们提出了 Text-aware Image Mixing(TiMix)方法,将基于混合的数据增强技术应用到 SMCL 模型中,能够在显著提升性能的同时,不会显著增加计算开销。我们从互信息(MI)的角度对 TiMix 进行了理论分析,表明混合的数据样本能够隐式地作为对比损失的正则化器。实验结果表明,与现有方法相比,即使减少了训练数据量并缩短了训练时间,TiMix 在下游任务上表现出了可比较的性能。该研究从实证和理论上证明了数据混合在数据高效和计算可行的 VLP 中的潜力,为 VLP 模型在实际场景中的广泛应用带来了好处。
Dec, 2023
本论文研究了无监督域适应问题,提出了使用 mixup 公式在领域之间强制应用训练约束,并引入特征级一致性正则化器来促进跨域约束,有条件混合和领域对抗学习,显著提高了图像分类和人类活动识别的重要任务的最新表现。
Jan, 2020
深度神经网络在工业制造环境中,数据增强成为了缓解过拟合和提升网络性能的关键策略。我们提出了一种针对工业应用和基准数据集的方法 ContextMix,通过调整图片大小并将其整合到批次中的其他图片中,生成新的数据。该方法在性能上超过了现有的增强技术,并在公共基准数据集上的分类、检测和分割任务中展示了改进的结果。在真实的工业环境中,我们的方法表现出了显著的效果,尤其是在被动元件数据集上。
Jan, 2024
本文提出了一种基于 Mixup 的领域不变特征增强方法 (FIX) 和进一步增强判别能力的改进方法 (FIXED),在图像分类和时间序列分析等领域得到了广泛实验验证并成功提高测试精度。
Nov, 2022
本研究介绍了一种新的基于概率混合实例级别特征统计的域泛化方法 MixStyle 来提高卷积神经网络模型的泛化性能,该方法着眼于图像风格与视觉域之间的关联关系,并将其应用于 CNN 的底层进行数据增广,既可用于分类任务还可应用于实例检索和强化学习等任务。
Apr, 2021