通过互补的内类和间类 Mixup 提高图像分类准确性
本文提出混合增强数据方法 MixUp 的一种新的视角 ——“out-of-manifold regularization”,并发现了其存在的 “manifold intrusion” 问题,提出了一种新的自适应正则化方法 AdaMixUp,并通过实验验证了 AdaMixUp 的优越性。
Sep, 2018
IntraMix 是一种针对图神经网络(GNNs)的通用框架,通过在同一类别的低质量标记数据之间应用 Mixup 生成高质量标记数据的方法,同时通过与同一类别高置信度数据连接生成的数据来建立邻居,从而解决了 GNNs 面临的两个挑战,挑战了在节点分类中 Mixup 的有限有效性的先验观念。
May, 2024
本文提出了一种名为 Infinite Class Mixup 的基于分类器混合的新型数据增广策略,通过对每个增广样本定义一个唯一的新分类器,而不是对训练对标签进行混合,使得神经网络能够更好地学习不同数据类之间的线性行为模式,并在多种模型上取得了较好的性能表现。
May, 2023
介绍了一种名为 AlignMix 的新型混合方法,通过在特征空间中几何对齐两个图像,从而使混合方法保留一个图像的几何特征和另一个图像的纹理,提高了表示学习效果。
Mar, 2021
该论文提出了一种自动混合框架 ——AutoMix,它将混合分类分为两个子任务,并使用相应的子网络在双层优化框架中解决。AutoMix 在 9 个图像基准上的广泛实验表明,在各种分类场景和下游任务中,其优越性超过了现有技术。
Mar, 2021
深度学习模型的数据增强技术在提高性能方面发挥重要作用。本文提出了一种叫做 UMAP Mixup 的混合正则化方案,用于深度学习预测模型的 “在流形上” 自动数据增强。该方法通过利用一种称为统一流形逼近和投影的降维技术,确保 Mixup 操作生成的合成样本位于特征和标签的数据流形上。对多样的回归任务的评估显示,UMAP Mixup 在与其他 Mixup 变种的竞争中表现出色,显示出改进深度学习模型泛化性能的潜力。
Dec, 2023
在本文中,我们提出了一种称为多重揉混(multi-mix)的简单而有效的扩展方法,它通过从样本对生成多个插值样本,可以比标准 mixup 更好地引导训练过程,从而在泛化性能、鲁棒性和校准度方面超过了各种 mixup 变体和非 mixup 基线。
Jun, 2024
Manifold Mixup 是一种正则化方法,有助于训练神经网络在多个隐藏层级别上具有更平滑的决策边界,并提高其对单步对抗攻击的鲁棒性和测试日志似然率。
Jun, 2018
该论文提出了一种基于标签空间的无监督学习方法 (Un-Mix),通过混合输入数据进行联合工作,从而学习到更加精细、鲁棒且广义的表示。实验证明,在 CIFAR-10、CIFAR-100、STL-10、Tiny ImageNet 和 ImageNet 等数据集上,该方法均可以在保持基本方法的超参数和训练程序不变的条件下,显著提高模型的泛化性能。
Mar, 2020