AlignMixup:通过插值对齐特征来改进表征
通过提出的 MultiMix 方法,在嵌入空间中生成任意数量的插值样本,扩大了 Mini-batch 的面积,从而显著提高了 Mixup 方法在四个不同基准上的效果。
Nov, 2023
在本文中,我们提出了一种称为多重揉混(multi-mix)的简单而有效的扩展方法,它通过从样本对生成多个插值样本,可以比标准 mixup 更好地引导训练过程,从而在泛化性能、鲁棒性和校准度方面超过了各种 mixup 变体和非 mixup 基线。
Jun, 2024
本文尝试将最新的数据增强技术 Mixup 应用于自然语言处理领域,特别是在与 NLP 相关的 transformer-based 学习模型中。实验结果表明,Mixup 在预训练的语言模型中是一个独立于领域的数据增强技术,能够显著提高其性能。
Oct, 2020
该论文提出了一种自动混合框架 ——AutoMix,它将混合分类分为两个子任务,并使用相应的子网络在双层优化框架中解决。AutoMix 在 9 个图像基准上的广泛实验表明,在各种分类场景和下游任务中,其优越性超过了现有技术。
Mar, 2021
通过插值生成增强特征并逐渐将其移动到类间特征对的中点,提出了一种更好的特征增强方法。该方法具有两个效果:1)平衡所有类的间隔;2)在保持最大置信度的同时适度扩大间隔。在视觉上可视化表示来测量对齐和均匀性的折叠效应,验证了粗细粒度转移学习中的类内折叠效应和长尾数据集上的不平衡学习中的类间折叠效应。在这两个任务中,我们的方法表现优于其他增强方法。
Jan, 2024
本文提出了一种名为 Infinite Class Mixup 的基于分类器混合的新型数据增广策略,通过对每个增广样本定义一个唯一的新分类器,而不是对训练对标签进行混合,使得神经网络能够更好地学习不同数据类之间的线性行为模式,并在多种模型上取得了较好的性能表现。
May, 2023
提出基于全局聚类关系的新型数据扩增方法 ——Global Mixup,其中通过将先前的一阶段扩增过程分解为两阶段,从而将生成虚拟样本的过程与标记过程分离,并根据生成样本的全局关系计算子集对生成样本的标签重新标记,从而在更大的采样空间中生成更可靠的虚拟样本。在 CNN、LSTM 和 BERT 上的五项任务的广泛实验表明,Global Mixup 明显优于现有最新技术基线。
Jun, 2022
本文提出利用插值增强点云的数据,定义了点云之间的最短路径线性插值,介绍了 PointMixup 方法进行插值,可以引入基于插值的正则化方法,例如 mixup 和 manifold mixup,证明了 PointMixup 可以找到点云之间的最短路径,实验显示它能够显著提高点云分类的性能,特别是在数据不足以及噪声和几何变形的情况下。
Aug, 2020
本文提出了 ShuffleMix 概念,将 Mixup 样式数据增强算法中的 dropout 策略引入到特征空间。与 Manifold Mixup 相比,ShuffleMix 在单标签和多标签视觉分类任务上表现更优。
May, 2023