- 混合增强与多种插值
在本文中,我们提出了一种称为多重揉混(multi-mix)的简单而有效的扩展方法,它通过从样本对生成多个插值样本,可以比标准 mixup 更好地引导训练过程,从而在泛化性能、鲁棒性和校准度方面超过了各种 mixup 变体和非 mixup 基 - Annot-Mix: 通过 Mixup 扩展从多个注释者的嘈杂标签中学习
噪声类标签训练影响神经网络的泛化性能,提出了一种基于多注释者分类框架 annot-mix 的 mixup 扩展方法,可以处理每个实例的多个类标签,并考虑类标签的注释者来源,优于现有的八种方法,并在使用人类或模拟注释者提供的十一个数据集上表现 - 通过互补的内类和间类 Mixup 提高图像分类准确性
提出一种综合的混合方法和综合解决方案,针对图像分类任务中的类内混合、类间可分离性和类内内聚性进行增强,实验结果表明,该方法相比于现有方法以及类似方法在分类准确性上具有显著提升。
- 学习最小方差特征通过标签增强
我们分析了标签增强方法在模型训练中的作用,证明了采用标签增强的线性模型仅仅学习数据中的最小方差特征,而标准训练则能够学习到更高方差的特征。我们的结果表明,与标准训练相比,标签平滑和 Mixup 在对抗性扰动下对训练数据的鲁棒性较差。通过对合 - ICLR拓展边界:Mixup 对神经崩溃的影响
混合增强是一种数据增强策略,通过训练实例及其标签的凸组合来增强深度神经网络的鲁棒性和校准性。本研究深入探讨了混合增强对深度网络训练数据最后一层激活的影响,发现其激活结果呈现独特的几何配置,揭示了混合增强增强模型校准的机制。同时进行理论分析, - 超混合:在少样本设置中进行外域检测和分类
在有限的内分布样本情况下,本文提出了一种名为 HyperMix 的超网络框架,使用对生成的分类器参数进行 Mixup 处理,并采用一种自然的 Episode 外部曝光技术来进行离群样本检测,实验证明在少样本情况下,该方法明显优于其他离群检测 - SegMix:一种简单的结构感知数据增强方法
提出了一种基于插值的数据增强算法 SegMix,该算法在具有任务特定结构的有意义的片段上进行插值,相比之前的方法在命名实体识别(NER)和关系抽取(RE)任务中表现更好,尤其在数据稀缺的情况下性能提升明显。
- 超越小批量、超越对以及超越示例的嵌入空间插值
通过提出的 MultiMix 方法,在嵌入空间中生成任意数量的插值样本,扩大了 Mini-batch 的面积,从而显著提高了 Mixup 方法在四个不同基准上的效果。
- 使用核变形函数为数据定制混合策略
动态地改变插值系数的分布以通过变形函数混合相似数据点,提出了一种既高效又灵活的框架,这样做既不会损失多样性,又会提高模型的性能和校准性。
- DropMix:更好的图形对比学习与更困难的负样本
在图对比学习中,我们提出了一种名为 DropMix 的新方法,用于合成更加困难的负样本,通过选择和混合难负样本的表示维度,减少信息丢失,从而提升图对比学习性能。
- 增强:基于注意力的 Mixup 用于 Transformer 的性能提升和标签平滑
混合是一种有效的数据增强方法,通过聚合不同原始样本的线性组合来生成新的增强样本,本文提出了一种名为 AMPLIFY 的新的混合方法,使用 Transformer 自身的注意机制来降低原始样本中噪音和异常值对预测结果的影响,避免了传统混合方法 - GDM:有限监督下的图分类的双重混合技术
本文提出了一种新颖的基于混合的图形增强方法,称为图形双重混合(GDM),利用图形实例的功能和结构信息生成新的标记图形样本,以增加有限可用标记图形样本的大小和多样性,并通过两种新颖的平衡图形采样方法增强生成图形样本的平衡难度和多样性。在基准数 - 从 SMOTE 到 Mixup 的深度不平衡分类
通过增强传统的 SMOTE 方法并与 Mixup 结合,提出了一种统一的深度学习数据增强框架,实验结果表明该方法在深度不平衡分类任务上具有最先进的性能,并且在极度不平衡数据上也达到了优异的效果。
- ICCVLORD: 利用未知数据提升开放集识别能力
利用 LORD 框架在分类器训练过程中明确建模了开放空间,通过三种模型不可知的训练策略提高了对未知数据的识别,并探索了将混合作为数据生成技术的可行性。
- ICCVRankMixup: 基于排名的 Mixup 网络校准训练
RankMixup 是一种基于混合的框架,通过 Ordinal Ranking Relationship 实现网络校准,通过混合系数和置信度之间的顺序关系来提高校准能力,并减少混合标签的问题。
- 语义等变性混合
我们提出了语义等变混合(sem),通过在表示层面上引入了泛化的混合正则化,以提高模型对分布转移的鲁棒性,通过扩展训练分布和调节神经网络,根据标签等变性假设生成混合样本,并进一步利用混合样本中的语义信息对模型进行正则化。
- G-Mix: 通向扁平极小值的广义 Mixup 学习框架
深度神经网络(DNN)面临着超参数化的挑战,特别是在训练数据有限的情况下。为了增强 DNN 的泛化能力,我们提出了一种名为 Generalized-Mixup 的新学习框架,将 Mixup 和 Sharpness-Aware Minimiz - 软对准的图形混合
本文研究了通过 Mixup 进行图数据增强的方法,提出了一种为图分类提供软对齐的较为简单有效的 Mixup 方法 S-Mixup,并探究了其对图神经网络性能和鲁棒性的影响。
- 无限类别混淆
本文提出了一种名为 Infinite Class Mixup 的基于分类器混合的新型数据增广策略,通过对每个增广样本定义一个唯一的新分类器,而不是对训练对标签进行混合,使得神经网络能够更好地学习不同数据类之间的线性行为模式,并在多种模型上取 - AAAI领域适应语义分割的双向领域混合
该研究系统地研究了在领域自适应语义分割任务中应用 Mixup 的影响,并提出了一种简单而有效的混合策略 - 双向域混合(BDM),与多种最先进的自适应模型相结合,观察到了一致的显著改进。