混合流形学习:通过插值隐藏状态获得更好的表示
本文提出混合增强数据方法 MixUp 的一种新的视角 ——“out-of-manifold regularization”,并发现了其存在的 “manifold intrusion” 问题,提出了一种新的自适应正则化方法 AdaMixUp,并通过实验验证了 AdaMixUp 的优越性。
Sep, 2018
本文提出了 ShuffleMix 概念,将 Mixup 样式数据增强算法中的 dropout 策略引入到特征空间。与 Manifold Mixup 相比,ShuffleMix 在单标签和多标签视觉分类任务上表现更优。
May, 2023
这篇论文提出了一种名为 mixup 的学习原则,通过训练神经网络的凸组合来缓解其记忆和对抗性示例敏感等问题,实验表明 mixup 提高了最先进的神经网络结构的泛化性能,并减少了恶意标签的记忆,增强了对抗性示例的鲁棒性,并稳定了生成对抗网络的训练。
Oct, 2017
本文研究了 Manifold Mixup 在 few-shot 学习中的作用,并结合自监督学习和正则化技术,提出了一种名为 S2M2 的方法,显著提高了 few-shot 学习的性能,并在 CIFAR-FS、CUB、mini-ImageNet 和 tiered-ImageNet 等标准 Few-shot Learning 数据集上打破了当前最新的准确性记录。
Jul, 2019
提出了一种简单而有效的插值数据增强方法 MSMix,并在三个中文意图识别数据集上进行了实验,结果表明该方法在全样本和小样本配置下均取得了比其他方法更好的结果。
May, 2023
深度学习模型的数据增强技术在提高性能方面发挥重要作用。本文提出了一种叫做 UMAP Mixup 的混合正则化方案,用于深度学习预测模型的 “在流形上” 自动数据增强。该方法通过利用一种称为统一流形逼近和投影的降维技术,确保 Mixup 操作生成的合成样本位于特征和标签的数据流形上。对多样的回归任务的评估显示,UMAP Mixup 在与其他 Mixup 变种的竞争中表现出色,显示出改进深度学习模型泛化性能的潜力。
Dec, 2023
本文提出了一种基于自监督训练的方法,通过利用所有训练数据的信息,为每个样本提取有意义且可泛化的嵌入空间,从而去除 out-of-distribution 样本,并使用迭代的 Manifold DivideMix 算法找到干净和有噪音的样本,以半监督的方式训练模型。此外,我们还提出了一种名为 MixEMatch 的半监督算法,其中包括在模型的输入和最终隐藏表示中进行 mixup 增强,通过在输入和流形空间进行插值提取更好的表示。对多个合成噪声图像基准和真实世界的网络爬取数据集进行的广泛实验证明了我们提出的框架的有效性。代码可在此 https URL 找到。
Aug, 2023
提出一种新的深度神经网络训练目标函数,叫做流形规范网络(MRnet),通过最小化样本和对抗样本的多层嵌入结果之间的差异来提高对抗性鲁棒性,实验结果表明 MRnet 更具有对抗性鲁棒性,并帮助我们在流形上推广表示。此外将 MRnet 和 dropout 相结合,为三个著名的基准测试数据集(MNIST,CIFAR-10 和 SVHN)实现了有竞争的分类性能。
Nov, 2015
我们介绍了一种名为 NFM 的廉价且有效的数据增强方法,它将基于插值的训练和噪声注入方案结合起来,可获得对决策边界的更好平滑和更好的模型健壮性。我们提供了理论支持和实验证据,表明相对于 mixup 和 Manifold mixup,采用 NFM 得到的模型在多种数据扰动和计算机视觉基准数据集下,具有干净数据的预测准确性和鲁棒性之间的有利平衡。
Oct, 2021
本文提出 Fortified Networks,通过加强深度神经网络的隐藏层来提高深度网络的鲁棒性,尤其是在面对对抗性攻击的情况下。Fortified Networks 主要通过识别隐藏状态是否脱离了数据流形来操作,将隐藏状态映射回数据流形。实验显示该方法能够提高深度网络的鲁棒性,并且优于对输入层进行增强。
Apr, 2018