AugMix:一个简单的数据处理方法,用于提高鲁棒性和不确定性
IPMix 提供了一种简单且可用于提高神经网络的鲁棒性的数据增强方法,通过整合图像级、补丁级和像素级三层数据增强,并引入结构复杂性和随机混合方法以扩大训练数据的多样性,实现在多个评估参数上的优越性能。
Oct, 2023
通过将混合样本与标签训练,混合训练方法 (mixup) 在图像分类任务中表现出更好的数据增强效果,并且得到了更好的预测可靠性,表现为更好的校准性和更少的过于自信的预测。
May, 2019
深度神经网络在工业制造环境中,数据增强成为了缓解过拟合和提升网络性能的关键策略。我们提出了一种针对工业应用和基准数据集的方法 ContextMix,通过调整图片大小并将其整合到批次中的其他图片中,生成新的数据。该方法在性能上超过了现有的增强技术,并在公共基准数据集上的分类、检测和分割任务中展示了改进的结果。在真实的工业环境中,我们的方法表现出了显著的效果,尤其是在被动元件数据集上。
Jan, 2024
本文提出了一种通过测试时混合数据增强方法(TTMA)来进行深度学习图像分类不确定性估计的方法。基于混合增强方法,我们引入了 TTMA 数据不确定性(TTMA-DU)和 TTMA 类别相关不确定性(TTMA-CDU),分别可以提供更加准确的不确定性估计和深入的数据分析,通过在 ISIC-18 和 CIFAR-100 数据集上的实验验证了所提出方法的有效性。
Dec, 2022
本文提供了理论分析,证明了使用 Mixup 在训练中如何帮助模型的鲁棒性和泛化性,表明最小化 Mixup 损失相当于大致最小化对抗性损失的上界,而对于泛化性我们证明了 Mixup 数据增强对应于一种特定类型的数据自适应正则化,从而减少了过拟合。
Oct, 2020
本研究提出一种名为 Robustmix 的新型混合扩充方法,通过正则化网络以分类基于较低频空间特征。结果表明,这种正则化方法在诸如 Imagenet-C 和 Styleized ImageNet 等多个测验中提高了网络的鲁棒性,且有利于有效减少计算负荷。使用 EfficientNet-B8 模型和 RandAugment 方法获得了最先进的 mCE 达到 44.8,比基准线降低 16 mCE。
Apr, 2023
该论文提出了一种自动混合框架 ——AutoMix,它将混合分类分为两个子任务,并使用相应的子网络在双层优化框架中解决。AutoMix 在 9 个图像基准上的广泛实验表明,在各种分类场景和下游任务中,其优越性超过了现有技术。
Mar, 2021
AugMax 是一种数据增强框架,旨在将 DNNs 的鲁棒性的多样性和难度两个方面统一起来。 AugMax 首先随机采样多个增强算子,然后学习所选算子的对抗性混合。 为了解决模型训练更具挑战性的问题,作者进一步设计了一种名为 DuBIN 的解耦归一化模块。 它可以解决由 AugMax 引起的不同实例间特征异质性的问题,并且比现有技术在 CIFAR10-C,CIFAR100-C,Tiny ImageNet-C 和 ImageNet-C 上的超出分布鲁棒性方面表现更好。
Oct, 2021
提出基于全局聚类关系的新型数据扩增方法 ——Global Mixup,其中通过将先前的一阶段扩增过程分解为两阶段,从而将生成虚拟样本的过程与标记过程分离,并根据生成样本的全局关系计算子集对生成样本的标签重新标记,从而在更大的采样空间中生成更可靠的虚拟样本。在 CNN、LSTM 和 BERT 上的五项任务的广泛实验表明,Global Mixup 明显优于现有最新技术基线。
Jun, 2022
通过引入一种名为 MiAMix 的新的 mixup 方法,将图像增强与 mixup 框架相结合,同时利用多种多样的混合方法,并通过随机选择混合掩码增强方法来改进混合方法,该研究表明 MiAMix 在提高性能的同时降低了计算负载。
Aug, 2023