对抗自动混合
该论文提出了一种自动混合框架 ——AutoMix,它将混合分类分为两个子任务,并使用相应的子网络在双层优化框架中解决。AutoMix 在 9 个图像基准上的广泛实验表明,在各种分类场景和下游任务中,其优越性超过了现有技术。
Mar, 2021
本文研究了 MixUp 生成的目标函数,提出了一种包括自监督学习在内的 SAMix 算法解决该问题,并使用 Mixer 模型来避免在线训练的计算成本。实验证明,SAMix 表现卓越。
Nov, 2021
数据增强通过合成更多的训练样本提高深度学习模型的泛化能力。TransformMix 是一种自动化方法,通过应用学习到的变换和混合扩增策略来创建具有正确和重要信息的混合图像,从而提高性能。
Mar, 2024
这篇论文提出了一种名为 mixup 的学习原则,通过训练神经网络的凸组合来缓解其记忆和对抗性示例敏感等问题,实验表明 mixup 提高了最先进的神经网络结构的泛化性能,并减少了恶意标签的记忆,增强了对抗性示例的鲁棒性,并稳定了生成对抗网络的训练。
Oct, 2017
本研究提出了一种名为 Puzzle Mix 的混合方法,该方法使用卫星信息和自然例子的基本统计信息,以提高神经网络的性能和抗扰攻击能力。实验结果表明,Puzzle Mix 与其他混合方法相比,在 CIFAR-100、Tiny-ImageNet 和 ImageNet 数据集上均取得了最佳的泛化和对抗性鲁棒性结果。
Sep, 2020
通过引入一种名为 MiAMix 的新的 mixup 方法,将图像增强与 mixup 框架相结合,同时利用多种多样的混合方法,并通过随机选择混合掩码增强方法来改进混合方法,该研究表明 MiAMix 在提高性能的同时降低了计算负载。
Aug, 2023
通过对数据进行增强,尤其是在训练数据有限的情况下,数据增强技术可以显著提高计算机视觉模型的泛化能力。然而,由于不同 ially private learning 方法固有的假设,即每个训练图像对学习模型的贡献是有限的,这些技术与不同 ially private 学习方法在基本上不兼容。本文研究了为什么多样本数据增强技术(如 mixup)的朴素应用无法取得良好的性能,并提出了两种新型的数据增强技术,专门针对不同 ially private 学习的约束条件。我们的第一种技术 DP-Mix_Self 通过在自我增强的数据上执行 mixup,在一系列数据集和设置中实现了具有 SoTA 分类性能。我们的第二种技术 DP-Mix_Diff 通过将来自预训练扩散模型的合成数据纳入 mixup 过程中,进一步提高了性能。我们在此 URL 中开源了代码。
Nov, 2023
本文提供了理论分析,证明了使用 Mixup 在训练中如何帮助模型的鲁棒性和泛化性,表明最小化 Mixup 损失相当于大致最小化对抗性损失的上界,而对于泛化性我们证明了 Mixup 数据增强对应于一种特定类型的数据自适应正则化,从而减少了过拟合。
Oct, 2020
本文尝试将最新的数据增强技术 Mixup 应用于自然语言处理领域,特别是在与 NLP 相关的 transformer-based 学习模型中。实验结果表明,Mixup 在预训练的语言模型中是一个独立于领域的数据增强技术,能够显著提高其性能。
Oct, 2020
这篇论文介绍了用 mixup 在训练深度神经网络以提高泛化性能和模型对抗干扰的鲁棒性,并通过 mixup 推理原则 MI 来利用全局线性行为主动防御对抗攻击,在 CIFAR-10 和 CIFAR-100 数据集上取得了良好效果。
Sep, 2019